Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 111 reacties
Bron: Hard Forum

Enkele handige tweakers hebben ontdekt dat het mogelijk is een niet te onderschatten snelheidswinst te behalen met nVidia-kaarten in Half-Life 2. Dit spel heeft namelijk genoeg aan FP16-shaders, maar dwingt deze videokaarten wel constant FP24-shaders te gebruiken voor zijn berekeningen. Met behulp van een programma als 3dAnalyze kan men de kaart zo instellen dat deze toch FP16-shaders berekent, onafhankelijk van wat de software vraagt. Enkele screenshots laten met behulp van deze tweak een prestatiewinst van 11fps zien bij het gebruik van een GeForce FX 5900 Ultra, overgeklokt naar FX 5950 Ultra-snelheid.

Op het forum waar deze tweak gemeld werd, wordt echter meteen de bedenking gemaakt dat deze aanpassing niet bruikbaar is om het volledige spel te spelen. In enkele specifieke gevallen zouden namelijk zichtbare fouten optreden tijdens het renderen. Volgens verschillende gamers illustreert dit echter wel dat Valve niet zozeer de ATi-kaarten bevoordeeld heeft, maar wel de nVidia-kaarten benadeeld, een subtiel verschil. Door specifieke DirectX-instructies te kiezen en andere net weg te laten, presteren nVidia-kaarten heel wat minder goed in dit spel, aldus de ontdekkers.

Half-Life 2
Moderatie-faq Wijzig weergave

Reacties (111)

Jullie halen misschien wat dingetjes doormekaar.

GeForce FX kan wel degelijk DX9, en gewoon goed, destijds VER boven de specificatie, wat ondermeer inhield dat de shaderfragment dingen 80x keer zo groot konder worden als die van de Ati's, daar zei Mr Carmack ook nog over, dat die bij de Radeon al tegen de grens was aangelopen van wat je in die dingen kunt programeren. Neen, het is niet de pixelpipeline zelf met alle shaders die in de FX niet gelukt zijn. Uiteindelijk hebben ze zo veel moeten offeren voor die DX 9, dat ze nogsteeds 4 parralel pixel rendering pipelines overhielden, ipv de 8 die de 9700 Pro gebruikte, 4 dat werd al gebruikt sinds de GeForce 1, maar sinds de GeForce 2 hebben alle GeForcen 2 Texture units per pixel pipeline, oftewel, kunnen ze 4 pixels met 1 texture per pixel maken, en kunnen ze ook 4 pixels met 2 textures maken (8 texels) Dit zorgte voor hget verschil in multitexture fillrate en single texture fillrate. MAAAR, de meeste DX 9 apps gebruiken singletextures omdat de Shaders de rest doen, en multitexture overbodig maken. En ondanks dat de FX 5800 zo hoog geklokt was, als er maar 1 texture op een pixel hoeft te worden geplakt, dan is de 9700 Pro per clock cycle 2 maal zo snel, omdat die 8 pixel pipelines heeft, die elk 1 texture unit hebben.

Zo, en dan nu terug naar de echte shaders, daar heeft de NV30 idd ook wel moeite mee, de registers waren te traag en er waren nog wat andere problemen, maar HF2 drijft het wel heel erg op de spits.

Oja, doom3 die versnelt kan worden met Ultrashadow 2 staat niet in verhouding met HF2 die GeForce FX-en afremt, en geen DX9 geeft, en artifacts geeft.
@Jan Grouthuijse:

Ik raad je aan eens bij Beyond3D te gaan rondhangen om de echte reden te leren waarom de NV30 langzaam is.
(Gaat te diep en te off-topic om hier over uit te wijden)
En dat zijn keuzes van developers om te maken.

En daar speelt de markt op in, of niet. Destijds was het zo dat je 2 shader-methodes had, zijnde 16bit en 32bit.

32bit en 16bit worden beide door nVidia ondersteunt, maar voor 32bit is zlfs een FX5950Ultra, de snelste kaart in die reeks, te traag. Dus 16bit, en dat ziet er niet al te best uit meestal. ATI kwam hetzelfde probleem tegen, en is gekomen met 24bits shaders, de gulden middenweg. En daarom is die reeks ATI kaarten toen zo succesvol geworden. HL2 is te laat uitgebracht (liever laat dan nooit, en liever goed laat dan fout vroer), en helemaal voor die generatie bedacht. Het is f 16bit, f 24bit. En die 24bits dingen zijn maar wt lastig te verwerken voor de nVidia kaarten van weleer.
Ongelooflijk wat kunnen mensen toch blaten.

Net overigens als die volledige thread bij hard forum.

Het is COMPLEET ONMOGELIJK om een Nvidia kaart 24bit shaders te geven.
Dat gebeurd dan ook niet. Dat die figuren bij Hardforum dat wel beweren geeft alleen maar aan dat ze geen flauw idee hebben waar ze over praten, en daarom komen ze ook op resultaten die ze niet begrijpen. En dus zal in hun ogen Valve wel iets smerigs gedaan hebben.

DX9 maakt geen onderscheid tussen 24bit en 32bit shaders.

DX9 heeft alleen het onderscheid tussen partial en full precision shaders. Een full precision shader is precies hetzelfde voor een ATI of Nvidia kaart.
Het verschil is dat de identieke code van die shader, intern in een ATI kaart met 24bit precisie wordt verwerkt en intern in een Nvidia kaart met 32bit precisie.

Om een Nvidia kaart sneller te laten werken, kun je een shader vertellen dat die in partial precision gedaan moet worden.
Nog steeds dezelfde code (met als extra een flag dat ie partial precision is). En die code wordt dan met 16 bit precisie verwerkt.


Wat ze bij Hardforum hebben gedaan is een FX kaart zich laten voordoen als een Radeon.
Een Radeon heeft geen partial precision. Dus zal de code voor een Radeon allemaal full precision zijn.

Vervolgens gaat die FX dus alles in full precision doen, dus 32bit.
Dan forceren ze die FX om alles in partial precision te doen. En wordt diezelfde code dus in16bit verwerkt.

Nogal logisch dat je dan een groot snelheidsverschil krijgt. En dat het dan lijkt alsof Valve opzettelijk Nvidia benadeeld.

Maar als je dan vervolgens verder kijkt zie je dat je allerlei artefacten krijgt.
Je zou dus maar een deel van de shaders in partial precision moeten laten draaien. Dat is wat bij de 6xxx serie kaarten gebeurd.

Wat ze hadden moeten doen is die FX zich laten voordoen als een 6800 kaart. DAN had je waarschijnlijk wel partial precision gekregen en had je die artefacten niet gehad.

Maar dan was de performance winst waarschijnlijk ook veel kleiner geweest. Als je namelijk nou net full-precision nodig hebt om een shader die ontzettend veel gebruikt worden, en partial precision op shaders die heel weinig gebruikt worden, dan schiet je waar wat betreft prestaties dus geen zier mee op.

Wellicht dat iemand daar nog eens zo slim wordt om dit te proberen. Maar de thread is daar zo lang, en het nivo zo laag, dat ik niet de moeite ga nemen 'm helemaal door te nemen!
MS zelf heeft (ruim van te voren) gezegt dat de standard shader in DX9 24bit's zou zijn.
dat Nvidia daar niet op heeft ontworpen is dus hun eigen fout.
Eigenlijk is het je reinste sabotage van Valve. Ik maak namelijk zelf wel uit of ik een nVidia kaart neem of een ATI. En dat ze hun game optimaliseren voor n van beide kaarten is al twijfelachtig, maar de gebruiker die 'de verkeerde kaart' heeft regelrecht benadelen is een zeer bedenkelijke praktijk.

Goede reden om hem dan maar niet te spelen...
Wat wil je nu zeggen? Het optimaliseren mag wel van jou (maar twijfelachtig), maar het benadelen van een gebruiker (met de verkeerde kaart) mag niet? Denk je niet dat deze twee statements nogal tegenstrijdig zijn. Om iets wel te optimaliseren voor de ene kaart zal de gebruiker van de andere kaart uiteraard benadeeld worden.
Klopt natuurlijk niet helemaal: je kunt je best doen om de features en sterke kanten van n chipset/merk naar voren te halen, n je kunt je best doen om de zwakke punten van een andere kaart (de concurrent) zodanig te bespelen dat de kaart minder presteert dan hij had gekund.

Ik citeer:
"Volgens verschillende gamers illustreert dit echter wel dat Valve niet zozeer de ATi-kaarten bevoordeeld heeft, maar wel de nVidia-kaarten benadeeld, een subtiel verschil. Door specifieke DirectX-instructies te kiezen en andere net weg te laten, presteren nVidia-kaarten heel wat minder goed in dit spel, aldus de ontdekkers."

Begrijp je het verschil nu?
Nope, ik zie geen verschil. De sterke punten van de ene kaart zijn de zwakke punten van de andere kaart en vica versa.. (als dat immers niet het geval zou zijn, zou het ook niet als sterk punt aangemerkt kunnen worden). Mijn inziens is er dus geen verschil.
Het verschil is dat wat ze hebben gedaan niet per se prestatie winst oplevert bij de Ati kaart en dus geen optimalisatie is, wat ze hebben gedaan is bepaalde eisen stellen aan de hardware zonder daar een directe reden voor te hebben, w3aardoor ze dus de nVidia kaart benadelen.
De ene kaart benadelen of de ander bevoordelen is weldegelijk verschillend, ik snap je stelling wel, "als je voor de een optimaliseerd zal de ander minder presteren" maar dan moet het wel om een optimalisatie gaan, en daar gaat het hier niet over.
Nogmaals: de sterke punten van n kaart uitbuiten mag nog wel, maar je best doen om een andere kaart slechter te laten presteren dan hij zou kunnen is toch echt iets anders.

Vergelijk het hiermee: stel Shell heeft een contract met Opel en zorgt er niet alleen voor dat Opels lekkerder lopen met hun benzine, maar ook dat Volkswagen gaan stotteren door de toevoeging van een stof die niet noodzakelijk is om de Opel beter te laten lopen.
Zeer slechte vergelijking.. en besides.. vergeet niet dat het hier om een specifieke nvidia serie gaat die niet eens dx9 compiant is.

De nieuwswaarde is al ontzettend laag en dan komen daar nog de nutteloze discussies bij..

Valve heeft gewoon een engine gemaakt die veel features uit de dx9 specs gebruikt. Dat toevallig ATI daar hardware voor levert die beter daar op aansluiten is Valve niet te verwijten. Verwijt dan nVidia dat ze zich primair op OpenGL focussen. Dat zou stukken zinvoller zijn.
nou sorry hoor maar als je dingen krijgt als
In enkele specifieke gevallen zouden namelijk zichtbare fouten optreden tijdens het renderen
Dan is dat gelijkt de reden klaar
Je kan als game fabrikant tegenwordig het niet maken om zomaar artifacts en andere troep toe te laten om een merk vid kaarten te laten concureren met een andere.
Punt nu is gewoon over het algemeen is ATI beter met DX9 en Nvidia met Opengl en dat moet je voor lief nemen.

Maar dat je ze saboteur gaat noemen omdat ze niet zomaar het gameengine gaan downgraden om de concurent in video kaarten te helpen is rond uit belachelijk.
Het gaat hier immers om wat je mogelijk niet ziet in verschill tussen 16 en 24 bit. Maar dat wil absoluut niet zeggen dat het engine het niet gebruikt.

Al hadden ze nou hetzelfde TRUKJE uitgeprobeerd met een ati kaart dan was het topic misschien wel anders geweest, want wie zegt dat ati kaarten niet 25 fps winnen door de shader te downgraden ?
een aantal artifacts hadden ze hoogst waarschijnlijk wel kunnen bugfixen, ik hoop persoonlijk dat nVidia's driver devisie hier inmiddels ook hoogte van heeft gekregen en dat er een knappe driver update gaat komen die ons een paar knappe kunstjes gaat laten zien. want het lijkt me dat ze dat wel kunnen daar.
artifacts bugfixen?? We hebben het hier over de render pipeline van de videokaart. Verwacht je dat Valve een chip-upgrade mee levert voor je kaart :-)
ach mag het ook een keer 1 op de 1000 games een keer GEEN "nVidia the way its meant to be played :+

en de nVidia spellen draaien ook goed op ATI en andersom niet nou dan weet ik wel waar het aan ligt :Z
Onzin, Half Life 2 draait bij mij perfect op een 6800GT. Heeft die geen enkele moeite mee. Het gaat hier alleen over de NV30 serie (FX 5xxx).
en de nVidia spellen draaien ook goed op ATI en andersom niet nou dan weet ik wel waar het aan ligt
Dan ligt het dus aan de Ati-based games. Nvidia games blijken ook goed te gamen op een Ati kaart, maar Ati games niet op een Nvidia. Daar kan Nvidia niks aan doen want het is duidelijk dat Nvidia met de NV40 een zeer goede kaart heeft neergezet, als dat dan lang niet zo goed draait op Ati-based games dan ligt het echt wel aan de game, en worden dus Nvidia gamers benaald. Optimalisaties mogen van mij best, maar je gaat andere iig niet benadelen om hun kaart.

@Hielko, ik vindt er nogal een verschil is tussen een kaart optimaliseren, of een ander juist benadelen. Tuurlijk als je voor de 1 optimaliseert, zijn de andere zoiezo al benaald, maar nooit zo dat je allerlei maatregelen neemt om het op de kaart van de concurrent maar slecht te laten draaien. Dat slaat namelijk nergens op
nee want al de andere nvidia games zijn geoptimaliseerd voor nvidia maar daar heeft een ati kaart geen moeite mee want ze zijn snel genoeg

en nvidia kaarten hebben wel moeite met ati optimised games, en als het spel niet ati optimised was draaide het zowiezo goed alleen nu beter ;)

als een spel niet optimised was voor een van beide kaarten dan was alsnog ati sneller :>
Het zat er ook wel in dat het niet helemaal correct was met hl2. Er was opeens een groot gat dat er niet was in andere dx9 games.
Een beetje hetzelfde geval als in d3 met shaderreplacement voor Ati. Met andere woorden zowel Ati als nvidia zijn zwarte schapen die elkaar af willen troeven met een paar mega game hits om zielen te winnen.
Jammer
Het zat er ook wel in dat het niet helemaal correct was met hl2.
het gaat hier vooral om de oude FX5xxx kaarten.
die zijn niet eens dx9 compliant (alleen compatible)
dat valve heeft gekozen om de gewone DX9 standaard aan te houden kan je valve niet aanrekenen, en 24bit shaders horen daarbij.

edit : ik heb net de thread even goed door gelezen en het gaat hier om het geforceerd in dx9 laten draaien van een FX kaart door die kaart voor te doen als een Radeon.
dus het spel schoteld de kaart dan ook 24bit shaders voor.
dat zorgt voor veel artifacts (want de fx kaart is niet dx9 compliant)
maar die krijg je weg door het spel te forceren om 16bit shaders te gebruiken.
maar het is dan geen dx9 renderen meer (dat moet minimaal 24bit zijn)
Valve treft in deze dus geen blame als je het mij vraag. ze hebben zich netjes aan de standaard gehouden en alle kaarten die daar niet op draaien op een lagere standaard laten draaien.
Als je een GF FX gebruikt zal HL2 standaard DX 8.1 gebruiken.

Dus het is bullshit dat Valve de DX9 standaard aanhoudt.
omdat die DX9 zowieso niet kan draaien schakeld HL2 over op het DX8.1 Path ja.

De GF FX kaarten zijn namelijk niet DX9 compliant. De kaarten voldoen NIET aan de volledige DX9 specificaties. Dat Valve DX9 aanhoud is helemaal geen bullshit. Valve heeft HL2 juist gemaakt voor DX9. En ze weten ook dat er kaarten zijn die enkel DX9 compatible zijn en bijv wel DX8.1 compliant. Dus hebben ze ook een path geschreven dat met die kaarten overweg kan. Anders zou een GF FX het spel niet eens kunnen draaien aangezien deze dan bepaalde dingen niet zou kunnen renderen.
Beetje beter formuleren voordat je zegt dit en dat is bullshit. Motiveer je reply's heet dat.
maar als je het de thread had gelezen had je gezien dat het hier ging om een FX kaart geforceerd in dx9 te laten draaien door zich voor te doen als radeon.
en dan vinden mensen het gek als het spel de kaart ook echt behaldeld als een radeon en er 24bit shaders op af vuurt.
Ja en nee, Valve heeft zich inderdaat netjes aan de standaart gehouden en nVidia heeft een crappy kaart gefabriceerd, maar Valve had best alle effecten die de FX wel kan weergeven op de kaart kunnen afvuren, en dat hebben ze dus niet gedaan, ze hebben gezegt, nee je bent geen dx9 dus krijg je ook helemaal geen enkel dx9 effect van ons, of je ze nou kan hebben of niet.

[edit]
dx9 inderdaat natuurlijk
Ok dus ATI heeft er met mindere kaarten zelf ook last van, dan is het toch alleen maar erger voor ons! dat Valve te lui is geweest om in dat hele extra jaar dat ze hebben gehad niet even wat beter heeft geoptimaliseerd voor kaarten die niet dx9 complient zijn.
Valve mag lekker brullen dat die kaarten niet dx9 compliant zijn en dat ze daarom slecht presteren, maar waar het op neer komt is dat Valve het lekker makkelijk voor zichzelf maakt en het spel precies afspemt op een standaart en dan maar kijkt welke kaart fabrikant dat ook doet.
Alle andere developers kijken wel naar de standaart maar gaan daarna nog even kijken wat ze echt klaar kunnen krijgen op de desbetreffende hardware.
Als Valve iets beter z'n best had gedaan hadden we dus meer performance gehad op pre dx9 kaarten, of ze nou van Ati of nVidia zijn
Had jij nog liever een jaartje op HL2 willen wachten? Denk je dat die mannen niet hebben doorgewerkt? Ben je niet tevreden over het resultaat? Heb je liever ontwikkelingstijden van drie of vier jaar?
bij ATI`s shader model 2.0b word toch exact het zelfde gedaan?
die mogen ook de extra effecten die ze hebben boven de standaard 2.0 effecten niet gebruiken.(wat jammer is want alle effecten van 3.0 waar je nu wat aan hebt nu zitten erin, en de dingen waar we nu niks aan hebben (branching bv) zitten er niet in(omdat dit een gigantishe hoeveelheid extra transistors vereist)

p.s. i denk dat je dx9.0 bedoeld, 9.1 is nog niet uit. hooguit 9.0c
dat Valve te lui is geweest

zeker in ATI`s geval gaat het niet alleen om valve maar om alle developers. en eigenlijk vooral om MS die niet met zijn standaarden laat sollen als ze het kunnen verhelpen.

ATI moet zelfs de extre features van 2.0B uitzetten in hun drivers om het ms certificaat te krijgen. (zijn handmatig weer aan te zetten, maar dat zullen niet zo heel veel mensen doen, en daarom houden developers er ook geen rekening mee waarschijnlijk.)
Waar heb jij de afgelopen twee jaar gezeten?

In elke DX9 spel zat datzelfde gat.
Het gat is bij HL2 iets groter omdat het nog veel meer van DX9 gebruik maakt dan de meeste andere spellen. Maar je kan echt niet beweren dat er een gat zit in HL2 dat er niet in andere spellen zit.
Bij doom 3 was dat echt niet het geval! ATi was gewoon te beroerd om hun OpenGL drivers te updaten omdat ze dachten dat toch niemand het meer gebruikte.
Ja daarom was er een aparte path voor nvidia kaarten zeker :Y)
Er was een apart pad voor Nvidia kaarten van de 5xxx serie, omdat deze niet echt goed met DirectX 9 overweg kan. Om dit dan toch nog een beetje te laten draaien op een Nvidia 5xxx serie hebben ze een appart pad geschreven voor die kaarten, zoals bij meer games. de 6800 serie is overigens wel gewoon DirectX 9c compliant en deze gebruikt dus gewoon het DirectX pad. DarQ_reaper heeft dus wel degelijk gelijk, de OpenGL drivers van Ati zijn zeer matig te noemen en de ondersteuning van OpenGL is gewoon ronduit slecht te noemen, dit itt tot Nvidia waarbij de drivers keurige prestaties leveren (en elke een kaart behoord dat ook te doen, DirectX of OpenGL zou niet uit moeten maken).
Dat bedoeld ie volgens mij niet.
Er was ook in Doom3 een apart OpenGL pad voor de Nvidia FX kaarten.
Omdat de FX kaarten ook slecht overweg konden met het standaard ARB2 pad.

Uiteindelijk hebben ze er voor gekozen het standaard ARB2 pad zwaar te herschrijven zodat het gunstiger zou zijn voor de Nvidia FX kaarten. (en nvidia kaarten in het algemeen)

m.a.w. de ondersteuning van OpenGL van de 5xxx serie is ook gewoon slecht, want ID moest zijn code volledig herschrijven voor de prestaties acceptabel werden.
eigenlijk was het meer zo dat Doom3 en Nvidia samen een techniek hebben bedacht waarvan ze wisten dat hij alleen op nvidia kaarten zou zitten.(de 0x32 virtuele pipelines namelijk)

ok granted, had ATI shader model 3.0 onderstuened haden ze iets soortgelijks kunnen doen met wat creative drivers schrijven.
Tsjonge, anders ga je werk zoeken of ga je eens buiten kijken of er toevallig ook nog andere intelligente levensvormen in de buurt zijn. Dit is leuk maar echt triest dat je hier naar zoeken gaat, normaal persoon zou het niet eens in opkomen dit uit te vogelen, ik ben echt geen persoon die computer mensen een nerd vindt hoor, ben er zelf ook 1 maar dit gaat wel ver. Leuk voor die mensen die hierdoor van 60 naar 70 Fps gaan waar je geen verschil in ziet :Z
Sommige nerds houden zich nou eenmaal bezig met dergelijke zaken, andere nerds houden zich bezig met idiote reacties te plaatsen op tweakers.net ;)
Maar misschien wel heel leuk voor die mensen die HL2 hierdoor een resolutie hoger kunnen spelen :)
nou ik draai hem op alles hoogst 1600x1200 4x 8x

lekker die x800xt pe :9~
Volgens mij begrijp jij niet helemaal dat dit soort drang naar optimalisatie zorgt voor het voortschreiden van de technische kennis. Er valt veel geld mee te verdienen met het doen van zulk uitvogel werk. Of je dit nu doet door een stuk software anders in te stellen of een chipontwerp te wijzigen, dat maakt daarbij niet uit...
doom3?

En call of duty is ook opengl en presteerd beter op nvidia, nee volgens mij is nvidia altijd al beter in opengl, maar directx 9 spellen verschilde alleen niet zoveel tussen de 6800 en x800 zoals bij half life 2.
Hallo dat OpenGL games beter presteren op een nV hardware is algemeen bekend.
Maar wat heeft dit met doomIII te maken, het zou iets beter moeten presteren op nv hardware. Nee DoomIII presteerd als de grootste uitzondering in heel gameland extreem veel beter op nV40 hardware tov andere OpenGL games laat staan tov DX games.

Had eerder Doom nV moeten heten.
Kan je je nog herinneren dat de Doom3 Alpha was gelekt?
Die kwam bij Ati vandaan, Carmack was daar echt razend over en riep in eerste instantie dat Ati nog maar moest afwachten of Doom3 uberhaupt wel op hun kaarten zou draaien, alles is een beetje gesust en vergeten, maar Carmack houd over het algemeen woord. Daaarnaast is Carmack al veel langer beter te spreken over de nV hardware. Dus ik denk dat Tim Willits z'n best heeft moeten doen om Carmack te overtuigen dat een nV only release niet realistiesch was en Carmack Ati dus niet geheel moest buitensluiten. Als je dan nVidia heet, ben je gek als je niet wat sappige dealtjes aan draagt. et voila...
Had eerder Doom nV moeten heten.
En dan Half-Life Ati ipv Half-Life 2 ?

is namelijk precies hetzelfde: Doom 3 is geoptimaliseerd voor nVidia, HL2 is geoptimaliseerd voor Ati.

Vraag me alleen af waarom ze niet optimalisaties voor beide merken in hun software stoppen... zal wel niet mogen van de hardwarefabrikant die ze het geld geeft.
dat laatste klopt helemaal niet, er is een DX8 patch voor dito gfx kaarten, maar dat path wordt ook gebruikt door de Ati 8500 bijvoorbeeld
dat Valve beslist heeft om dit ook voor de GF FX te gebruiken zijn snelheidsredenen, die ze blijkbaar hadden kunnen oplossen als we deze post mogen geloven
Jij begrijpt het niet helemaal denk ik.

HL2 is geoptimaliseerd voor DirectX9. Laat ATI zich toevallig daar de laatste tijd ook aan gehouden hebben.

Sterker nog:
HL2 bevat een speciaal path voor nVidia kaarten!!! dus niks ati optimalisatie!
wat ik me nu af vraag is hoeveel van die FP dingen heeft een ati?
of gebruikt ati die technologie niet?
ik denk 16 24 en 32
Nee, een Ati kan niet FP32 renderen, dat vinden ze niet nodig en dus overbodig. Een Ati kan alleen FP 16 en 24 renderen. Het verschil tussen FP24 en FP32 renderen is namelijk zogoed als niet zichtbaar, en ik heb ooit eens ergens gelezen dat dit verschil wel tot 20% extra transistors betekend voor Nvidia per die. Behoorlijk veel extra transistors dus (als je bedenkt dat een NV40 er 220 miljoen heeft) voor (volgens Ati althans) niks extra's. Vandaar dat hun niet FP32 renderen, en de DirectX standaard beslist enkel dat je minimaal FP24 moet renderen, FP32 is dus niet verplicht :).
FP32 is verplicht voor longhorn. Daar sta je dan met je ATI kaart.
... en hoelang is Longhorn nog van ons verwijderd? :p

De gamers van nu die goud geven voro elke fps die ze winnen in-game zullen tegen die tijd al lang n of meerdere videokaarten versleten hebben. De mensen die nu een pc kopen en die ervan verwachten dat die daadwerkelijk 5 jaar of meer meegaat, die moeten op meerdere vlakken (niet alleen op gebied van graka's) inboeten en zullen dan maar de geavanceerde GUI van Longhorn moeten uitschakelen.
Zenlord: volgend jaar is longhorn er al. Je beseft toch dat elke ATi user zijn kaart dan moet vervangen.
Zenlord: Ik zet die grafische eyecandy dan wel even af ipv meteen naar de winkel te hollen hoor...
@aval0ne:
Dat is onzin.

Er zijn twee opties die nu nog niet duidelijk zijn:
1) DX9 wordt verplicht en daarmee FP24. Je ATI kaart voldoet prima.
2) DX10 wordt verplicht en daarmee FP32. Daar sta je dan met zowel je ATI als je Nvidia kaart, aangezien geen van beiden een kaart op de markt hebben die aan DX10 voldoet.
ATI rendert alleen FP24. Nvidia alleen FP16 of FP32

Als je bij een ATI kaart partial precision vraagt (FP16) dan rendert is gewoon full precision (FP24)
Effe klein beetje samenvatten... Je draait een DX8.1 kaart in DX9 mode, je forceert FP16 shaders, ziet visible artifacts, maar het gaat sneller... Valve heeft nVidia dus benadeeld? Hmmm rare redenering.

Wat had Valve dan moeten doen? Oh laten we eens zien welke exacte kaart erin zit en dan maar 200 verschillende renderpaths schrijven - voor elke kaart 1tje? Sorry - maar de FX5-serie kaarten zijn rommel, zijn ze altijd al geweest. Om je code onderhoudbaar te houden ga je dan zo'n beslissingen nemen, ontwikkeling kost tijd en geld. Ook gewoon beter wat trager draaien en correct tonen dan sneller met artifacts - da's mijn mening toch.

Daarbij komt nog is dat ATI idd meer betrokken is geweest, en vrij veel geld heeft uitgegeven aan Valve met hun HL2 coupons - dat het nie meer dan normaal is dat het DX9-path meer geoptimaliseerd is voor ATI-kaarten, maar nVidia benadelen? Denk is 3 seconden na... Wat winnen ze daarbij? Dat hun spel, dat al zo veeleisend is op nog minder systemen goed draait? Zo dom zijn ze nie om moeite te gaan doen om specifiek nVidia te gaan benadelen, ze waren al veel te laat me hun ontwikkeling, dan denk ik echt nie da ze daar efkes hunnen tijd aan verspild hebben hoor... Mrjah - sommige mensen zijn nu eenmaal graag paranoia en achterdochtig |:(
Ahem, een DX9 kaart. DX8.1 kaartjes zijn oa de R8500 en de afspinsels daarvan.
In theorie een DX9 kaart ja.
Maar wat betreft snelheid alleen maar een DX8.1 kaart.
*applaus*

eerste reactie waar ik nou eens volkomen achtersta op deze post.
Tegenwoordig wordt er vaker gezegd dat iets geoptimaliseerd is. Doom III = nVidia en HL2 = ATI.
Dit is eigenlijk allemaal dikke zever.
Doom III presteerd op R3xx en NV3x hardware ongeveer hetzelfde. Maar op R4xx is het veel trager dan NV4x simpelweg omdat het gebruik maakt van UltraShadow van nVidia. Zonder UltraShadow zouden die ook gelijk presteren. Dus omdat ID UltraShadow gebruikt kan je niet echt beweren dat het enkel geoptimaleseerd is voor nVidia. nVidia biedt die optie, zij hebben het gebruikt, meer niet. Nu is het vershil ook niet meer zo groot als ervoor met de laatste drivers.
Dat HL2 geoptimaliseerd is voor ATI is nog grotere zever. Ik herinner mij uit een interview dat Valve 2x zo lang heeft gewerkt om de shaders te optimaliseren voor nVidia NV3x, net omdat het anders veel trager liep dan ATI kaarten. Uiteindelijk hebben ze gewoon DX9 support voor NV3x opgegeven omdat het hopeloos was. Maar beweren dat Valve geen moeite heeft gedaan voor nVidia is bullshit. Dat R4xx beter presteert dan NV4x is omdat ze ongeveer wel gelijke shader power hebben maar de R4xx heeft veel meer vertex power. Waarom je dit effect niet hebt bij Doom III ziet is omdat die veel minder vertex power nodig heeft dan HL2. Voor dit zelfde reden is ATI sneller dan nVidia in Far Cry (pier level), 3DMark05, ...
Ook niet vergeten dat R4xx veel hogere fillrate heeft dan NV4x.
Het komt dus op neer welke architectuur wat beter ondersteund en hoe de game er uiteindelijk uit gaat zien. Je moet niet zoals klein mannen direct aan specifieke optimalisaties denken. Het zelfde heb je met CS. Als iemand goed speelt, dan is die opeens een cheater ...
Je moet niets per definitie nemen als je het niet zeker weet.
Ik ben het grotendeels met je eens, maar een feit blijft dat ATI aan Valve 4 miljoen dollar gegeven heeft voor HL2. Feit is dat ATi logos overal op de HL2 dvd en doosje te vinden zijn. Dat is bij D3 niet gebeurd.

Zonder ultrashadow zouden de ATI kaarten ook achterop liggen, dan blijkt genoeg uit benches van ogl games die geen ushadow gebruiken. Ati heeft gewoon slechte ogl drivers.
Feit is dat jouw feiten geen feiten zijn.

ATI heeft Valve 4 miljoen dollar betaald om HL2 licenties te bundelen bij hun kaarten.

En wat betreft die logotjes op de doosjes.
Ik heb hier een HL2 doosje voor me liggen, en daar staat NERGENS een ATI logo op!!

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True