Op dit moment zijn er nog maar weinig spellen die de volledige functionaliteit van DirectX 9.0 gebruiken. Het recentelijk uitgebrachte spel "Tomb Raider: Angel of Darkness" is zo een spel. Reden genoeg dus voor Beyond 3D om dit spel als benchmark te gebruiken bij het testen van grafische kaarten. Gewapend met een 3GHz Pentium 4, een Intel D865GBF moederbord en 2x512MB aan DDR400-geheugen worden vier verschillende ATi en vier verschillende nVidia grafische kaarten eens flink aan de tand gevoeld. De resultaten van de benchmark zijn echter schokkend, want de Radeon-kaarten weten de meeste benchmarks met een flinke voorsprong op de GeForce FX-kaarten te winnen, als er van alle mogelijke effecten gebruik wordt gemaakt.
De verklaring is volgens Beyond 3D te vinden in versie 2.0 van de pixel shaders waarvan de benchmark veelvuldig gebruik maakt. De ATi-kaarten hebben voor elke pipeline een pixel shader, net zoals de nVidia-kaarten. Het verschil tussen de pixel shaders is echter dat die van de GeForce FX ook nog de adressen van textures moeten berekenen, waardoor ze in sommige situatie niet al hun tijd kunnen besteden aan pixel shader-berekeningen.
Als er echter gebruik wordt gemaakt van de standaard instellingen in Tomb Raider, dan liggen de behaalde scores een stuk dichter bij elkaar. Hier moet echter wel bij worden opgemerkt dat er bij de Radeon-kaarten een aantal extra effecten standaard aan staan. Het is trouwens niet duidelijk of de slechte resultaten van de GeForce FX aan de drivers liggen of aan de architectuur van de GPU zelf. Daarnaast is er hier maar met een spel getest. Of de GeForce FX hetzelfde gedrag vertoond in andere spellen is niet bekend, hoewel Beyond 3D wel aangeeft dat de pixel shader performance van de GeForce FX ook in synthetische benchmarks erg tegenvalt. Het is dus wachten op benchmarks van andere spellen die ook veelvuldig gebruik maken van alle DirectX 9.0-mogelijkheden.
