Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Interview met nVidia chief scientist David Kirk

Bij FiringSquad is een interview verschenen met David Kirk, het hoofd van de afdeling R&D bij nVidia. In het verhaal wordt ingegaan op de sterke vooruitgang die ATi het afgelopen jaar in het high-end segment heeft geboekt en op verscheidene technische zaken. Zo wordt duidelijk dat Cg, de high-level taal die nVidia ontwikkelde, deels vervangen zal worden door HLSL van Microsoft. Over het gebruik van 24-bits precisie door ATi betoogt Kirk dat deze precisie te groot is voor gewone kleurenreproductie, maar te klein voor zaken als reflecties en schaduwen. Hij verwacht dan ook dat in de toekomst voornamelijk 32-bits nauwkeurigheid gebruikt zal worden. Natuurlijk mag ook een vraag over de Half-Life 2-performance niet ontbreken, gezien de hype die de laatste tijd rond dit spel heerst:

FiringSquad: Do you feel that in terms of the Half-Life 2 performance numbers that were released recently?do you feel that maybe you guys were, I don't want to say given a bad rep, but maybe an unfair deal?

Kirk: Well again, not wanting to start a flame war back and forth, my feeling is if they had issues with speed, it's really not appropriate to say that it doesn't run at all. (Our question had mentioned this --FS) It's just that so far in their state of optimization it doesn't run fast. But after we've had a chance to work together on [inaudible] that will be able to provide a very good game experience with Half-Life on the full GeForce FX family. There's no question in my mind that we'll get there, it's just a matter of time.

Door

Nieuwsposter/Frontpage-admin

33 Linkedin Google+

Bron: FiringSquad

Reacties (33)

Wijzig sortering
Tot nu toe werden er 32bit integers gebruikt.
In DX9 is men overgegaan of reals. Dat heeft voordelen wat betreft afrondings fouten, nauwkeurigheid en bereik.

De DX9 specificatie schrijft een 24bit real *per kleur* voor. Inclusief de alpha channel, is dat dus 96bit totaal per pixel. (vergelijk 8bit integer per kleur = 32bit in DX8)

ATI rendert in de door DX9 voorgeschreven 24bit per kleur.

NVidia heeft een probleem met zijn GPU, (misschien omdat ze 4x2 i.p.v. 8x1 werken?)waardoor ze niet makkerlijk met 24bit reals kunnen werken. Zij werken daardoor met 16bit of 32bit reals.

In 32bit doen ze te veel werk. Dat gaat uiteraard ten koste van de prestaties.
In 16bit voldoen ze niet aan de eisen. En dat kan zeer grote artefacten opleveren. Dat komt omdat hier meer wordt gedaan dan simpelweg kleur weergeven. Speciale effecten, zoals een extra 'aura' vanwege een zeer hoge intensiteit van een lichtbron worden o.a. hiermee berekend. Daar kun je niet zomaar met de nauwkeurigheid gaan rommelen.

Natuurlijk vindt NVidia dat die 24bit niet in orde is. Maar de rest van de wereld (ATI, Microsoft EN alle (spel)fabrikanten die aan de DX9 specs hebben meegeholpen) hebben daar andere ideeen over.

Verder is het trouwens flauwekul dat die 16bit v.s. 24bit het grote probleem is. Sites als Beyond3D hebben met synth. benchmarks al laten zien dat de shader engine van de NVidia GPU op 16bit nog steeds ruimschoots langzamer is dan de ATI.

Wat hij zegt over HL2 kun je alleen maar om lachen. Ze zouden 'm eens moeten vragen waarom Tomb Raider exact dezelfde verschillen in prestatie tussen de Radeon's en de FX'en laat zien. Ondanks dat DAT een van NVidia's 'the way it's meant to be played' spellen is.
En wist je toevallig ook dat ATI pas voor 24 bit precisie heeft gekozen nadat MS bekend had gemaakt dat dit de vereiste was voor DX9? Op dit moment hadden ze ook nog voor 32 bits kunnen gaan. Dit is onlangs nog bevestigt door een ATI medewerker op de Beyond3d forums

ATI heeft dus nergens om gesmeekt. Als je het niet weet moet je er ook niets over zeggen.

Verder is het probleem niet eens de hoevelheid kleuren bits. Zelfs in 16 bits is Nvidia namelijk langzamer dan ATI op 24. De FX architectuur heeft gewoon de helft van de shaderunits van de R3x0 serie.
Yup, nVidia heeft 32bits presicie, vandaar dat de kaarten wat trager zijn... dat was al duidelijk. en a matter of time, ja ach. kan ook een maandje zijn, denk dat er meer gedoelt wordt op; voor HL2 af is.
Ik geloof toch echt dat ze dat hadden uitgeschakeld omdat ze het anders helemaal niet meer bij konden benen?
nee 32bit staat niet uitgeschakeld. er word dynamish gekozen voor 16 of 32 bit. teminste dat zou gaan gebeuren in de 50.xx drivers
maar dx9 vereist minimaal 24bit precisie. dus die 16 voldoet niet aan de dx9 standaard. en de image quality licht dus zeker lager als die bij ATI.
Die manager van Nvidia moet een mislukt product zien te verdedigen. Denk je dan echt dat zijn uitspraken super betrouwbaar zijn? (zelfs als ie niet bij Nvidia zou werken...)

De mensen op dat forum hebben daar geen last van en kunnen de zaak objectief bekijken.
(Er zitten de nodige game developers op dat forum die actief deelnemen aan de discussie)

Op dit item kan niet meer gereageerd worden.


Call of Duty: Black Ops 4 HTC U12+ LG W7 Samsung Galaxy S9 Dual Sim OnePlus 6 Battlefield V Microsoft Xbox One X Apple iPhone 8

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V. © 1998 - 2018 Hosting door True

*