Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 33 reacties
Bron: FiringSquad

Bij FiringSquad is een interview verschenen met David Kirk, het hoofd van de afdeling R&D bij nVidia. In het verhaal wordt ingegaan op de sterke vooruitgang die ATi het afgelopen jaar in het high-end segment heeft geboekt en op verscheidene technische zaken. Zo wordt duidelijk dat Cg, de high-level taal die nVidia ontwikkelde, deels vervangen zal worden door HLSL van Microsoft. Over het gebruik van 24-bits precisie door ATi betoogt Kirk dat deze precisie te groot is voor gewone kleurenreproductie, maar te klein voor zaken als reflecties en schaduwen. Hij verwacht dan ook dat in de toekomst voornamelijk 32-bits nauwkeurigheid gebruikt zal worden. Natuurlijk mag ook een vraag over de Half-Life 2-performance niet ontbreken, gezien de hype die de laatste tijd rond dit spel heerst:

David Kirk (nVidia)FiringSquad: Do you feel that in terms of the Half-Life 2 performance numbers that were released recently?do you feel that maybe you guys were, I don't want to say given a bad rep, but maybe an unfair deal?

Kirk: Well again, not wanting to start a flame war back and forth, my feeling is if they had issues with speed, it's really not appropriate to say that it doesn't run at all. (Our question had mentioned this --FS) It's just that so far in their state of optimization it doesn't run fast. But after we've had a chance to work together on [inaudible] that will be able to provide a very good game experience with Half-Life on the full GeForce FX family. There's no question in my mind that we'll get there, it's just a matter of time.
Moderatie-faq Wijzig weergave

Reacties (33)

Het zal wel aan mij liggen maar wordt in spellen niet al jaren lang 32 bits kleuren gebruikt?
Of begrijp ik iets verkeerd?

@abraxas:
64 bit kleurenprecisie ? 't lijkt me onwaarschijnlijk dat dat in game kaarten ooit gebruikt zal worden.. 32 bits is al zo'n overkill... en 't oog wordt er niet beter op, dus de eis van gebruikers wordt wat dat betreft ook niet hoger.
ehhh dit soort uispraken doen me altijd denken aan een hele bekende uitspraak van een hele bekende man.

640 k should be enough for everybody :Y)
Tot nu toe werden er 32bit integers gebruikt.
In DX9 is men overgegaan of reals. Dat heeft voordelen wat betreft afrondings fouten, nauwkeurigheid en bereik.

De DX9 specificatie schrijft een 24bit real *per kleur* voor. Inclusief de alpha channel, is dat dus 96bit totaal per pixel. (vergelijk 8bit integer per kleur = 32bit in DX8)

ATI rendert in de door DX9 voorgeschreven 24bit per kleur.

NVidia heeft een probleem met zijn GPU, (misschien omdat ze 4x2 i.p.v. 8x1 werken?)waardoor ze niet makkerlijk met 24bit reals kunnen werken. Zij werken daardoor met 16bit of 32bit reals.

In 32bit doen ze te veel werk. Dat gaat uiteraard ten koste van de prestaties.
In 16bit voldoen ze niet aan de eisen. En dat kan zeer grote artefacten opleveren. Dat komt omdat hier meer wordt gedaan dan simpelweg kleur weergeven. Speciale effecten, zoals een extra 'aura' vanwege een zeer hoge intensiteit van een lichtbron worden o.a. hiermee berekend. Daar kun je niet zomaar met de nauwkeurigheid gaan rommelen.

Natuurlijk vindt NVidia dat die 24bit niet in orde is. Maar de rest van de wereld (ATI, Microsoft EN alle (spel)fabrikanten die aan de DX9 specs hebben meegeholpen) hebben daar andere ideeen over.

Verder is het trouwens flauwekul dat die 16bit v.s. 24bit het grote probleem is. Sites als Beyond3D hebben met synth. benchmarks al laten zien dat de shader engine van de NVidia GPU op 16bit nog steeds ruimschoots langzamer is dan de ATI.

Wat hij zegt over HL2 kun je alleen maar om lachen. Ze zouden 'm eens moeten vragen waarom Tomb Raider exact dezelfde verschillen in prestatie tussen de Radeon's en de FX'en laat zien. Ondanks dat DAT een van NVidia's 'the way it's meant to be played' spellen is.
En wist je toevallig ook al dat de eisen eerst voor dx9 32 bit waren en omdat ati gesmeekt heeft of dit 24 bit kon worden omdat 32 bit te lastig voor ze was en ze al een design op 24 bit hadden klaarliggen microsoft uiteindelijk heeft verlaagt naar 24 bit.
En nvidia was toen ook al bezig maar dan op 32 bit, dus het is niet helemaal de fout van nvidia.
Als dx9 32bit had gebleven dan kon ati wel huilen want die kunnen het gewoon niet.
Blame it on microsoft (8>
En wist je toevallig ook dat ATI pas voor 24 bit precisie heeft gekozen nadat MS bekend had gemaakt dat dit de vereiste was voor DX9? Op dit moment hadden ze ook nog voor 32 bits kunnen gaan. Dit is onlangs nog bevestigt door een ATI medewerker op de Beyond3d forums

ATI heeft dus nergens om gesmeekt. Als je het niet weet moet je er ook niets over zeggen.

Verder is het probleem niet eens de hoevelheid kleuren bits. Zelfs in 16 bits is Nvidia namelijk langzamer dan ATI op 24. De FX architectuur heeft gewoon de helft van de shaderunits van de R3x0 serie.
Had sneu geweest voor ATi inderdaad, maar nog steeds even sneu voor nVidia als nu, want 32-bit zou ook dan te traag zijn. Oftewel, 16-bit zou dan toch weer gebruikt moeten worden. Dan heb je 2 fabrikanten die niet voldoen aan DX9 :+
Ach de techniek zal in no time zo ver zijn dat 32bit ook snel genoeg gedaan kan worden, en dan heeft NVidia weer een voorsprong, ik zie dit niet bepaald als het einde voor nv ofzo
En als je echt goed hebt opgelet dan weet je ook dat ati al bezig was met een nieuwe disign voordat dx9 werd aangekondigt en dat ze waren overgestapt op 24 bit omdat 32 bit voor hun architectuur gewoon te moeilijk was pas toen ze bijna klaar waren kwamen de problemen microsoft kondigde de eisen aan en ze haddden een groot probleem ze konden niet dx 9 compatible zijn......ff overleggen met microsoft en hoepla die vond het sneu en heeft het toen aangepast omdat ze ati niet een nog grotere achterstand te wilde geven...dat is ook de rede dat ati zo snel hun product af had en nvidia liep te kloten omdat ze het zo lastig hadden met die 32 bit.
Ik weet wel degelijk hoe het ging jij loopt gewoon wat info achter
Ze doelen op berekeningen van 16/24/32 bit *per kanaal*, niet in totaal, want daar zitten ze natuurlijk al lang op 32 bit.
blijkbaar heeft hij dat nooit gezegt.
een urban myth dus.
Heeft nVidia dan 32 bits precisie, of wat wilt deze Dr Phil nu zeggen?
There's no question in my mind that we'll get there, it's just a matter of time.
Natuurlijk krijgen ze ook betere perfomance, duurt alleen paar jaartjes he
Wat een zaaduitspraak |:(
Yup, nVidia heeft 32bits presicie, vandaar dat de kaarten wat trager zijn... dat was al duidelijk. en a matter of time, ja ach. kan ook een maandje zijn, denk dat er meer gedoelt wordt op; voor HL2 af is.
Ik geloof toch echt dat ze dat hadden uitgeschakeld omdat ze het anders helemaal niet meer bij konden benen?
Ehm in HL2 gebruiken ze nu nog 16 bits precisie, 32bits staat daar uitgeschakeld, net als bij vele andere spellen waar ps2.0 gebruikt word.

nVidia zal niet snel met een goede kwaliteit snel genoeg kunnen worden in hl2.
nee 32bit staat niet uitgeschakeld. er word dynamish gekozen voor 16 of 32 bit. teminste dat zou gaan gebeuren in de 50.xx drivers
maar dx9 vereist minimaal 24bit precisie. dus die 16 voldoet niet aan de dx9 standaard. en de image quality licht dus zeker lager als die bij ATI.
Wat heb je aan 32-bits precisie als je framerate er zo laag van wordt dat het al je spelplezier verziekt? En nee dit is geen directx issue, carmack gebruikt ook 16-bits precisie in doom3 voor nvidia gf-fx-en
Ze hadden het er net zo goed niet in kunnen bakken. Net als een gf-fx 5200 uitbrengen met als promotie dat het dx9 is, maar vervolgens zo traag dat je beter een gf4mx kan hebben om enig spelplezier te beleven aan wat voor dx9 dx8 of dx7 spel dan ook. Zo'n Kirk kan ook gewoon toegeven dat ze te veel hooi op hun vork genomen hadden met hun nieuwe renderarchitectuur.
Sorry wilde geen flamewar starten maar ik werd nogal moe van dit artikel. Die zieligdoenerij dat iedereen maar tegen hen is maar nergens toegeven dat in al de kritiek misschien wel een kern van waarheid zit.
Het was een dappere stap die nieuwe renderarchitectuur, maar dat hadden ze beter moeten coordineren met de rest van de grafische wereld en de architectuur is ook al niet uitgebalanceerd blijkende uit het feit dat de 5900 niet gewoon een upgrade is van de 5800 maar de pijplijn ook veranderd is.
Maar de framerate wordt bij 32bit precisie helemaal niet zo laag dat het onspeelbaar wordt. Het verschil tussen de Ati en Nvidia kaarten waar men zich altijd zo druk om maakt is nauwelijks 1 a 2 procent. De ene keer is de FX5900 iets sneller, de andere keer de Ati. Men moet zich gewoon eens niet zo aanstellen. Het is goed dat nVidia de 32bit precisie ingebakken heeft. Baat het niet, dan schaadt het niet. Sterker nog, als nVidia het weggelaten had, jawel, dan hadden jullie daar weer over lopen mekkeren!
@SCRAP : de 32bit precies van Nvidia is in veel gevallen bijna 2 keer langzamer als hun 16 bit precies. (en 2 keer langzamer als ATI's 24bit precies in HL2 bv)
dat de FX nog mee kan komen komt door het gebruik van 16 en 32 bit door elkaar. of het helemaal weg laten van DX9 effects en volledig op 16bit preciesie te werken.
Het is nog erger dan dat. De 16bits performance van de FX is zelfs maar half zo goed als de 24bits performance van ATI.
HL2 gebruikt namelijk in hun standaard DX9 path al partial precision en de FX kaarten doen in dat standaard DX9 path dus al voornamelijk fp16.
Door handmatig de boel nog verder te verlagen van 16bit floating point naar 12bit integer konden ze de performance van de 5900 weer in de buurt brengen van de ATI performance op 24bit floating point.

Maar dat gaat dus wel met een stevige impact op de beeldkwaliteit gepaart.
http://www.beyond3d.com/forum/viewtopic.php?t=8223 voor een goede discussie over dit interview.

Wat ik er uit op maak is dat Mr Kirk er niet zoveel vanaf weet ;)
Nee, jij hebt meer verstand van zaken, dan de 'uitvinder' zelf. |:(

Wat een deskundigheid toch allemaal hier. Als het op jullie aan zo komen, dan zou de hele computer-evolutie in een gigantische stroomversnelling terecht komen. Het verbaast me echt dat jullie nog niet zelf een chip hebben ontworpen die sneller/krachtiger en vooral beter is dan die van Nvidia en Ati. :Z
De uitvinder?
Volgens mij is die man vooral manager. Een leidinggevende weet over het algemeen de hoofdzaken, niet de details.

En je kunt mij wel aanvallen, ik geef alleen een URL, waar mensen, welke zeker weten verstand van zaken hebben, commentaar geven op dit interview. (zoals op elk forum zit er ook wat bla bla tussen)
Die manager van Nvidia moet een mislukt product zien te verdedigen. Denk je dan echt dat zijn uitspraken super betrouwbaar zijn? (zelfs als ie niet bij Nvidia zou werken...)

De mensen op dat forum hebben daar geen last van en kunnen de zaak objectief bekijken.
(Er zitten de nodige game developers op dat forum die actief deelnemen aan de discussie)
Jij maakt toch de opmerking? Jij trekt toch de conclusie? :)

Maar goed, de mensen op dat forum hebben ongetwijfeld meer verstand van zaken, dan de manager van nVidia over haar eigen producten. Weet je trouwens de betekenis van aanhalingstekens?
Amen. Ik stoor me ook regelmatig aan die "doctorandussen in de weetveelkunde" hier.
Vooral die "wat zit die ene connector op een stomme plaats. Ik zou em daar op het mobo gemonteerd hebben" opmerkingen zijn om te :r
Wat een kul dit weer.

32bit precisie, ja 64 bit zal ook OOIT wel een gebruikt gaan worden, geen excuses voor de relatief lage performance.
But after we've had a chance to work together on [inaudible] that will be able to provide a very good game experience with Half-Life on the full GeForce FX family. There's no question in my mind that we'll get there, it's just a matter of time.
Ten koste van wat!?
64 bit kleurenprecisie ? 't lijkt me onwaarschijnlijk dat dat in game kaarten ooit gebruikt zal worden.. 32 bits is al zo'n overkill... en 't oog wordt er niet beter op, dus de eis van gebruikers wordt wat dat betreft ook niet hoger.
Zeg nooit, nooit.

Vroeger dacht men ook vele dingen die nooit zouden komen of waar nooit behoefte aan zou zijn, kijk eens om je heen, open je ogen. Durf te dromen en te fantaseren... dan kom je vooruit.

Die 64bit precisie zal OOIT wel komen, voor welk doel I dunno, er zullen nog vele zaken komen waar wij nu het nut nog niet van inzien...
je hebt gelijk als je zegt "zeg nooit nooit".. daarom zeg ik "onwaarschijnlijk" :)

maar 't nut ontgaat me nogal ja :) en als er geen nut voor is, gebeurt het ook niet, dat durf ik wel te beweren, want het kost alleen maar performance (nu, en in de toekomst).
Bill gates zei ooit '640k ought to be enough for everyone' maar aangezien zelfs mijn BIOS flash-rom al 4 Mbit is, bewijst Moore zich maar weer eens.

Hij heeft het alleen over
't lijkt me onwaarschijnlijk
dus dat is niet van toepassing hier ;)
Als ik me niet vergis gebruiken professionele rendering en video apps soms 64bit kleuren. Antialiasing was vroeger ook iets dat enkel voor professionele apps gebruikt werd.
De mensen van nVidea noemen hem ook wel eens 'Captain Kirk'. :+

Maar eigenlijk is hij ATI gewoon aan het trollen want die weten ook wel dat 32 bits beter is voor shading. Maar als ze de tussenstap voor 24 bits gebruiken dan heb je een meer geleidelijk overgang en is dat uiteindelijk beter in te passen in de lijn van produkten.
En nVidea heeft gewoon voor het 'helemaal opnieuw' concept begonnen en daarmee teveel vertraging opgelopen. Vandaar ook z'n opmerking 'it's just a matter of time'.

En terzijde vind ik dat gedoe met Cg en HLSL maar vaag hoor. Volgens mij weer een van die standaarden die door nVidea opgezet is en MS het heeft afgekeken en geassimileerd volgens de MS methode. Die zagen natuurlijk aankomen dat mensen ook begonnen aan DirectX te 'porten' naar niet MS platformen met dit als onderdeel.
Gelukkig ook dat Cg blijft bestaan voor niet MS platformen. (alleen zal de ondersteuning minder zijn ben ik bang)
De mensen van nVidea noemen hem ook wel eens 'Captain Kirk'.
En dit weet je omdat je 'mensen van nVidea' kent? Ik dacht van niet, anders zou je wel weten dat het NVIDIA is |:(
Maar eigenlijk is hij ATI gewoon aan het trollen want die weten ook wel dat 32 bits beter is voor shading. Maar als ze de tussenstap voor 24 bits gebruiken dan heb je een meer geleidelijk overgang en is dat uiteindelijk beter in te passen in de lijn van produkten.
En nVidea heeft gewoon voor het 'helemaal opnieuw' concept begonnen en daarmee teveel vertraging opgelopen. Vandaar ook z'n opmerking 'it's just a matter of time'.
Nee, nVidia wou de 32 bits precisie als officiele DX9 spec omdat ze hun geforce fx kaarten hiermee gingen uitrusten. MS is hierop niet ingegaan en heeft slecht 24bits precisie als dx9 standaard genomen. NVidia heeft echter de 32bits precisie behouden en dat bleek een niet zo slimme zet geweest te zijn.
Ze lopen gewoon wat vooruit met die 32 bit. Maar goed als het nog niet echt 'gebruikt' kan worden dan schiet het niet zo op.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True