Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 31 reacties
Bron: Hardware Accelerated, submitter: Soar

Hardware Accelerated had de gelegenheid om David Kirk een aantal vragen te stellen. Kirk is hoofd van het team bij nVidia dat nieuwe features bedenkt en samenwerkt met hardware- en softwaremensen om deze te implementeren. Interessant is de vraag aan deze man hoe hij denkt over een 256 bit brede bus en DDR-II. Dit omdat NV30 volgens geruchten een 128 bit datapad zou hebben - de helft van de Radeon 9700 Pro - terwijl tegelijkertijd beweerd wordt dat de chip qua geheugen toch beter zal presteren dan de concurrentie. Kirk is enthousiast over DDR-II, maar het lijkt erop dat nVidia het op dit moment nog niet de kosten waard vind om de bus te verdubbelen.

Verder wordt vooral veel gevraagd over Cg. Pixel shaders bouwen in DirectX 8.0 is die-hard assembler-werk, waardoor weinig spellen echt gebruik maken van de features die op dit moment beschikbaar zijn. Met Cg is het veel makkelijker en sneller om programma's te schrijven voor de pixel- en vertexshaders. In NV30 en verder kunnen dit soort programma's veel groter en complexer zijn dan ooit tevoren, en dat wordt als het aan Kirk ligt dè grote troef de komende tijd. Hij hoopt dat spellen dankzij Cg voortaan sneller en beter gebruik zullen maken van de (nieuwe) features die GPU's te bieden hebben, en dan gaat het dus niet alleen over de GeForce:

David Kirk (nVidia) Other manufacturers are able to use CG. How much interest are you seeing from other chip developers? Do they have the same freedom with CG as NVIDIA does?

We hope that the entire graphics community will embrace Cg because it is clearly good for everyone and developers are using it and love it. Truth be told, our competitors don't actually need to do any work to support Cg. Since the language is layered on top of the major graphics APIs, OpenGL and DirectX, Cg will run on all hardware that supports those APIs, assuming that they are conformant to the standards. We are releasing a compiler for NVIDIA products and a compiler for D3D. We hope that our competitors will release compilers for their own products, and we will give the tools to do so.

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (31)

Uit de reakties blijkt wel dat nVidia de negatieve status van Intel/MS (M$ in l33t anti-Bill sp33k) begint te krijgen. :Z

David Kirk is niet iemand die zich bezig houdt met samenzweringen op de marketingafdeling en de funktie als 'chief scientist' heeft gekregen om de R&D afdeling in de gaten te houden maar is 'one of the guys'. Zie ook bio:

"David Kirk is Chief Scientist and Vice President of Architecture at NVIDIA. He was previously Chief Scientist and head of technology for Crystal Dynamics, and prior to that worked on developing graphics hardware for engineering workstations at Apollo/Hewlett-Packard. David holds B.S. and M.S. degrees from MIT and M.S. and Ph.D. degrees from the California Institute of Technology, and is the author/inventor of over 100 technical publications and patents in the area of computer graphics and hardware."

Gaat uiteraard geen voor nVidia nadelige uitspraken doen maar houd zeker geen gladde marketingpraatjes.

Feit is dat shaders programmeren nu nog op een soort assembly niveau gebeurd en dat Cg meer op C++ lijkt en dus veel toegankelijker zal zijn voor spellenmakers.

Voor een goed artikel over Cg (en rendermonkey van Ati) zie :
http://www6.tomshardware.com/graphic/02q4/021004/index.html
Ach ja, totdat de NV30 en haar opvolgers in de winkel liggen produceert Nvidia een hoop geblaat in de hoop dat het machtsvacuum niet helemaal door ATi opgevult wordt. BTW: zelf doe ik het niet, maar ik juich het wel toe dat er mensen zijn die elk jaar hun kaart inruilen voor het nieuwste van het nieuwste. Flinke aanslag op hun beurs, maar ondertussen supporten ze wel het onwikelen van nieuwe technieken, waardoor de rest van ons die kaarten een jaar later tegen een prikkie kan kopen, ga zo jongens, jullie zijn de man!
zou die kerel ook eens wat trager kunnen denken zodat ik niet om de 6 maanden mijn videokaart kan weggooien :)
Als je gooit zet dan het raam open en stuur ff een SMS mijn richting uit, zodoende kan ik ze opvangen :+
Maar hij heeft wel gelijk...
Het gaat de laatste tijd wel super snel, de ene kaart is nog niet uit of er is al een nieuwe.
1 jaar geleden kocht ik mijn Asus GeForce 3 dlx voor &#%^@ F1100,- met in gedachte dat ik daar minimaal 2 jaartjes tot de top behoor en alles kan spelen. Mooi niet, er zijn nu al bijna 2 generaties overheen gegaan, en dat in 1 f*kin jaar!!! :( Dat is toch absurd snel!
De tijd toen ik met mijn VooDoo 3 3000 3jaar heb kunnen spelen en toen nog alle spellen kon draaien, dat waren nog eens tijden... zucht

En dan maar gek vinden dat de Game-buissniss daar nog geen gebruik van maakt. Gek is dat, als de helft van de markt nog met een GF2 zit!
Hoewel... Neem nou DOOM III. Wat hoorde ik? Een Radeon 9700 Pro zou hem nog maar net kunnen spelen. Ja hallo, soms is een pas op de plaats ook goed hoor, niet altijd met een noodgang nieuwe kaarten introduceren.
Zo, dat moest er even uit... ;)
waarom is het zo erg dat de ontwikkeling zo snel gaat? omdat je dan niet meer kunt opscheppen dat je de snelste videokaart van het moment hebt? ik bedoel, het is niet alsof al je games met een minder dan top-notch videokaart ineens onspeelbaar worden ofzo. Zelfs de nieuwste titels.

Ik snap dat nooit. wat heb je liever? dat je nog wat langer kunt opscheppen over je kaart, of dat je veel sneller steeds mooiere graphics krijgt?
nouja...

toch wat aanmerkingen....
de GF3 is dus echt nog niet snel.... ik kan met me oude radeon nog simpel UT2k3 spelen in 1024 met alles op medium....
je kan er toch zeker nog wel een jaar mee vooruit, want de dx8 pixelshaders beginnen nu gebruikt te worden, en met dx9 zal dat dus nog wel langer duren....

en dan nog iets, zover ik heb gehoord, trekt de 9700 doom 3 toch best wel erg goed hoor... ik heb gelezen over mensen die 't in 1024 met 16x aniso speelden, met minstens 50 fps....
dus erg slecht speel ie niet, in tegenstelling tot op mijn computer! :p
:) als iemand mij vertelt waar ik doom3 kan downloaden, kijk ik thuis wel ff hoeveel fps ik haal...
maar ik ben ook erg geschrokken van de ontwikkelingen het afgelopen jaar, niet alleen op videokaart gebied maar ook op CPU gebied...
door moordende concurrentie is de ontwikkeling in een stroomversnelling geraakt... en om eerlijk te zien ben ik bang voor wat er gebeurd met de prijzen van al het hardware zodra het bedrijf zijn enige concurrent verslaat... maar zolang alle spelers nog in die stroomversnelling zitten zou ik zeggen kom maar op :) en laat maar gaan... alleen mensen die altijd het nieuwste van het nieuwste willen hebben zijn hier echt de pineut van...
ben nu overgestapt van pentium200MMX naar athlon XP2000+ (met herc 9700 pro :9~) en eigenlijk is het de eerste keer dat ik niet opvergestapt ben naar een volgende generatie CPU (zijn allebei volgens het 586 principe)
wat een problemen hè? je zou toch eens niet het nieuwste van het nieuwste hebben :Z
ach wat lief dat hij ook aan andere videokaart bakkers denkt. wat zijn het toch een aardige kerels bij nVidia maar echte duidelijkheid geeft het niet. Op de ene site las ik dat ze 1ghz DDR gingen gebruiken en nu weer dat ze gewoon 128bit DDR gaan gebruiken. Is er ergens een site of een testsample beschikbaar met wat betere specs of misschien zelfs benchmarks :z
Maar het wordt 128 bit DDR-2 op 1 Ghz :)
en 250 Mhz QDR op 128 bits levert 250 * 4 * 128 / 8= 16 GB/s
Nog steeds minder dan de theoretische bandbreedte van een Ati RAdeon 9700 (310 * 2 * 256 / 8 = 19.8 GB/s)
En de RAdeon 9700 komt al bandbreedte te kort voor twee texels epr pipeline!

Ik ben heel benieuwd hoe NVidia dat gaat oplossen
Dus draait het op 250 MHZ ?
Dan zou het QDR zijn ipv DDR, 500MHz is het dus, vraag me af of er reeds zulk geheugen bestaat.
Dat is het eigenlijk ook, het is 250MHz en dan op de afgaande en opgaande flank van de klokpuls word er iedere keer 2 bitjes verstuurd.
De specs komen denk ik vanzelf wel als binnenkort de Comdex begint waar nvidia de kaart aankondigd. :)
maar het lijkt erop dat nVidia het op dit moment nog niet de kosten waard vind om de bus te verdubbelen.
Dus ze kunnen het nog gaan veranderen als het "eindresultaat" niet al te best is ?
Het is natuurlijk een mooie truc voor een latere NV30 Ultra. Net als met de Geforce2Ultra gebeurde. Omdat er zo'n lange tijd zit tussen Geforce4 en NV30 word NV30 bijna gelijk mid-end en misschien dat later(6maanden) een 256bit bus wordt gebruikt voor een ultra versie van de NV30.
Dit zelfde zie je met de Radeon9500 en Radeon9700.
mid-end? denk het toch niet, of hij moet inderdaat zwaar onderpresteren aan de 9700PRO, of zal nVidia zo zwaar kont gaan schoppen dat ze het huidige niveau van de 9700PRO meteen als mid-end schalen?
ik denk het niet, maar jah, we hebben wel vaker opgekeken van nVidia
We hope that our competitors will release compilers for their own products, and we will give the tools to do so.
:? is Cg door nVidia ontwikkeld of niet? want anders zouden ze nogal dom zijn om die tools zomaar vrij te geven (as if they care THAT much about us :+ )
de laatste generaties videokaarten zijn er veel nieuwe features bij gekomen die de graphics mooier maken, het probleem is echter dat ze haast niet gebruikt worden in games omdat het toch veel moeite kost om ze te implementeren. en dan stagneert de verkoop van de kaarten natuurlijk. cg maakt het veel simpeler om al die nieuwe zut te implementeren. dus dat betekent dat games veel sneller de nieuwe features kunnen gaan gebruiken, en dat geeft weer meer verkopen. ook als het alleen voor nvidia kaarten werkt dan zal het niet aanslaan bij de game devvers, immers die willen hun game compatible voor elke kaart. tis dus voor hun eigen bestwil
<sarcasm mode on>
Och, Microsoft heeft toch al vaker laten zien hoe dat in zijn werk gaat?

Eerst zorg je er voor dat iedereen van Cg gebruik gaat maken. (door bv het tooltje weg te geven) En als dat eenmaal zo is zorg je er voor dat er nieuwe features in komen die alleen op jouw hardware werkt...
<sarcasm mode off>
ATI geeft de tegenhanger RenderMonkey ook gewoon vrij die itt Cg redelijk makelijk om ook door graphics artist te gebruiken. De effecten is visueel en die wil je overlaten aan die mensen dan aan programmeurs.
Ik doe voorlopig niets meer met videokaart upgrading. Van een TNT naar Ti4200 is voorlopig genoeg.

Tja, toch kijk je met een schuin oog naar de Radeon 9700 en half naar de NV30 (al is dat alleen nog maar op papier) en dan wil je, hardware-geil zijnde, toch wel _als het even kan_ upgraden.

Dan kijk ik even wat ik met 500+ Euro kan doen en vervolgens kom je weer op aarde en ziet in dat er zoveel meer zinvols te doen is met dat geld dat ik terstond het geld niet aan hardware ga uitgeven.

Toch blijft het kriebelen, gaat nooit helemaal weg...

Gelukkig is daar na het lezen van het interview niets aan veranderd. Hoop geblaat - gelukkig. :)
jongens jongens laat je niet gek maken door john carcmak want die alpha demo zitten kij veel bugs in het spel moet met radeon 9700 pro optimaal lopen
dat zij die zelf ook bij het forum tijdje geleden maar
ook al is het zo geweest ga ik niet andere video kaart
kopen voor die spel maar de orginele demo moet het goed lopen we w8ten maar effe af :z
Pixel shaders bouwen in DirectX 8.0 is die-hard assembler-werk, waardoor weinig spellen echt gebruik maken van de features die op dit moment beschikbaar zijn.
Als ik dit al hoor vind ik het niet vreemd dat je voor de meeste nieuwe spellen zo'n dure kaarten nodig hebt. Die mensen kunnen niet eens meer snelle code in elkaar steken. Uit de tijden met software 3D (alla Duke Nuckem) kon men naar mijn idee veel meer performace uit de oude 486 halen als nu uit de P4's, XP's, Nvidia's en Radeons.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True