nVidia interview @ nV News

nV News heeft een interview gehad met Loyd Case, Product Marketing Manager bij nVidia. In het interview komt onder andere nVidia's reactie op Kyro's tile based rendering aan de orde:

nV News: The early benchmarks from the KYRO chip are impressive considering that the clock and memory speeds are running at 125MHz. Does NVIDIA anticipate moving to tile based rendering in the future or a continued "brute force" approach with a few new tricks?

Loyd: Tiled architectures are one way to reduce memory bandwidth usage. The strategy that tiled architectures employ is to be very efficient at "not drawing". In other words, if there are a lot of pixels in a game or other application that are not drawn, tiled architectures can discard them very quickly. Although this is somewhat useful, it's not really the hard problem to be solving. Drawing high quality shaded and blended pixels is more important that "not drawing" them. Also, accelerating more geometry (better shapes and characters) is a lot more important. In the future, Nvidia may pursue a tiled architecture, when it makes sense. At this point in time, it doesn't seem to make sense.[break]Verder wordt gezegd dat nVidia volledig op schema ligt met haar NV20, dus die kunnen we deze herfst al verwachten. Er is ook nog wat ruimte voor wat humor, met deze leuke vraag en het nog leukere antwoord:[/break]nV News: When can we expect NVIDIA to launch a 3dfx takeover?

Loyd: A better question might be "why would we want to?"

Oooh... getting touchy, Loyd?

Door Arjan van Leeuwen

30-06-2000 • 19:14

16

Bron: nV News

Reacties (16)

16
16
2
0
0
0
Wijzig sortering

Sorteer op:

Weergave:

Jammer, gezien nVidia's problemen m et memory bandwidth. 200 MHz DDR gaat maar zover, en meer krijgen we niet voor het eind van het jaar. Hopelijk zijn ze heel hard aan het researchen aan QDR SDRAM, in het diepste geheim..

Of misschien komt er toch wel dual of quad channel rambus op. Voor een videokaart is rambus best betaalbaar, in vergelijking met 166 en 200 DDR. En op een videokaart hoef je ook niet meteen vier RIMMen te hebben voor quad channel, 4 sjippies is genoeg -- en die heb je toch wel op je videokaart.
Karaatje, al ruim een half jaar gebruikt iedere high end videokaart DDR RAM. Geforce DDR kaarten meestal op 150 MHz DDR, Geforce2 kaarten op 166 MHz DDR.

Beide dus een stuk sneller dan wat er op je DDR-dimm slotjes gaat komen.

Ceaser: Zoals ik al zei, voor een videokaart valt het best mee. een 128M rimmetje kost nu zo'n $375 in de VS (nederlandse prijzen lopen erg achter doordat er gewoon maar een paar leveranciers zijn die het ueberhaupt hebben). Voor een videokaart met 32 Mb moet je dus rekenen op rond de $100 aan geheugen. Op zich niet onredelijk op kaarten die inmiddles $350 of meer kosten, _als_ daar een significante performance verbetering tegenover staat.

Rambus heeft wel degelijk potentieel meer bandbreedte dan zelfs DDR-SDRAM, maar het wordt vrij duur. Ik heb het nog eens nagerekend, en voordat je aan hetzelfde zit als 200 DDR 128 bits breed, zit je aan 400 QRSL 32 bits breed.

De mogelijkheid van 400 QRSL 64 bits breed of 128 breed 400 DDR is wel genoeg om me de koude rillingen van genot te geven, laat staan 128 bits 400 QRSL..

En DDR heeft verder, zeker op dit moment, weinig mogelijkheden om nog verdubbelingen van prestaties te doen. Sure, beetje exctra frequentie hier of daar, maar daar haal je het niet mee in deze wereld. 256 breed datapad zou nog net kunnen, al is het erg duur, maar 512 haal je natuurlijk nooit. Dat is meer pinnen dan er nu op die hele GPU zitten. (Goed, het zijn balletjes soldeer en geen fysieke pinnen maar het principe blijft hetzelfde)

QDR SDRAM ziet er ook niet bepaald uit of het snel kan komen. En Rambus gaat nog steeds hard naar beneden in prijs.

Wellicht is er nog een toekomst voor ze...
</div><div class=b4>Voor een videokaart is rambus best betaalbaar</div><div class=b1>

voor 64mb ramboes betaal je F1122,-

dan kan je wel zeggen dat rambus 600MHz is of 800 maar als de bandbreedte 16bit is heb je daar niet veel aan.

hopen dat ze het ooit voor elkaar krijgen elke chip parallel te kunnen aanspreken.
Ik heb bv 8 of 16 geheugen chippies op mijn V770. Moet je voorstellen, 8 chippies die tegelijkertijd aangesproken kunnen worden :9
Word er al beetje nagedacht bij de videokaart bakkers om het nieuwe 1GB DDR RAM te gaan gebruiken. Voor de consument kan het duur worden maar dan krijg je toch kaarten!!

Marcus
www.kara-software.fdns.net
:( :(

Ik denk dat ik niet alleen voor mijzelf spreek als ik zeg dat ik een beetje ziek wordt van het 3dfx afzeiken op tweakers.net door de admins en femme zelf.Jullie houden hier niet van flamewars , maar jullie geven genoeg mensen op deze manier aanleiding.Maar ik zag hier laatst ook een flash reclame van herculus prophet II en SoF vindt het jammer dat objectiviteit hier soms ver te zoeken is.Subjectiviteit mag ook , maar een zekere vorm van professionalisme lijkt me voor dit soort werkzaamheden toch wel gewenst.
Ik hou me de laatste tijd nogal rustig , maar moest dit toch ff kwijt.(-1 of -2 ?)

NV20 wordt dus niet multi-proc en ook niet tile-rendering.Mijn voorspelling is :
NV 20 krijgt weer specificaties toegeschreven die helemaal niet kunnen worden waargemaakt , maar alleen theoretische grootheden zijn.
Ik denk dat NV20 met +- 450 Mhz DDR wordt uitgerust en voorlopig lijkt QDRAM nog niet voldoende onderzocht en Rambus-technologie veel te duur.Dus mijn conclusie : zal wel weer een fantastische GPU worden , maar weer worden tegengehouden door de snelheid van het geheugen en niet optimaal worden gebruikt.
Maar aangezien Nvidia zich altijd aan het schema houdt zal het wel weer met veel te weinig geheugensnelheid worden uitgebracht alleen voor dat stomme schema en te laten zien dat ze zich aan dat schema houden.Beter voor de consument?Ik vind van niet en dat is subjectief.Ik zou weleens een GPU van Nvidia willen zien die optimaal wordt gebruikt.We hebben het nu al over NV20,terwijl NV15 nog steeds te weinig bandbreedte heeft.Ik heb zoiets van:los dat eerst eens op en begin dan pas over de NV20 te praten!!!!
SoF vindt het niets aan om in een ferrari te rijden waar een snelheidsbegrenzer op zit.Je rijdt wel hard , maar hij zou eigenlijk nog harder kunnen gaan ............
Eerst een oplossing voor het geheugen en dan pas weer verder kijken!!
Maar ja.......tijdschema's

;) ;) ;)
Welkom terug Marcus.

(Ik neem aan dat je het afgelopen jaar onder een steen hebt geleefd ;))

DDR RAM wordt al lang in videokaarten gebruikt, dat was zelfs de eerste commerciele toepassing van het spul (nu nog steeds de enige trouwens).

Ik wordt trouwens een beetje moe van die mensen die meteen weer over bandbreedte gaan zeuren zonder het artikel te lezen. De goede man probeerd juist duidelijk te maken dat ze nog een paar leuke verassingen op dat gebied in petto hebben, en daarom nauw samenwerken met geheugenfabrikanten. Ze willen geen "nep" oplossingen zoals multi-chip en tile-based systemen.

P.S. SoF: het is
"/ me doet dit" (zonder spatie tussen "/" en "me"). Zoals je nu tikt lijk je helemaal schrizofreen ;).

* 786562 Bavaria
Nou Bavaria,

Maar eigenlijk bedoelde ik de 1GB geheugen module die eerder verscheen op tweakers vandaag....

Marcus
Stiekum gaan editten he ;)

Maar toch, 1GB is complete geldverspilling, er is geen enkel spel dat zoveel textures gebruikt, en de resolutie moet wel heel hoog zijn wil je zo'n enorme framebuffer volpompen.
</div><div class=b4>Tiled architectures are one way to reduce memory bandwidth usage. The strategy that tiled architectures employ is to be very efficient at "not drawing". In other words, if there are a lot of pixels in a game or other application that are not drawn, tiled architectures can discard them very quickly. Although this is somewhat useful, it's not really the hard problem to be solving. Drawing high quality shaded and blended pixels is more important that "not drawing" them. Also, accelerating more geometry (better shapes and characters) is a lot more important. In the future, Nvidia may pursue a tiled architecture, when it makes sense. At this point in time, it doesn't seem to make sense.</div><div class=b1>

Hoezo, ik ben ingehuurd voor de PR..... nVidia zou wel willen dat ze het op de GeForce 2 zouden hebben zitten, zou de kaart gewoon 3x zo snel zijn -> nu zit iets vaags uit z'n nek te lullen over hun fantastische GPS, hoezo verkeerde argumenten gebruiken...
;) ;)

Nvidia heeft het altijd over de toekomst.
Ik wil het nu!!!!!
Ik heb nu net een GF2(Elsa Gladiac), maar kan hem niet optimaal gebruiken omdat hij te weinig bandbreedte heeft.
Theoretisch zou ik makkelijk en vloeiend Q3kunnen spelen op 1600x1200 32 bit in de praktijk is dit echter niet zo!!!!!!En dan kunnen we het wel weer gaan hebben over in de toekomst(T&L op alle games? 64 MB wordt in de toekomst echt waardevol! , Fsaa stelt niet zoveel voor van 3dfx , hij is nu beter, MAAR IN DE TOEKOMST krijgen wij 16xFsaa).Ik heb NU een GF2 die als het ware begrenst is en dat zuigt echt enorm!!!Kijk naar NU en de oplossingen van NU en daarvan is multi-proc toch wel een goed voorbeeld.Het werkt nu en de job gets done en dan maakt het me echt niets uit!!!!!!
Ik heb ook v5 5500 en is ook gewoon goed en heeft een betere beeldkwaliteit(met en zonder FSaa).Dan kan je wel zeggen de GF2 is beter , maar de v5 5500 presteert tenminste naar zijn mogelijkheden(alleen betere drivers?) en de FSaa is echt fantastisch(beter dan op GF2) , maar ja , in de toekomst zal NVidia..........
Kijk naar nu en oplossingen voor dit moment !!!!
Dit soort PR-bullshit (op nV news , objectief?) gaat Nvidia echt nog een keer opbreken........in de toekomst.

;) ;) ;)

Op dit item kan niet meer gereageerd worden.