Info over nVidia's NV30 'Cinematic Shading GPU'

Direct na de officiële aankondiging van de Radeon 9700 videokaart toonden vroege benchmarks aan dat ATi er zonder twijfel in is geslaagd om een videochip te bouwen die de GeForce4 Ti4600 Ultra van de troon kan stoten. Niet geheel onverwacht laat nVidia dat niet zomaar over zich heen komen. Al ruim een jaar gaan er geruchten over de opvolger van de GeForce4, die zich - onder andere met hulp van ex-3dfx medewerkers en -technologie - direct moet meten met de R300 kaarten van ATi. De laatste dagen zijn deze geruchten zeer sterk aangezweld, vooral door loslippige nVidia-medewerkers die rondliepen op Siggraph.

De NV30, ook wel bekend onder codenamen als 'Eclipse' en 'Omen', heeft nog geen definitieve naam gekregen, maar men heeft al duidelijk gemaakt dat het geen GeForce5 wordt. Wel weten we dat de PR-afdeling het een Cinematic Shading GPU gaat noemen. Uiteraard zal de NV30 volledig compliant zijn met DirectX 9.0. Dat houdt in dat de chip kan werken met 64/128 bit floating point en 48 bit integer kleuren, Vertex Shader 2.0 en Pixel Shader 2.0 (samen CineFX). Verder zal vertex- en geometry displacement mapping worden toegevoegd aan het repetoire van features.

De kreet 'Cinematic' slaat op de ontzettend complexe effecten die bereikt kunnen worden door de uitbreidingen van de shader-hardware. De pixel shader van NV30 kan bijvoorbeeld 1024 instructies per pass uitvoeren in plaats van de huidige vier of acht, terwijl een vertex shader programma voortaan 64k instructies kan bevatten, meer dan 500 keer zo veel als met de GeForce4 mogelijk is. Bovendien ondersteunen de 2.0 versies van shaders loops en branches, waardoor realtime effecten mogelijk worden waar films als Toy Story 2 niet aan kunnen tippen. De enorme programmeerbaarheid van de chip maakt het gebruik van de Cg programmeertaal bijna een must.

Iedereen weet inmiddels dat voor mooie graphics veel bandbreedte nodig is, en daar is dan ook flink wat aandacht aan besteed. Niet alleen is de hidden surface removal verbeterd, maar ook zou de chip een enorme sloot bandbreedte tot zijn beschikking hebben. nVidia zou volgens nVnews nauw samengewerkt hebben met de fabrikanten van de chips om niet alleen de allerhoogste kloksnelheid, maar ook bleeding edge technologie te kunnen gebruiken. De site praat over 500MHz 256 bit DDR-II SDRAM (1GHz effectief), wat 32GB/s aan data voor de core zou betekenen. De core zelf zou gebakken worden op 0,13 micron en ondanks zijn complexiteit op 400MHz draaien, waardoor een simpel rekensommetje ons een fillrate van 3,2 gigapixels en 6,4 gigatexels oplevert.

DirectX De release van de NV30 zou volgens sommige geruchten al in augustus plaats moeten vinden, hoewel andere september of oktober waarschijnlijker achten. De kaart zal in ieder geval tegelijk met DirectX 9.0 worden uitgebracht. Microsoft zal de release van de nieuwe versie uitstellen als nVidia de kaart nog niet af heeft, maar andersom is volgens Beyond3D niet mogelijk. Hoe het ook zei, de strijd in videokaartenland is nog lang niet gestreden. John Carmack is in ieder geval enthousiast over het allernieuwste wapen van nVidia in de oorlog om een plaats in de PC van de high-end gamer met te veel spaargeld :

Nvidia is the first of the consumer graphics companies to firmly understand what is going to be happening with the convergence of consumer realtime and professional offline rendering. The architectural decision in the NV30 to allow full floating point precision all the way to the framebuffer and texture fetch, instead of just in internal paths, is a good example of far sighted planning. It has been obvious to me for some time how things are going to come together, but Nvidia has made moves on both the technical and company strategic fronts that are going to accelerate my timetable over my original estimations My current work on Doom is designed around what was possible on the original Geforce, and reaches an optimal impliementation on the NV30. My next generation of work is designed around what is made possible on the NV30.

Bedankt voor de tip =Flexx=.

Door Wouter Tinus

30-07-2002 • 15:34

94

Bron: Beyond3D

Lees meer

Lange termijn planning nVidia GPU's
Lange termijn planning nVidia GPU's Nieuws van 6 september 2002
Gigabyte Radeon 9700 Pro op 400MHz
Gigabyte Radeon 9700 Pro op 400MHz Nieuws van 22 augustus 2002
Meer ATi Radeon 9700 Pro reviews
Meer ATi Radeon 9700 Pro reviews Nieuws van 19 augustus 2002
AnandTech over de nVidia NV30
AnandTech over de nVidia NV30 Nieuws van 15 augustus 2002
"NV30 met 900MHz geheugen"
"NV30 met 900MHz geheugen" Nieuws van 13 mei 2002
nVidia: "geen GeForce5"
nVidia: "geen GeForce5" Nieuws van 28 maart 2002

Reacties (94)

94
92
38
12
3
13
Wijzig sortering
Het heeft volgens mij niet zo veel zin om zover over de DirectX9 specificaties heen te gaan. Developers gaan tegenwoordig niet meer speciaal voor een videokaart iets ontwikkelen, zeker niet nu er meerdere spelers op de markt zijn. ATI, Matrox, VIA, S3, 3DLabs. Men zal zich eerder aan de officiele specs houden van een API, vanwege compatibiliteit met meerdere merken/kaarten.

Het lijkt allemaal een beetje overkil.
Mee eens.. Allemaal rete geil enzo. maar de eerste DX9 games komen pas op de markt als DX10 voor de deur staat.. Ik bedoel hoeveel echte DX8 games zijn er nu ?
En als je dan ook nog eens allerlei extra features erbij gaat proppen die niet direct in de DX standaard zitten [en dus niet gebruikt gaan worden] maak je een onnodig dure kaart. ATi's R300 en dit monster zijn allebei belachelijk krachtig.. Prijs gaat nu zeker een rol spelen..
De enorme programmeerbaarheid van de chip maakt het gebruik van de Cg programmeertaal bijna een must.
Dat is niet helemaal correct volgens mij. Het zou moeten zijn: "maakt het gebruik van een higher-level programmeertaal bijna een must". Ik dacht namelijk ergens gelezen te hebben dat ATI ook bezig is met een (universele) taal voor shaders e.d. en dat deze taal een stuk beter zou zijn volgens ontwerpers dan Cg van nvidia.
Dat programma waar jij op doelt is het programma RenderMonkey, een plaatje is hier te vinden:
Anoniem: 52509 @T.T.30 juli 2002 16:39
Inderdaad,
maar de kans is klein/onbestaande dat RenderMonkey gebruik maakt van die +DX9 mogelijkheden van de NV30,
waardoor Cg voor deze laatste waarschijnlijk wel aantrekkelijker is.
zoals ik al eerder zei je maakt geen spellen voor een specifieke kaart. Je gaat geen shaders maken die niet werken (of erg langzaam werken) op andere videokaarten. Je beperkt je dan tijdens het ontwikkelen al voor je verkoop. Ja ok voor toekomstige videokaarten misschien niet, maar je wilt meteen je investeringen terug verdienen niet na 2 jaar.
Anoniem: 52509 @hiostu30 juli 2002 17:18
Volledig mee akkoord.
Hoe groot de verschillen tussen RM en Cg zijn weet ik niet,
maar met Cg zal het ook wel mogelijk zijn om shaders voor standaard DX9 hardware te genereren,
en als het niet veel aanpassingen / moeite vergt om ook gebruik te maken van de extra NV30 functies ...
My next generation of work is designed around what is made possible on the NV30.
Wat zou Carmack dan verkiezen voor zijn volgende engine?
Ik heb overigens niet beweerd dat Cg globaal gezien beter zou zijn,
maar om gebruik te maken van alle NV30 mogelijkheden is Cg wel een must.
Die render van het fruit, dat is dus gewoon een render uit max, van de maker van trinisica,

http://www.trinisica.com/sub_view_imgpage.asp?loc=3&img=stilllife-tran slucent

nix nvidia, wie kwam met dit plaatje aanzetten?

is al die info wel zo betrouwbaar?
Q) Some of the images you used are from http://raph.com/3dartists/.
A) These were supplied in the NVIDIA document we used to write the preview, they show what is possible using the NV30 but I do not have confirmation whether they are rendered on an NV30. nvmax.com does not give any warrantee to the fitness of these images! We would have liked to have been allowed to post a few performance graphs instead.
Hier de PDF:

http://www.nvmax.com/Articles/Previews/NV30_SNEAK_PREVIEW/supp/CineFX- TechBrief.pdf
die is dus niet gerenderd op de nv30. Ik denk dat deze nieuwe nvidia kaart niet zo snel zomaar deze kwaliteit in realtime haalt.
hey gladiool ;)

ik wou net hetzelfde komen posten, ik vraag me af of DF hier iets van weet
Tja , er werd hier gezegd dat die nieuwe kaarten belachelijk krachtig zijn, maar niets in minder waar vind ik , het kan niet snel genoeg gaan... Ja bekijkt alles te veel met huidige referenties...

Tja UT2003 zal voor deze kaartjes een makkie zijn, maar denk eens aan wat bijvoorbeeld de informatie rond Doom 3 ons geeft...

Om mooi te kunnen genieten van toekomstige games met complexe architecturen denk ik dat 1280*1024 de standaard resolutie zal worden.

Op de R300 draaite DOOM3 vlotjes, echter maar op medium detail, zogezegd omdat ze moeilijkheden hadden net voor de voorstelling met high detail... ( Als een game draait op medium, dan zie ik niet echt een reden waarom dat nu persé niet zou werken op full detail )

Dus waarschijnlijk was high detail iets te veel van het goede voor de R300.

Die high detail hield waarschijnlijk ook in, 128 bits kleuren, iets waar Carmack al zo lang van droomt...

Aantal polygonen in Doom 3 , laat ons denken zo 2x dat van UT2003, iets zoals UT2 waarschijnlijk zal bevatten...

Dit alles tesamen denk ik dat die DOOM3 op full detail, zo bruut geschat 3 X zo zwaar zal zijn als UT2003

DWZ ipv 120FPS, 60 PFS op 1280x1024x128

Nou 60 frames in Doom 3 zal perfect speelbaar zijn, maar Quake4 , gebaseerd op die DOOM3 engine, zal dan op een online server met 16 man erop waarschijnlijk maar tegen 40-50 frames meer gaan. En dat vind ik dus weeral niet speelbaar meer...

Veel van wat ik brabbel qua getallen zal misschien niet kloppen , maar the point is, dat met al die toeters en bellen, de hardware heet zal worden, trouwens, die R300 is nu gemiddeld geschat zo'n 30-40 % vlugger dan de GF4 ti 4600, de NV30 zal wel ook een soortgelijke snelheidswinst opgeven tov de R300, dus zo belachelijk snel is het nu allemaal weer niet...

Greetz...
40-50 fps vindt jij niet meer speelbaar?
ik heb medelijden met je.
Veel van wat ik brabbel qua getallen zal misschien niet kloppen , maar the point is, dat met al die toeters en bellen, de hardware heet zal worden, trouwens, die R300 is nu gemiddeld geschat zo'n 30-40 % vlugger dan de GF4 ti 4600, de NV30 zal wel ook een soortgelijke snelheidswinst opgeven tov de R300, dus zo belachelijk snel is het nu allemaal weer niet...
als een bedrijf specs geeft van een produkt kan dat maar beter kloppen of ze gaan er aan tenonder,
en met zo'n specs heb je zeker een superkaart in handen.
Er kloppen een aantal dingen niet in je post!!

Er werd niet op high detail gedraaid omdat de R300 het niet bij kon houden, het kon niet omdat er een paar bugs in de engine zaten. Er kwamen fouten met betrekking van schaduw naar voren. Aangezien de Doom3 engine juist draait om schaduwen zijn de settings wat terug gezet.
Die high detail hield waarschijnlijk ook in, 128 bits kleuren, iets waar Carmack al zo lang van droomt...
Dit kan de R300 dus daar lag het niet aan.

Carmack heeft gekozen voor de R300 omdat hij juist hiermee zijn nieuwe technologie heel goed kon showcasen. De R300 kan dus Doom3 heel goed draaien. Het is zelfs te draaien op een Ti500 op de hoogste settings.

De doelstelling van Carmack was namelijk 30 FPS op de snelste Geforce3/Radeon 8500 generatie.
maar the point is, dat met al die toeters en bellen, de hardware heet zal worden, trouwens
Wat heeft dat er nou precies mee te maken, omdat er extra's op zitten wordt het warmer. Ten eerste wordt de NV30 op 0.13 micron gebakken, en dus zal hij minder warm worden. Daarnaast ze kunnen nu ook gewoon de Geforce1 op 0.13 micron bakken en hem snelle klokken, maar dat is toch niet nuttig.
Heeeeeel mooi al die technieken, maar zo lang de spelletjes makers geen spellen maken die dat soort 'functies' volledig benutten om gamers met een minder systeem (videokaart) ook het spel te kunnen laten spelen, heb je er weinig tot helemaal niets aan.
Daarvoor is de Cg programmeertaal. Als een programmeur een vertex shader van 65 duizend instructies moet bouwen is ie wel een jaar bezig, maar met de Cg compiler kan het vele malen sneller. nVidia hoopt zo dat spellen al na een paar maanden, of door middel van patches zelfs nog sneller, gebruik kunnen maken van de nieuwste features. De vraag is hoeveel ontwikkelaars Cg gaan gebruiken.
In DirectX9 zit een vergelijkbaar programma, wat ook deze shaders kan maken. Dus voor DirectX is het al helemaal niet nodig dat Cg.

Even een quote van Richard "ex-NVIDIA" Huddy:
HLSL is the abbreviation which Microsoft has been using for their High
Level Shading Language. It's part of the impending DX9 release.

And with Microsoft's compiler team I'd reckon they will do an awesome
job of optimizing code which is submitted to HLSL.

When Microsoft deliver HLSL it seems to me that the arguments for using
Cg (on DirectX) suddenly become much weaker
Dat is interessant, en ergens ook wel vreemd. Microsoft en nVidia zijn namelijk behoorlijke dikke vriendjes als het gaat over DirectX en graphics. Het lijkt me op z'n minst raar als deze twee concurrerende 'producten' op de markt zouden brengen. Zou Microsoft HLSL niet gewoon een implementatie van Cg zijn of andersom?
Cg is misschien nog wel belangrijk voor het maken van Shaders voor OpenGl. Aangezien de HLSL van MS voor directx is.
Anoniem: 31073 @hiostu30 juli 2002 17:25
Dat is interessant, en ergens ook wel vreemd. Microsoft en nVidia zijn namelijk behoorlijke dikke vriendjes als het gaat over DirectX en graphics.
Dankzij X-Box samenwerking...
Anoniem: 2141 @hiostu31 juli 2002 12:15
shaders zijn voor opengl niet anders dan voor directx..
De spellen van nu zullen wel probleemloos op 1600x1200x32 x 160fps draaien denk ik met zo'n specs. Is er al een officieel DirectX 9 Spel op de markt dan? Jedi knight II zou wel gebruik maken van 128mb aan textures voor je videokaart.
psies, daarom koop ik hem op zn vroegst (of als ati al zn R400 gereleased heeft) over 1 jaar. voorlopig doet mn radeon 8500 het nog prima
Anoniem: 60416 30 juli 2002 17:48
was da ni fake?

'http://games.telenet.be/index.php?newsid=2280'

:?
kan zijn, maar de specs klokken ongeveer en de NV30 zal toch in staat zijn om zulke pics te kunnen renderen
Een TNT2 is al in staat zulke pics te renderen. Als je maar even C4D of 3D Max gebruikt zoals in bij die plaatjes ook is gedaan. Het zegt helemaal NIETS!

Pas als er vertelt wordt hoe lang een NV30 over zo'n plaatje doet en er ook daadwerkelijk een plaatje getoond wordt dat met een NV30 gemaakt is begint het interessant te worden.
die screenies zien erg wel erg 1337 uit :9~
Anoniem: 25643 @Brent30 juli 2002 15:50
Q) Some of the images you used are from http://raph.com/3dartists/.
A) These were supplied in the NVIDIA document we used to write the preview, they show what is possible using the NV30 but I do not have confirmation whether they are rendered on an NV30. nvmax.com does not give any warrantee to the fitness of these images! We would have liked to have been allowed to post a few performance graphs instead.

Het is dus niet zeker of deze met de NV30 zijn gerenderd. Je kan er wel van uitgaan dat het met een "chip emulator" is gerenderd.

http://www.nvmax.com/Articles/Previews/NV30_SNEAK_PREVIEW/

http://www.sharkyextreme.com/hardware/videocards/article.php/1434621

http://www.trinisica.com/sub_view.asp?lv=1&mode=1
hmm, typisch nvmax, ej?
Anoniem: 60314 @Brent30 juli 2002 15:47
Sorry hoor ikke misschien een beetje :z,
maare: 1337¿¿
1337 == leet == l - eet == elite :)
Dat schijnt een nieuwe soort van turbo-nerd-taal-dialect-om-je-zelf-te-onderscheiden-van-de-massa te zijn (zal wel een dubbelpostje worden). Snap er ook geen moer van. Gelukkig spreken de meeste gewoon nederlands en engels..

Dan nu ontopic:
Ziet er veelbelovend uit. jammer dat het ons weer moeilijker wordt gemaakt om een 3d-kaartje te kiezen. Ik zit nu nog met een gf2 (met een amd1,4) Voorlopig kan ik q3 en ut heel lekker spelen.. De volgende stap zal jammer genoeg een compleet nieuw 1337 (hehe) systeem moeten worden, alleen een nieuwe gfx heel toch geen zin meer gezien de het feit dat ze pas snel worden bij een bepaalde snelheid cpu (was niet zo lang geleden nog een topic over hier)
De NV30, ook wel bekend onder codenamen als 'Eclipse' en 'Omen', heeft nog geen definitieve naam gekregen
Dat 'Omen' evt. een naam zou kunnen zijn wist ik al maar 'Eclipse' klinkt een stuk beter
jij beetje :z idd :)

1337=LEET
?

1337 is tegenovergestelde van BrEeZaH
"fillrate van 6,4 gigapixels en 12,8 gigatexels oplevert."

Hoe komen ze hieraan? pixel fillrate is toch 400x8 ? (core x pipelines)
en texel fillrate is toch 400x8x2? (core x pipelines x textures)
Klopt, fixed.
nu snap ik nog altijd niet hoe je aan die 6,4 gtexel/s komt?

[edit]
ok, tis goe, ik dacht dat er 16 textures per pipeline waren maar het zijn er 16 in totaal (2 per pipeline dus)
Anoniem: 60864 30 juli 2002 15:52
Met de steeds gunstiger wordende dollar-koers zou deze kaart wel eens betaalbaar kunnen worden...
ja, ziet er allemaal heeel leuk uit :)
maar ik wacht nog maar ff, tot ze de nvidia en ati tegenover elkaar hebben gezet.
want de matrox had ook van die mooie specificaties op papier, en we weten hoe het daar mee gaat :o

Op dit item kan niet meer gereageerd worden.