Direct na de officiële aankondiging van de Radeon 9700 videokaart toonden vroege benchmarks aan dat ATi er zonder twijfel in is geslaagd om een videochip te bouwen die de GeForce4 Ti4600 Ultra van de troon kan stoten. Niet geheel onverwacht laat nVidia dat niet zomaar over zich heen komen. Al ruim een jaar gaan er geruchten over de opvolger van de GeForce4, die zich - onder andere met hulp van ex-3dfx medewerkers en -technologie - direct moet meten met de R300 kaarten van ATi. De laatste dagen zijn deze geruchten zeer sterk aangezweld, vooral door loslippige nVidia-medewerkers die rondliepen op Siggraph.
De NV30, ook wel bekend onder codenamen als 'Eclipse' en 'Omen', heeft nog geen definitieve naam gekregen, maar men heeft al duidelijk gemaakt dat het geen GeForce5 wordt. Wel weten we dat de PR-afdeling het een Cinematic Shading GPU gaat noemen. Uiteraard zal de NV30 volledig compliant zijn met DirectX 9.0. Dat houdt in dat de chip kan werken met 64/128 bit floating point en 48 bit integer kleuren, Vertex Shader 2.0 en Pixel Shader 2.0 (samen CineFX). Verder zal vertex- en geometry displacement mapping worden toegevoegd aan het repetoire van features.

De kreet 'Cinematic' slaat op de ontzettend complexe effecten die bereikt kunnen worden door de uitbreidingen van de shader-hardware. De pixel shader van NV30 kan bijvoorbeeld 1024 instructies per pass uitvoeren in plaats van de huidige vier of acht, terwijl een vertex shader programma voortaan 64k instructies kan bevatten, meer dan 500 keer zo veel als met de GeForce4 mogelijk is. Bovendien ondersteunen de 2.0 versies van shaders loops en branches, waardoor realtime effecten mogelijk worden waar films als Toy Story 2 niet aan kunnen tippen. De enorme programmeerbaarheid van de chip maakt het gebruik van de Cg programmeertaal bijna een must.

Iedereen weet inmiddels dat voor mooie graphics veel bandbreedte nodig is, en daar is dan ook flink wat aandacht aan besteed. Niet alleen is de hidden surface removal verbeterd, maar ook zou de chip een enorme sloot bandbreedte tot zijn beschikking hebben. nVidia zou volgens nVnews nauw samengewerkt hebben met de fabrikanten van de chips om niet alleen de allerhoogste kloksnelheid, maar ook bleeding edge technologie te kunnen gebruiken. De site praat over 500MHz 256 bit DDR-II SDRAM (1GHz effectief), wat 32GB/s aan data voor de core zou betekenen. De core zelf zou gebakken worden op 0,13 micron en ondanks zijn complexiteit op 400MHz draaien, waardoor een simpel rekensommetje ons een fillrate van 3,2 gigapixels en 6,4 gigatexels oplevert.
De release van de NV30 zou volgens sommige geruchten al in augustus plaats moeten vinden, hoewel andere september of oktober waarschijnlijker achten. De kaart zal in ieder geval tegelijk met DirectX 9.0 worden uitgebracht. Microsoft zal de release van de nieuwe versie uitstellen als nVidia de kaart nog niet af heeft, maar andersom is volgens Beyond3D niet mogelijk. Hoe het ook zei, de strijd in videokaartenland is nog lang niet gestreden. John Carmack is in ieder geval enthousiast over het allernieuwste wapen van nVidia in de oorlog om een plaats in de PC van de high-end gamer met te veel spaargeld
:
Nvidia is the first of the consumer graphics companies to firmly understand what is going to be happening with the convergence of consumer realtime and professional offline rendering. The architectural decision in the NV30 to allow full floating point precision all the way to the framebuffer and texture fetch, instead of just in internal paths, is a good example of far sighted planning. It has been obvious to me for some time how things are going to come together, but Nvidia has made moves on both the technical and company strategic fronts that are going to accelerate my timetable over my original estimations My current work on Doom is designed around what was possible on the original Geforce, and reaches an optimal impliementation on the NV30. My next generation of work is designed around what is made possible on the NV30.

Bedankt voor de tip =Flexx=.