Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 150 reacties
Bron: Hot Hardware, submitter: T.T.

Hot Hardware heeft Anand's artikel over de prestaties van de GeForce FX 5900 Ultra in, onder andere, Doom III goed gelezen en vroeg zich af hoe het kon dat de FX 5900 Ultra zo'n ruime voorsprong nam op ATi's 9700- en 9800-kaarten. Niet alleen de FX 5900 Ultra, maar alle kaarten gebaseerd op nVidia's NV30- en NV35-chips haalden in Doom III significant hogere scores dan de concurrentie. Daarom werd Brian Burke, Senior PR Manager van nVidia, een aantal vragen gesteld. Het antwoord van nVidia is kort maar krachtig: Doom III maakt gebruik van de mogelijkheden van nVidia's UltraShadow-technologie. UltraShadow is een nieuwe technologie die door zowel hardware- als software-optimalisaties in de NV30- en NV35-architectuur prestatiewinst oplevert in scenes waarin veel met licht en schaduw gewerkt wordt.

nVidia GeForce FX 5900 Ultra logo (klein)Dankzij UltraShadow wordt een overbodig deel van de schaduw, dat normaal ook gerenderd wordt, nu niet langer gerenderd, waardoor de prestaties volgens nVidia met maximaal dertig procent kunnen toenemen. Aangezien het een propriëtaire technologie betreft, kan ATi de technologie niet zo maar toepassen en, naar nu blijkt zal dat in spellen die UltraShadow ondersteunen flink schelen. Bovendien is nVidia bezig de technologie te laten opnemen in DirectX en zal de Doom III-engine naar verwachting veel gebruikt gaan worden in andere spellen. Het lijkt er dan ook op dat UltraShadow een belangrijke troef in handen van nVidia zal zijn:

So there you have it. Perhaps this is truly where the NV35 will shine or perhaps it's just that ATi hasn't begun to optimize their Doom3 performance yet, in their current drivers. Either way, the fact that Doom3 indeed makes use of NVIDIA's "UltraShadow" technology, is certainly very positive momentum for this new feature they are evangelizing with the Game Devs. We'll have to wait and see in the months ahead, how the landscape shakes out, with respect to Doom3 performance levels between the NVIDIA and ATi camps.
nVidia UltraShadow schema
nVidia UltraShadow schema
Moderatie-faq Wijzig weergave

Reacties (150)

1 2 3 ... 7
Tja, ongetwijfeld zal ATi het hier weer niet mee eens zijn, maar aan de andere kant is het logisch dat de makers van Doom III voor zo'n techniek kiezen. Immers, het is ook in het belang van het spel, dat deze zo goed mogelijk draait. Als ze dit kunnen bereiken door een, door nVidia ontwikkelde, techniek als deze te gebruiken, waarom zouden ze het dan laten?

Kan me herinneren dat de makers van GTA3 gigantisch veel kritiek kregen, omdat die game zo slecht geprogrammeerd zou zijn (te letterlijk PS2-port) en daarom te zware systeemeisen vroeg.
Tja, ongetwijfeld zal ATi het hier weer niet mee eens zijn, [...]
Wat heeft ATi daar nu over te zeggen? Dan moeten ze ook maar met zo'n technologie komen! Het is net hetzelfde als in de tijd van 3DFX: die instructies waren veel sneller en slechts 1 fabrikant had recht om ze te gebruiken. Dit betekent echter niet dat de andere fabrikanten uitgeschakeld zijn: in de tijd van 3DFX kwam nVidia ook met T&L-technologie waardoor ze toch veel sneller waren dan 3DFX-kaarten.
Ik ben voor een spellings checker in de reageer kaders bij tweakers. :Z

..dit kan zo niet langer :+
Ja, helemaal akkooord. Dit is niet goed voor de concurrentie onderling en als die trend blijft verderzetten worden high-end kaarten duurder...

Maar schrijf alsjeblieft wat duidelijker en met leestekens, leest veel prettiger zo ;) Ik tel zo'n 20 fouten zonder afwezige interpunctie mee te tellen als fout.
Uiteindelijk zal deze feature toch in DirectX terecht komen, waardoor het ook door ATi gebruikt zal kunnen worden. Wees dus maar niet bang voor plotselinge monopolies!
ATI heeft DX9++ ondersteuning, ofwel ook dingen die nog niet gebruikt worden maar wel op geprogrammeerd kan worden.
DirectX 9 ++ was voor zover ik weet een onofficiële term die door ATi was verzonnen voor de Radeon 9700 Pro, omdat die meer Vertex en Pixel shaders aankon (zoiets was het, weet het niet meer precies) dan dat er nodig was volgens de DX9 specs om je kaart DX9 compliant te noemen.
voor zover ik weet was die door nVidia verzonnen omtrent de FX5800 en niet door ATi omtrent de 9700. Die voldoet nl. precies aan de 9.0 specs, terwijl de FX5800 nog wat meer kon (waar nvidia vreselijk mee pronkte)
Sorry maar dat 'UltraShadow' verhaal van nVidia is puur marketing geblaat.

De winst komt ergens anders door, quoting John Carmack:
Jan 29, 2003
------------
NV30 vs R300, current developments, etc

At the moment, the NV30 is slightly faster on most scenes in Doom than the R300, but I can still find some scenes where the R300 pulls a little bit
ahead. The issue is complicated because of the different ways the cards can choose to run the game.

The R300 can run Doom in three different modes: ARB (minimum extensions, no specular highlights, no vertex programs), R200 (full featured, almost always single pass interaction rendering), ARB2 (floating point fragment shaders, minor quality improvements, always single pass).

The NV30 can run DOOM in five different modes: ARB, NV10 (full featured, five rendering passes, no vertex programs), NV20 (full featured, two or three
rendering passes), NV30 ( full featured, single pass), and ARB2.

The R200 path has a slight speed advantage over the ARB2 path on the R300, but only by a small margin, so it defaults to using the ARB2 path for the quality improvements. The NV30 runs the ARB2 path MUCH slower than the NV30 path. Half the speed at the moment. This is unfortunate, because when you do an exact, apples-to-apples comparison using exactly the same API, the R300 looks
twice as fast, but when you use the vendor-specific paths, the NV30 wins.

The reason for this is that ATI does everything at high precision all the time, while Nvidia internally supports three different precisions with different performances.* To make it even more complicated, the exact precision that ATI uses is in between the floating point precisions offered by Nvidia, so when Nvidia runs fragment programs, they are at a higher precision than ATI's, which is some justification for the slower speed. Nvidia assures
me that there is a lot of room for improving the fragment program performance with improved driver compiler technology.
Bron: http://www.gamefinger.com/plan.asp?userid=johnc&id=16151

* M.a.w. de nv30/35 architectuur is sneller omdat Carmack alles via het 12/16bit path laat renderen op de nv30/35 architectuur (dus low-res) terwijl ATi ten alle tijden het 24 bit path gebruikt.

Ik neem aan dat JC beter weet waar hij over praat dan e.o.a. marketing mdw van nVidia ;)
En daar komt nog eens bij dat nVidia deze demo heeft georganiseerd samen met id. nVidia had weken de tijd om hun drivers te optimaliseren.
ATi wist van niets en kon geen optimalisaties maken. Het draaide zelfs niet eens op de nieuwste Catalyst 3.4, dus moesten ze 3.2 gebruiken...
"To make it even more complicated, the exact precision that ATI uses is in between the floating point precisions offered by Nvidia, so when Nvidia runs fragment programs, they are at a higher precision than ATI's, which is some justification for the slower speed"
K zou dus eerder denken dat nvidia het 16 en 32 bit path gebruikt.
hmmmm dit is geen goede ontwikkeling. Als dit in DirectX wordt opgenomen, dan zal ATI ook zoiets proberen. Dit resulteert straks in een vervelende situatie, want elke kaar heeft dan zijn eigen voordelen, en nooit 1 kaart met alle voordelen.....
dit is juist heel goed, die ultrashadow ziet eruit als een heel goed stukkie denkwerk.
Als dat in de volgende DX word opgenomen zal ATI (en iedere andren GPU bakker) dit ook in hun volgende GPU's kunnen inbouwen.
(ik ben ATI gebruiker btw, dis dus geen fanboy speak)
Zoiets is bijvoorbeeld ook gebeurd met texture compression. Dat was eerst ontwikkeld door S3 in geloof ik de Savage3D; het heette toen S3TC (=S3TextureCompression). Later heeft Microsoft dit ingebouwd in DirectX, en nu heet het geloof ik DXTC (=DirectXTextureCompression).
klopt het heet idd dxtc in dx, maar nog steeds s3tc in opengl ;)
Lees de tekst: het is een propriëtaire technologie, die dus niet iedereen mag gebruiken of inbakken op hun GPU.

Ik vind dit een errug errug laffe streek van nVidia, ze doen er alles aan om toch maar terug die snelheidskroon te kunnen veroveren. Het is de helemaal aan het mislopen met deze markt, zo kan het eigenlijk niet meer verder, zowel ATi als nVidia moeten van attitude veranderen. :(

(no fanboy speak)
Wat is er laf aan????
Nvidia heeft een nieuwe techniek ontwikkeld en een spellenfabrikant gebruikt het om een spel sneller te maken. Daar is niets lafs aan. Waarom zou je aanwezige technieken niet gebruiken in een spel? Je benadeeld ATI er helemaal niet mee, die moeten nu als een gek gaan zorgen dat ze met iets soortgelijks komen en iets zegt mij dat dit ook nog wel in drivers opgelost kan worden, misschien iets minder efficient.

Zoals al een aantal malen hier genoemd, maar nu even zonder namen te noemen, een processorfabrikant ontwikkeld een bepaalde techniek waarmee specifieke berekeningen 2x zo snel uitgevoerd kunnen worden, deze techniek is zo bijzonder dat ze het dichtspijkeren met patenten (hun goed recht, aangezien er astronomische bedragen in de ontwikkeling zitten). Een andere processorfabrikant kan deze techniek niet gebruiken. Is dat nu laf??? Nee, de andere fabrikant zal z'n uiterste best gaan iets soortgelijks te ontwikkelen.

Dit soort dingen komt de toekomstige ontwikkeling van technieken ten goede omdat fabriakanten de kans niet krijgen om lui achterover te zitten.
De vraag blijft of dit een goede ontwikkeling is. Wanneer de kaarten te veel gaan verschillen zal men misschien aparte versies van games uit moeten gaan brengen. Intussen krijgt Microsoft (weer) veel macht via DirectX wat er gaat winnen en welke hardwareproducent wat moet/mag maken. Hardware producenten moeten zich dus inlikken bij Microsoft en andere producenten hebben het nakijken.
Concurrentie an sich is goed en draagt bij tot snellere ontwikkeling. Om R&D te stimuleren moeten bedrijven hier natuurlijk ook aan kunnen verdienen. Echter bij een gezonde concurrentie kan de consument kiezen in plaats van een monopolist.
Het creëren van standaarden zou ook moeten betekenen dat het ook een standaard wordt, dat wil zeggen dat andere bedrijven de techniek ook overnemen. Wanneer men te veel op eigen systemen gaat werken kun je een situatie krijgen als met de video vroeger (VHS/Video2000/BetaMax) waardoor één uiteindelijk overwint. Weg concurrentie, weg drang om te innoveren, afhankelijkheid en duurdere prijzen zijn het gevolg.
De consument moet kiezen, hoe had je je dat voorgesteld? Als ik al soms niet eens op de hoogte ben van wat de nieuwste technieken zijn ,laat staan dat de gemiddelde consument weet waarvoor die moet kiezen. Nee laat hier maar lekker Nvidia, Carmack, Ati en Sweeney de invloeden op Ms uitoefenen, en niet wij. Die jongens hebben toch iets (lees: veel) meer verstand van zaken.
Invloed op MS uitoefenen? Is het niet MS die de DirectX 9 standaard bepaalt en wat een kaart moet kunnen en wat niet om DirectX 9 compatible te zijn? Op dat moment voldeed nog geen enkele kaart aan deze specificaties.
De ontwikkelaars zien zich kennelijk toch genoodzaakt zich hieraan te conformeren.
Nu geef ik onmiddelijk toe dat het lastig, zo niet onmogelijk, is om de consument in deze te laten kiezen en dat dit niet meer dan een ideaalbeeld is.
Misschien is ID nog boos op ATI voor het uitlekken van de Doom III techdemo? :P
Dat is daadwerkelijk ook zo. Een paar maanden geleden zei iemand van Doom III onrechtstreeks dat het spel zeker niet voor ATI geoptimaliseerd ging zijn. En dat is nu dus gebeurd...
Als dit alles om z'n "scheit" reden (De demo is uit gelekt) gaat dan denk ik bij mezelf.. jongens laten we met zn allen doomlll ff in de winkel liggen of laten we het met zn allen ff gaan downloaden (ik stel me ftp graaaag vrij),

Kom op zeg, waar leid dit naar toe, Nvidia die te bang is om te veel marktaandeel te verliesen en het dan maar gooien op de games, die over een paar jaar alleen maar op Nvidia kaarten gespeelt kunnen worden, dit is werkelijk sneu. Ik hoop echt maar dan ook heeeeeel echt dat die hele fabriek van Nvidia afbrand,

Punt 1, Ze vervalsen drivers
Punt 2, Ze optimaliseren voor 3dmark
Punt 3, Ze durfen nooit uit te komen voor fouten/vals getikte drivers

Mijn mening is, vanaf dat Nvidia begon vond ik ze gewoon vet goed, totdat ik de 8500 van me broer zag draaien, toen ben ik me iets meer gaan focusen op ATI, en hoe langer ik hier op tweakers lees over Nvidia hoe meer hekel ik aan die gasten krijg, Echt waar ik vind het een schande voor mijn computer dat er een Gforce 4 mx440 in zit (was cadeautje).
Het fijne van deze optimalisaties is dat het niet ten koste gaat van de beeldkwaliteit. Immers, er wordt enkel weggelaten wat toch al niet zichtbaar was.

Je kan het vergelijken met MP3, daar zijn ook alle 'onnodige' tonen uitgehaald die het menselijk oor toch niet kan horen.

Als er op deze manier geoptimaliseerd wordt, is dat alleen maar goed, functioneel en innoverend. En zoals gezegd, dit zegt helemaal niet dat Doom III is geoptimaliseerd voor 1 enkele GPU, maar juist om de consument zoveel mogelijk te laten profiteren van prestatiewinst.
Maar als ze het 100% voor de consument doen waarom mag ATI niet meegenieten ?
Dat kun je niet vergelijken.
Het weglaten van bepaalde frequenties bij MP3 is wat anders dan het weglaten van iets wat je niet ziet.
Luister maar eens naar een 128kb mp3 en hetzelfde nummer op een cd.
Met een beetje installatie en goed gehoor hoor je het verschil
Met die schaduw is dat niet het geval.
Ach het valt allemaal best mee.
Ik heb de Doom III e3 leak al gezien op een Radeon9700 op een XP2700+ en dat was op High Detail nog best te spelen. (boven de 30fps in game)
Af en toe wel wat minder. Maar ja Unreal2 draait nog slechter als je alles vol zet. Ik was iig behoorlijk onder de indruk van de kwaliteit en speelbaarheid. Ook op een ATI dus :)
Ben het daar wel mee eens, het draaide zeker beter dan verwacht. Ik ben echter wel van mening dat er nog genoeg ruimte is voor optimalisatie voor zowel ATI als voor het Doom3-team.

Dat ze nu een paar leuke functies ondersteunen van de GF-FX houdt niet in dat ze ook al een volledige implementatie hebben van de functies van de R3x0 core.

Maar was zeker blij toen het draaide ;)
Dat was te verwachten, john carmack schrijft de engine voor doom III en werkt tegelijkertijd bij nVidia voor het schrijven van de tech demos. Dat heeft nVidia zich slim bekeken!
Is helemaal niets van waar, vriend van mij heeft de alpha versie al gespeeld, 1 map maar goed dat doet er niet toe, op 1280x1024 loopt die op een Radeon9500Pro nog tussen de 20 en 60 frames dus ik weet niet waar zij het over hebben.... :?

En ja hoor tweakers.net zit weer vol met mensen die andere mensen niet hun meningen laten verkondigen, meteen weer -1, het is weer zo laat, dan weet je ook weer hoe de doorsnee tweaker in elkaar zit, ja precies een plaat voor hun kop!!
Waarvan is niets waar? Heb je het dan ook geprobeerd met een FX 5900?
Dit betekent nog niet dat Doom III niet speelbaar zal zijn op een Radeon 9x00(pro). Het zal gewoon enkele tientallen frames beter draaien op een nVidia-kaart door deze optimalisaties.
Lijkt me gewoon gezonde concurrentie dit, houdt het innovatieniveau hoog voor de fabrikanten.
Nu heeft Nvidia dus even het "momentum", maar ik ben er van overtuigd dat Ati vrij snel met een antwoord zal komen.
Over de games, tja de makers van games baseren hun producten natuurlijk het liefst op de kaarten die hun games het mooist voor de dag laten komen, dus die kun je het moeilijk kwalijk nemen.
Dat zijn imo gewoon normale ontwikkelingen net als dat de games vaak alleen goed/mooi draaien op de "nieuwste" processoren ed. 8-)
Titel nogal misleidend.. Doom3 is niet geoptimaliseerd voor een specifieke GPU, maar maakt simpelweg dus gebruik van extra opties die een specifieke GPU biedt.

De titel insinueert dat een GPU 'voorgetrokken' wordt in optimalisaties wat dus absoluut niet het geval is.

Anders kun je ook wel zeggen dat Doom3 meer geoptimaliseerd is voor een ATI 9700 dan voor een GF4, omdat die meer opties ondersteunt waar Doom3 gebruik van kan maken :/
1 2 3 ... 7

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True