Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 34 reacties
Bron: The Inquirer, submitter: T.T.

Bij The Inquirer doen geruchten de ronde over mogelijke ondersteuning van pixel shader 3.0 door de Geforce FX 5900 Ultra. In het artikel wordt deze techniek gezien als een stap in de goede richting, die een voorsprong op ATi zou kunnen geven. Sinds de eerste kaart die pixel shading 2.0 ondersteunde een jaar geleden uitkwam, de Radeon 9700 PRO, zijn er weinig spellen die gebruik maken van de techniek. Werknemers bij nVidia hebben echter wel aangegeven dat de testen met de FX 5900 Ultra enkele hardwareproblemen opleverden en dat er nog geen drivers beschikbaar zijn voor de functie. Bij The Inquirer denkt men er het zijne van:

nVidia GeForce FX 5900 Ultra logo (klein)We reckon that Nvidia is practising for NV40 and who knows, if it fixes things NV38 could end up with pixel shader 3.0 support, highly unlikely but still possible.

[...]We would like to know what developers think about Pixel Shader 3.0 as we know that it can make a difference and give you guys more freedom. Feel free to share your comments.
Moderatie-faq Wijzig weergave

Reacties (34)

Ik vind dat er bij 3d kaarten misschien pas van ondersteuning gesproken kan worden als het naast het daadwerkelijk uitvoeren van bepaalde delen ook nog een performance minimum meegegeven moet worden. Een gfx5200 ondersteund nu ook DX9 maar het zal niet bruikbaar zijn aangezien de kaart gewoon te langzaam is in DX9.

De 5900 ultra zou nu dus ook PS3.0 moeten ondersteunen, maar ja wat heb je er aan als hij het straks met 2fps doet. En de 5900ultra is al een stuk langzamer als PS2.0 als een radeon 9700.

Anders krijg je bijvoorbeeld praktijken als een bepaalde SiS of S3 kaart (weet het niet meer zeker, ik geloof dat het 1 van de eerste Xabre kaarten was) die VS ondersteunde, maar het waren gewoon de drivers die dit via de CPU emuleerden.
Ja wat ik mij afvraag is of de PS3 shaders een extensie zijn van de PS2 units.
Mocht dat zo zijn dan zal die kwa performance ook zo gedragen buiten de performance winst van de flexiblere progbaarheid..

Of dat de PS3 implementatie de hardware logic het zelfde techniek gebruikt als PS2 mocht het geen extensie zijn maar een apparte unit.

Dan geld dit fenomeen ook.

Normaal worden alle Spects al opgegeven tijdens introductie dat er opeens PS3,0 shaders inzitten is dus vaag en doet mij sterk vermoeden dat het een gerucht is maar ja je weet maar nooit.
Dat Drivers wat achterlopen op functionaliteit is normaal dat had de G3 ook de kaart was er al de DX8 drivers kwamen ook wat later.
En waarom is de ondersteuning van PixelShader 3.0 nou zo nieuwswaardig? Als dat er nou ook nog ff bij wordt gezet.... (in de nieuwspost op t.net dus).
PS3.0 zijn nog flexibler te proggen dan PS2.0

Dit is vooral van waarde voor de code monkey die die PS routines moet implementeren.

Voor ons is alleen de performance van belang Maar dat PS 3,0 aanwezig is zegt nog niks over de performance.
Wordt dus wachten op 'n 3Dmark PS3 patch of PS3 game die gebenched wordt

DAt zal nog wel effe duren net zoals de ondersteunende Driver..

Ook is de vraag of PS3,0 hardware ook voor snellere PS2,0 hardware zorgt.

Maar ja het zijn geruchten we shall see.
Voor mijn gevoel is het belangrijker om een soort van pixel shader c/c++ scripting language te maken, of een collectie van routines die de programmeur ertoe in staat stellen om met normale c/c++ code een pixel shader programma te maken. ls mijn project nu een videokaart gesponsord zou krijgen zou ik wel overwegen om deze pixel shader programma's te leren maken, maar naar mijn mening is het niet echt de beste methode om een gpu te coden. Waarom asm? Waarom geen compiler die c/c++ naar de juiste assembler omzet (zodat de asm coders eventueel zelfs nog manueel kunnen aanpassen).
Als je nu eens ipv te zagen wat opzoekwerk deed...

Cg oftewel C Graphics:
http://developer.nvidia.com/page/cg_main.html

Tadaaaa.
Helaas zijn er drie varianten.

Die native DX9 HSML? waar ATi het ook goed op doet.
Cg die de FX platform echt nodig heeft want op die van dX9 native doet ie het slecht en
ATI heeft rendermonkey maar doet het ook goed op de dX9 methode.

Je zult dus je PS code minimaal in twee fout hebben voor nVidia(Cg) en aTI met de rest (dx9) of
drie versies nVidia(Cg) en aTI(rendermonkey)en de rest (dx9) voor als andere merken later ook met DX9 hardware komen.
Of rendermonkey & Cg de rest heeft dan pech

Dit is dus niet de Optimale situatie voor een game developer er zou eigenlijk n standaart moeten zijn.
Die native DX9 HSML?
HLSL - High-Level Shader Language

Overigens, als je met DirectX werkt is HLSL een prima keuze, voor zowel nVidia als Ati. Ikzelf gebruik eigenlijk gewoon pure asm, dat geeft mij toch iets meer controle over de code.

Voor OpenGL was er altijd een verschil in extensions voor nVidia's en Ati's shaders, maar tegenwoordig is daar gewoon een ARB extension voor.

Overigens maken de meeste engine developers nog altijd hun eigen shader languages, waardoor ze gewoonweg meer materiaal eigenschappen kunnen definieren zodat dat in de engine gebruikt kan worden
Zie opmerking boven mij, en bovendien kent DirectX 9 de zogenaamde FX files waarin je in een C-like taal je shaders kunt definieren
..., zijn er weinig spellen die gebruik maken van de techniek
Als Pixel Shader 1 & 2 bijna niet gebruikt worden in games, waarom dan nu al versie 3? Tegen dat die gebruikt gaat worden in spellen is de FX5900 Ultra al antiek.
de hardware moet er eerst zijn voor de software volgt.
anders heb je een spel wat niemand kan spelen omdat niemand de goede hardware heeft.
Wie is eigenlijk de officiele "eigenaar"/ uitgever/ beheerder van (pixel en vertex) shader-specificaties?
Waar zijn de (functionele) verschillen tussen de verschillende releases/ versies van shaders te raadplegen?
Waar zijn demo-movies hierover te downloaden?
Ben geen expert op dit gebied, maar volgens mij bepaald MS het, om het daarna te implementeren in DirectX. Je zou de DirectX SDK er eens op na kunne slaan, die gratis te downloaden is van MS.
Als MS de "eigenaar" is van de PS- en VS-spec's, betekent dat dan niet dat je juridisch/ officieel alleen van de PS- en VS-hardwarefeatures op je GPU gebruik mag maken mits je DX (lees: een OS van MS) bezit? Het lijkt me immers sterk dat MS gebruik van die spec's toestaat door niet-MS alternatieven (open GL). Zucht ... had ik maar verstand hiervan. :)
Ik meen dat microsoft samen met de videokaarten developers die standaarden vast legt. Zo kwam matrox ooit met bump mapping, wat op verzoek van matrox in DX 6 kwam, maar geen enkele andere fabrikant ondersteunde het toen. Dat kwam pas bij de DX7 kaarten.... en zo gaat dat bij meer technieken. (matrox ook weer met displacement mapping)
Hmz. Alweer een nieuwe versie?
Misschien wordt het eens tijd om eens een echte standaard voor pixel shaders te kiezen, zodat alle kaarten en spellen deze kunnen ondersteunen. Nu wacht iedereen op iedereen en gebeurt er ondertussen maar weinig.
Enkel als hij werkt kunnen ze dat op de doos zetten, want ze hadden hardware-problemen met de NV35 op het gebied van PS 3.0 en de drivers ondersteunen het nog niet, maar moeten de drivers het wel ondersteunen als het toch een hardware probleem is en dus niet werkt?

Dragunov
Ja inderdaad hij scoort al slecht in de benchmark: AOD, volgens sommigen is het een Driver-issue en volgens anderen is het een hardware-issue.
Als het een driver-issue is kan dit gemakkelijk gefixed worden, maar als het een hardware-issue is dan is het spijtig dat sommige mensen al een FX hebben en de NV38 is volgens bronnen maar een rappere NV35, dus wordt dit niet gefixed in the NV38 maar waarschijnlijk in de NV40
Dus de beste keuze is nu een 9800PRO of het nog te verschijnen 9900PRO
Volgens de geruchten was de FX 5800U al klaar toen de 9700Pro er net was maar werdt ie achter gehouden door tegenvallende prestaties op t epoetsen door de klok op 500Mhz te Forceren dit houd in dat de Driver team door die vertraging ivm de competitie te couteren dus veel mee rtijd had.

Denk ook niet dat er veel verschil is tussen FX5900 & de FX5800 dus het is dus niet een van de grond af ontwikkelde Driver die je bij elke dX? sprong krijgt

Het zou kunnen zijn dat Driver ontwikkelen voor Pixel en Vertex shaders wat meer complex driver werk inhoud maar ja ATI moet dan dat probleem ook hebben aangezien nVidia Driver team op een hoger nivau staat volgens velen.

Dus dat de PS2.0 performance tegenvalt lijkt mij meer 'n Hardware probleem.

Maar vergeet niet nVidia Driver team kan trukjes gebruiken zoals de beeld qualiteit opofferen voor performance. Dan lijkt het of het door een driver upgrade is opgelost. Maar dat zou ik meer een Work around noemen.

Dus ik heb een sterk vermoeden dat het hardware related is.
Dit zal wel mede marketing zijn om 'PS3.0-support!' op de doosjes te kunnen zetten...
Lekkere vertaling weer. Radeon 9700 was niet de eerste hoor die pixel shading ondersteunde. Dat was namelijk de Geforce 3. De Radeon 9700 was wel de eerste die pixel shading 2.0 ondersteunde. Wat ook te lezen valt in het bron bericht.
euh dat staat er toch ook :?

Sinds de eerste kaart die pixel shading 2.0 ondersteunde een jaar geleden uitkwam, de Radeon 9700 PRO
Ja, nu ondertussen wel.
Lekkere vertaling weer. Radeon 9700 was niet de eerste hoor die pixel shading ondersteunde. Dat was namelijk de Geforce 3.
Lees nog eens goed, want het staat er wel goed:

"Sinds de eerste kaart die pixel"

Verwijzing naar Pixel Shader 3.0 dus. Dan heb je het dus inderdaad over de Radeon 9500/9700 (PRO)videokaarten van Ati.

Hier kan je overigens een mooie changelog van DirectX bekijken over wat voor veranderingen er op het gebied van Pixel Shader zijn gemaakt. Zo te zien ondersteund DirecX 9 nu al de Pixel Shader 3.0, DirectX 10 kaarten zullen dan zeker de Pixel Shader moeten ondersteunenn.
Nogmaals: toen het artikel er net stond werd gesuggereerd dat de Radeon de eerste was die pixel shaders ondersteunde. Dat is veranderd naar pixelshader 2.0 ondersteuning wat juist is. Hij was dus de eerste die Pixel shader 2.0 ondersteunde, maar niet de eerste die pixelshaders ondersteunde. De geforce 3 was de eerste, die ondersteunde lagere versies zoals 1.3. Vlak daarna kwam de Radeon 8500 die 1.4 ondersteunde. En nu zitten we dus op 3.0, welke de 9700 dus niet ondersteund.
is het niet zo dat de nieuwe versie ook alle oude ondersteund??
Jazeker, maakt geen ruk uit. Als de Geforce 5900 ultra Pixel Shading 3.0 ondersteund kan hij evengoed overweg met lagere versies.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True