Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 53 reacties
Bron: nV News, submitter: Edwin Bakker

Nadat Reactor Critical eerder berichtte dat de GeForce FX mogelijk niet compatibel zou zijn met DirectX 9.0, is nu duidelijk geworden dat de videokaart toch volledig compatibel is. Een medewerker van het tijdschrift Computer games Magazine heeft namelijk om opheldering over de ondersteuning van Displacement Mapping gevraagd aan nVidia en hieruit kwam hij te weten dat de FX verschillende manieren van Displacement Mapping ondersteunt:

nVidia GeForce FX GeForce FX supports several types of displacement mapping. The defining features of DX9 are vertex and pixel shader 2.0 (and beyond), GeForce FX has the most complete support for DX9 vertex and pixel shaders, and is clearly a DX9 GPU. I believe that statement ends the debate...
Moderatie-faq Wijzig weergave

Reacties (53)

Allemaal wel heel mooi, dat DirectX 9, maar wanneer komen de eerste spellen uit die daarvan gebruik maken? Dit lijkt me veel interessanter. Denk volgend jaar september op zijn vroegst (zelfde gold voor DX 8 spellen). Ik bedoel, dan zit je daar met je GeForce FX in februari, terwijl je er eigenlijk nog niets aan hebt...
Misschien is dit wel een goeie:
Software loopt niet achter op hardware, maar: Hardware loopt voor op software
Je kunt namelijk moeilijk iets maken voor wat nog niet bestaat, en waarvoor geen standaarden zijn. Stel je voor, je wilt een keertje tegelijk gaan releasen. En je wilt dan ook nog een redelijk spel maken, dan moet je nu al weten wat er in DX10 of DX11 zit! Beetje moeilijk naar mijn mening.

Bovendien, wat is je probleem, over een jaartje draait je kaart nog lekker op de spellen, dus wat is het probleem? Dan heb je tenminste nog wat aan je hardware.
En als jij dan geen spellen voor DX9 hebt, maak jij er dan nog ff eentje binnen 2 maanden? Met een goede release, productie en alles wat daar bij komt horen. En natuurlijk moet je de inhoud van het spel niet vergeten.

Programmeurs kunnen niet vliegen...
En als jij dan geen spellen voor DX9 hebt, maak jij er dan nog ff eentje binnen 2 maanden? Met een goede release, productie en alles wat daar bij komt horen. En natuurlijk moet je de inhoud van het spel niet vergeten.

Programmeurs kunnen niet vliegen...
Je hebt helemaal gelijk. Maar misschien zou het kunnen dat ze een spel ontwerpen, die erg veeleisend is (zoals doom 3) en die later pas uitrusten met alle Direct X functies. Zo zijn ze in die tijd klaar voor de nieuwe generatie.

In de ontwikkeling van Doom3 hebben ze het zelfde gedaan, 3 jaar geleden zijn ze begonnen met het principe. Nu zit er ook dx.8.1 in.
Zo zouden ze in minder grote en geavanceerde spellen dat ook kunnen toepassen, en dan het zo timen dat ze precies uitkomen op de datum van de realease van nieuwe videokaarten. Zo kunnen de fabrikanten en software makers een een-tweetje maken dat ze allebij ten goede komt.De kopers van de videokaart willen allemaal het mooie nieuwe spel om hun kaart mee te testen en de lui die het spel geweldig vinden kopen dan de videokaarten.

En het was in het vorige bericht ook al behoorlijk duidelijk dat dit maar een roddeltje was, in een tech.specs pdf'je van nVidia was al ondersteuning aangegeven.


(op het pdf'je : Op de 13e pagina in een tabel die de fx vergelijkt met de gf4ti. In de 1e kolom staat "vertex displacement mapping" en een nog een andere soort, bij de gf4ti staan deze niet afgevinkt en bij de FX wel.)
In de ontwikkeling van Doom3 hebben ze het zelfde gedaan, 3 jaar geleden zijn ze begonnen met het principe. Nu zit er ook dx.8.1 in.
Euh, Doom3 gebruikt anders OpenGL voor de GFX hoor... DX8.1 wordt alleen gebruikt voor het geluid.
@typhon: Ik geef jou ook groot gelijk. Maar jammer genoeg werkt het zo gewoon niet voor elk spel of laat staan software.

Eigenlijk zou er een soort "cosumentenbond" voor pc-gebruikers moeten komen die pleit voor orde en netheid, die ook ervoor zorgt dat alles goed samen met elkaar communiceert, en dat iedereen voldoende op de hoogte is van wat allemaal komen gaat. Bovendien zouden bepaalde dingen beter uitgelegd moeten worden, en duidelijk gemaakt. Want die merknaam GF Ti 4800 vindt ik niet zo op z'n plaats. En zou zijn er nog een aantal dingen die ik (en ik denk ook anderen) graag veranderd en verbeterd zouden zien. Maarja, wij zijn alleen maar de stomme eindgebruikers die maar moeten doen wat we voorgescholelt krijgen van de "oppergoden" op pc gebied...
Dat is op zich geen nieuw gegeven. Software en hardware ontwikkelingen lopen nooit gelijk. Software loopt in de meeste gevallen achter de hardware aan.
Dat is altijd al zo geweest, denk maar bijv. aan VGA 256 colour of 3dfx.
Dat is op zich geen nieuw gegeven. Software en hardware ontwikkelingen lopen nooit gelijk. Software loopt in de meeste gevallen achter de hardware aan.
Is allemaal nogal logisch, toch? Hoe verkoopbaar is software die op geen enkele machine te draaien is?

" Joh ik heb nu toch een kicke spel gekocht!!! Kan het alleen nog niet spelen... Waarom niet? Omdat geen enkele pc het aankan, maar gaaf dat het eruitziet op de plaatjes van de doos!!! :+ :+

Lijkt me duidelijk: niet. 8-)

NB: Wanneer komt nou eindelijk eens die ondersteuning voor het Euro-teken in de postings?
NB: Wanneer komt nou eindelijk eens die ondersteuning voor het Euro-teken in de postings?
Voor zover ik weet werkt dit al een hele tijd hoor...


kijk maar -> §
Bij mij werkt die euro teken ook niet (IE 5.0)

Ik denk dat de euro-teken bij sommige browsers (bv. IE 5.5) wel werken en bij andere weer niet.
Ik geef je helemaal gelijk wat betreft het feit dat softwaren en hardware 'nooit' gelijk 'lopen'.

Het zo dat je om software te draaien bepaalde hardware nodig hebt, dus eerst zal de hardware er moeten zijn en dan kun je er pas software op draaien... logica lijkt me zo!

Echter vind ik je uitspraak dat software achter de hardware aanloopt niet correct aangezien veel software die al langer bestaat nog beter/sneller/soepeler werkt op nieuwere hardware dus dan kun je eigenlijk zeggen dat de hardware achter de software aanloopt.
Ik zeg daarom ook liever dat het een samenspel/werking is tussen deze twee.
De snelheidswinst is het belangrijkste... De kaarten zijn vaak niet eens snel genoeg om al die features die ze ondersteunen tegelijk te gebruiken.

Neem de GF4 kaarten van nu.. Als je een game hebt (zoals Asheron's Call 2) die alle features van DX8 ondersteunt, trekt je GF4 het niet meer met alle opties aan, terwijl deze wel DX8 'compatible' zou moeten zijn.

Die compatibility is een leuk praatje, maar hoe de kaarten functioneren met de spellen van NU is imho nog het belangrijkste.

edit:

compatible/compliant whatever... we weten toch wat er bedoeld wordt?
Inderdaad! dit is mij nu ook precies opgevallen.
Een nieuwe DX generatie introduceert als het ware alleen alle nieuwe features, zo gauw ze allemaal worden aangesproken, ontbreekt hij weer in snelheid.

Dat heeft toch wel iets heel mafs eigenlijk.
Ach een TNT2 is compatible met directx 9 maar ja complaint is weer een ander verhaal.
Deze 2 termen worden vaak door elkaar gehaald.
De laatste staat voor het hardware matig ondersteunen en de eerste staat er voor dat hij het wel kan afspelen maar dan moet de processor wat meer werk doen ;)
'complaint' staat voor 'klacht'. Je bedoelt 'compliant'.
\[fok!-mode]
'complaint' staat voor 'klacht'. Je bedoelt 'compliant'.
Verbranden! Vierendelen!
Vuile taalpurist! ;)
\[/fok!-mode]
Niet dus; een TNT is niet directx compatible, want hij kan geen vertex/pixel shaders weergeven. Dat je ermee een spel kan spelen dat directx 8/9 functies bevat heeft meer te maken met het feit dat de programmeur van het spel dat toelaat, en het spel dan draait zonder die speciale functies: het spel speelt dus wel, maar zonder directx 8/9 functionaliteit. De kaart is dus bruikbaar, maar niet compatible (of compliant) met directx 8/9.
Ik bedoel, dan zit je daar met je GeForce FX in februari, terwijl je er eigenlijk nog niets aan hebt...
Denk duz toch wel dat ie games met directx 8.* :) ook een stukkie sneller draait. Ben met je eens dat wanneer de directx 9 games uitkomen, hij dan volledig wordt benut.
nee, tegen de tijd dat er directx 9 spellen uitkomen dan is die kaart alweer te traag om die spellen te kunnen draaien!
Ja dat heb je nu met een radeon 9700 pro. Die is ok voor directx 9.0 gemaakt en dan gebruikt hij zijn volledige kracht pas ;).
Die komen vanzelf. Zie DX 8.1, met mooie pixel en vertex shader support. Een tijd lang genegeerd door games die op de Quake 3 engine waren gebaseerd zoals MOHAA en SOF2, games die een dure videokaart behandelden als een hele snelle TNT2 kaart...
Maar uiteindelijk toch leidde het tot echt mooie games zoals NOLF2, BF1942, etc. DX9 zal een tijd uit zijn terwijl mensen nog steeds DX7 en DX8 games maken, maar uiteindelijk komt er een game die de anderen wegblaast, en dan ben je er blij mee.
Wat wil je anders, dat MS de huidige DX8 blijft voeren, terwijl games alleen sneller maar niet grafisch beter kunnen worden ?
Hmm.. niet alleen moet het compatible zijn ipv compabitabel (leuke tikfout overigens), ook gaat het waarschijnlijk helemaal niet om compatibiliteit. Ik gok zo dat mijn oude Matrox G200 ook 100% compatibel is met DirectX 9.0. Hij zal alleen niet 100% compliant zijn...
Volgens mij is jouw Matrox G200 helemaal niet 100% compatibel met DirectX 9.0.
Compliant wil zeggen dat de videokaart alles zelf ondersteunt.
Compatibel wil hier zeggen dat de volledige API via kaart en processor kan geŽmuleerd worden. En waar iedereen het hier dus mis heeft: dat lukt wel voor vertex shaders, maar pixel shaders moeten hardwarematig ondersteund worden. Vergeet dus dat je matrox G200 DirectX 9.0 100% compatibel is, het is dat zelfs niet voor DirectX 8.
Het duurt het al ruim 2 jaar en nu pas komen de DirectX8.0 spellen uit. Dit duurt natuurlijk veel te lang. Nu loopt nVidia zijn Cg te promoten. Nu is mijn vraag: Als een spellenmaker dan zijn spel maakt op Cg, zorgt de compiler er dan ook voor dat op directX8.0 kaarten ook de speciale functies gebruiken? Dus zorgt Cg er ook voor dat het grootste nadeel van DirectX8.0(hoe moeilijk het is te programmeren) ook word opgeheven? Of kan Cg alleen wat betekenen voor DirectX9.0 compliant kaarten?
Cg is geen 'vervangende' programmeertaal of API a la DirectX, maar een taal voor de pixel- en vertex shaders. Games dienen correct te herkennen of Cg door een kaart ondersteund word, en zo nee dienen ze hun shaders anders aan te bieden.
Had niet anders verwacht. Als men de release stream heeft bekeken op Nvidia.com dan had je dit eigenlijk al geweten. in de Geforce FX is veel ontwikkeling gegaan, en denk nou niet dat Nvidia zichzelf in de vingers zou willen snijden door niet compatible te wezen met DX9.0. Helemaal als de samenwerking met M$ op nivo is geweest....


Dus ik kijk er niet van op... :Z
Als ik nu alles over DX compatibiliteit lees lijkt het dat MS die nieuwe functies bepaalt waar chipbouwers dan maar rekening mee moet houden.

Zo'n beetje wel maar natuurlijk is er wel overleg tussen de software- en de hardware industrie. Er zijn meerdere keren per jaar bijeenkomsten waar beide partijen standaarden met elkaar afspreken. Maar omdat Microsoft is de grootste speler in de software industrie is, is het ook niet vreemd dat iedereen naar hun kijkt als het gaat om standaard bepaling en ja...DirectX is daar een goed voorbeeld van.
aangezien de meeste mensen het financieel niet op kunnen brengen om ieder jaar een nieuwe videokaart van dergelijke kwaliteit aan te schaffen maakt het wat dat betreft geen zak uit wanneer dx9.* uitkomt
ik denk dat ik volgend jaar om deze tijd nog steeds mijn g4 ti in mn bakkie heb zitten.

[mierenneukermodus] Hallo??? compatible of compliant??? hallo???[/miereneukermodus]
Die hele discussie over compatible of compliant heeft toch geen zin; dat is het zelfde als beweren dat een skoda compatible is met een ferrari. Ikzelf ben wel razend enthousiast over de toekomstige DX9 kaarten en de software die daarvoor ontwikkeld gaat worden. Ik meen dan JC zelfs een keer zei dat alles wat hij nŠ doom3 gaat maken pas gebaseerd gaat worden op de nieuwe generatie videokaarten ( >GF4ti ), en dat die games doom3 ontzettend ver achter zich zullen laten. Gamers gaan mooie tijden tegemoet. Bring it on. :9
Die hele discussie over compatible of compliant heeft toch geen zin
Daar ben ik het niet mee eens. Doordat deze twee termen vaak door elkaar gehaald worden (zoals ook in dit stuk), krijg je alleen maar meer verwarring. Vooral als een site als Tweakers.net, dat door veel mensen toch gezien wordt als een 'goede' nieuwsbron, de termen verkeerd gaat gebruiken, zullen veel mensen eerder geneigd zijn om dit te geloven. Dan krijg je van die situaties als "Maar op Tweakers stond dat het compatible is met DX9.0, dus zal dat wel zo zijn", terwijl ook elke GF3 of Radeon7500, GF2 etc compatible is met DX9.0. Probeer die mensen dan maar eens duidelijk te maken dat ze de verkeerde term gebruiken, maar dat ze eigenlijk "compliant" bedoelen... Ik vind dus dat je dit soort dingen gewoon in de kiem moet smoren, en dat kun je alleen bereiken als je op een juiste manier met de termen "compliant" en "compatible" omgaat. :7

Dus kort door de bocht:
DX9.0 compliant -> Hardwarematige ondersteuningen voor alle DX9.0 features
DX9.0 compatible -> Geen hardwarematige ondersteuning voor alle DX9.0 features, maar aangezien DX backwards compatible is, zal een "compatible" kaart (bv GF3) wel onder een hogere versie dan zijn eigen "DX-compliancy" (bij GF3 is dat DX8.0) kunnen draaien. Het is dan vanzelfsprekend dat je dan wel enkele effecten mist (zoals het mooie water bij Morrowind).

Dan even ontopic. Het antwoord van nVidia is allerminst duidelijk. Op het eerste gezicht lijkt alleen maar een klein gedeelte van de verklaring over DM te gaan en de verwijzing naar DX9.0 pixel en vertex-shaders lijkt er onsamenhangend achter te zitten. Eigenlijk hadden ze er bij moeten zetten dat er meerdere manieren mogelijk zijn om DM te doen, maar dat ze niet aan 'echte DM' doen zoals Matrox dat doet.

Ik dacht dat alleen Matrox voldoet aan echte hardwarematige displacement mapping. Microsoft zag dat het er mooi uit zag en stopte het in DX9.0, net zoals ze dat deed bij EBM die ook dankzij Matrox in DX is ingevoerd.

Maar aangezien Matrox niet precies wil doorvertellen op welke manieren ze DM uitvoeren, hebben zowel ATi als nVidia hun eigen manieren moeten vinden om toch tot DM te komen.

En beide fabrikanten zijn gekomen tot een vorm van vooraf gesamplede DM en niet een vorm van adaptive/dynamic tesselation in combinatie met DM zoals bij Matrox.

nVidia heeft hier duidelijk gekozen voor een vorm van DM via pixel- en vertexshaders (de DX9 vertex-shaders kunnen namelijk sampled DM doen). Vandaar ook het statement over hun PS en VS in het artikel. En aangezien ATi ook DX9 ondersteunt kan ook de R300 dit via vertexshaders doen, maar deze kaart heeft als extra nog de hardwarematige ondersteuning van n-patches & voorgebakken DM via hun Truform II.

Voor zover ik weet is dus de manier van ATi iets flexibeler dan die van nVidia, maar zeker lang niet zo flexibel als de manier van de Parhelia van Matrox.
Hmmmm.... khep altijd gedacht dat een nieuwe DX gemaakt werd naar de nieuwe functionaliteiten van nieuwe videokaarten.
bv. DX6.1 was een aanpassing op 6 om 3DNOW van AMD te ondersteunen.

Als ik nu alles over DX compatibiliteit lees lijkt het dat MS die nieuwe functies bepaalt waar chipbouwers dan maar rekening mee moet houden :?
Combinatie van die twee. Ik geloof dat Microsoft met o.a. (voornamelijk) NVidia rond de tafel heeft gezeten om te bekijken welke features ze in DX9 moesten stoppen. MS zal niet alles zomaar zelf eventjes gaan bedenken maar daar zeker de hulp van chipbouwertjes bij inroepen.
Bull,
Ik meen me te herinneren dat NVidia er door Microsoft uitgeschupt was omdat ze technologien probeerden door te drukken die ze al reeds gepatendeerd hadden (maar dit natuurlijk wel netjes verzwegen)
Ik weet dat ze idd ff ruzie met MS hadden, maar ik kan me niet voorstellen dat MS ze er uitschopt omdat nvidia dezelfde trucjes zou flikken als MS zelf al jaren doet, ik denk eerder dat nvidia's support voor opengl mee heeft gespeeld, meerdere api's zijn MS natuurlijk een doorn in het oog, zeker als die api's niet van hunzelf zijn en ook nog eens platformonafhankelijk
Ik zou op de vorige reactie ook nog willen toevoegen wat de reden daarvoor is, nl. hardwarefabriekanten zijn ietwat gelimiteerd in hetgeen ze kunnen ontwikkelen, de techniek moet voor handen zijn. Terwijl de ontwikkelaars van DX zo goed als alles kunnen implementeren wat de hardware voorziet... Dus logischerwijs zou ik denken dat MS naar de pijpen danst van NVidia/ATI/...
Ik snap al niet dat iemand hier aan durfde te twijfelen!
Ik wil liever vandaag nog een GeForce FX dan pas als er games zijn die op Directx 9.0 zijn geschreven. Dat blijft toch zo.... Het verbaast mij hoe snel je alweer iets nieuws wil...
ps nee TNT2 zal niet zo goed draaien met spellen die voor directx 9 zijn bedoeld :z
Ik snap het al helemaal niet aangezien displacement mapping gewoon allang in de specs stond op de nVidia website ;)
\[offtopic/on]
Nofuturekid.. de § wordt wel ondersteunt hoor.. tweak je keyboard settings...
\[offtopic/off]

De discussie over compatible zijn of compliant zijn lijkt me nutteloos. Deze kaart ondersteunt DX9.0. Wat gewoon inhoudt dat alle zaken die onder DX9.0 specs zijn vastgelegt met deze kaart naar voren zullen komen. Is je kaart dat niet... dan zal je die dingen moeten missen. Klaar. |:(
offtopic:
Over eurosymbool:
Nee niet goed... Niet op alle manieren waarop je een euro teken tevoorschijn kan toveren, doet het. Ik heb XP, en ctrl+e is in de Amerikaanse (standaar qwerty) geen euro-symbool, alleen in MSN Messenger.
Als ik m op europees zet doet ie het wel, maar dan is de indeling van de toetsen anders.
/offtopic

ontopic:
Vreemd eigenlijk, dat Nvidia iets wat ze zo lang niet (wilden?) ondersteunen, nu wel ondersteunen. De betrouwbaarheid van dit bericht durf ik trouwens wel in twijfel te trekken...
Customer Service zegt me niet zoveel.
Zinloon? Misschien. Maar het gaat om de benadering.
Zowiezo klopt er iets niet in deze discussie.

Kaarten zijn en worden niet gemaakt om DX* te ondersteunen. We draaien de zaken om.
DirectX* is juist gemaakt om hardware te ondersteunen, en zo is het.

Daarom zie je ook bijv. kaarten die features van DX8 en DX9 hebben...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True