Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 59 reacties
Bron: X-Bit Labs, submitter: T.T.

Eerder al waren er geruchten dat de GeForce FX niet 100% compatibel zou zijn met DirectX 9.0. Al snel werd het gerucht naar het land der fabelen verhuisd. Nu lijkt het er op dat de GeForce FX-derivaten NV31 en NV34 wel kampen met compatibiliteitsproblemen. De NV31 moet later dit jaar de Ti 4600 uit het performancesegment stoten. De NV31 komt te staan tegenover ATi's Radeon 9500Pro en Radeon 9700. De NV34 wordt nVidia's nieuwe midstream-monster.

De reden voor het niet 100% compatibel zijn van de goedkopere chips is dat de GeForce FX een ingewikkelde chip is, zowel in de ontwikkeling als de daadwerkelijke opbouw van de chip. nVidia wil voor de NV31 en NV34 dezelfde core gebruiken als de GeForce FX, net zoals ATi dat momenteel doet met de Radeon 9500 (Pro) en 9700 (Pro). Om de NV31 en NV34 geschikt te maken voor het lagere marktsegment moet er gesneden worden in sommige functies, terwijl andere behouden moeten worden. Blijkbaar heeft de DirectX 9.0-compatibiliteit hier onder te lijden gehad. Misschien dat bepaalde features nog door software opgevangen kunnen worden:

nVidia GeForce FX logoNVIDIA has not confirmed the information, but said that both VPUs mentioned here derive from the NV3x architecture. I believe that the company will try to embody a number of the GeForce FX features via the software in case they are not supported by hardware, hence, the NV34 and NV31-based solutions will still be able to perform advanced effects, but using the CPU of the system.
Moderatie-faq Wijzig weergave

Reacties (59)

Ik had altijd gedacht dat DX werd ontwikeld naar de mogelijkheden van de kaarten en niet andersom...
Het kan toch niet mogelijk zijn dat MS de eisen van de videokaart bepaalt ?

Hoe kan er dan een DX9 bestaan met amper een kaart die het volledig ondersteund :?
Microsoft ontwikkelt DirectX in samenwerking met de spelletjesindustrie, Ati en nVidia. DirectX geeft (net als OpenGL) de richting aan waar graphics heen gaan en is voor bijvoorbeeld Ati en nVidia een goed richtpunt voor hun chipontwerpen.
aanvulling op T.T.

om de zoveel tijd is er een grote meeting tussen microsoft, de belangrijke grafische-kaart makers (nVidia, ATI, matrox, SiS, en al de rest) en spelletjesfabrikanten.

daarin gaat bvb (puur fictief!)matrox zeggen: ik wil nieuwe versie van onze EMBM in DX9. waarna er gediscussieerd wordt, over als het nodig is, wat de andere graka makers denken, en natuurlijk wat de spelletjesmakers denken (is dit wel nodig??)
daarin werden bijvoorbeeld ook de pixel/vertex shader standaarden vastgelegd.

natuurlijk hebben de graka makers al de plannen van hun nieuwe chips, en proberen ze zoveel mogelijk technieken te laten standaardiseren in de volgende DX, en voor al de rest wordt er gewoon 'support' voorzien
Als DX9 naar de kaarten wordt ontwikkeld, zou er nooit een DX9 standaard kunnen zijn. Ati bouwt haar eigen standaard, nVidia haar eigen standaard, etc, etc. DX9 is ontworpen in samenwerking met nVidia, Ati, Microsoft en nog meer bedrijven.

Volgens mij is het zo dat daarna de GPU bakkers hun GPU's naar de DX9 specificaties bouwen. Lijkt me de beste weg. Ook m.b.t. concurrentie. Stel je voor dat nVidia straks een GPU heeft die sneller is dan de concurrentie, maar niet 100% DX9 compatible! Dan krijg je weer een extra keuze erbij, ga je voor DX9 of voor snelheid!? De kwestie m.b.t. geld daar gelaten dan! :Y)
Er staat een tegenstrijdigheid in het artikel:

"nVidia wil voor de NV31 en NV34 dezelfde core gebruiken als de GeForce FX"
(logisch, is goedkoper)

"de NV31 en NV34 geschikt te maken voor het lagere marktsegment moet er gesneden worden in sommige functies, terwijl andere behouden moeten worden"

Blijkbaar is de core dan toch niet hetzelfde. De DX9 functies zitten namelijk in de core. Kan iemand een DX9 functie verzinnen die niet in de core zou zitten maar op de PCB?

Vreemde zaak. Ik zie 3 mogelijkheden

1) Het gerucht is niet waar, de core's blijven hetzelfde en de kaarten zijn DX9 compliant

2) De core's blijven hetzelfde en OOK de GeforceFX is niet 100% DX9 compliant.

3) De core's blijven niet hetzelfde. En dat is weer een ongunstig teken voor de yields van de FX core's. Anders zouden ze toch niet aan de core hoeven rommelen voor de budget kaarten.
Ik zie een vierde mogelijkheid:

4) De core's zijn hetzelfde, maar bepaalde functies worden uitgeschakeld. Zo kunnen de chips goedkoper geproduceerd worden met goede yields en zijn ze voor verschillende prijzen te verkopen.

Is volgens mij vrij standaard. Zie de geruchten dat er op sommige pentium IV's lager dan de 3,06 GHz ook HyperThreading zit, maar dat het uitgeschakeld is.

Zie het als volgt: De functie zit wel op de core, maar hij wordt gewoon nooit aangeroepen.
Die vierde mogelijkheid lijkt me erg onwaarschijnlijk, en wel om de volgende redenen:

- Dat Hyperthreading in de P4 standaard uit stond had een goede reden: In veel applicaties was het gewoon trager als het aan stond. Het is pas sinds kort en alleen in windowsXP dat hyperthreading alleen nog maar gelijk of sneller presteert, maar in ieder geval niet meer langzamer. Het was dus zeer verstandig van Intel om tot dan toe HT niet aan te zetten. Als Intel het van het begin af aan goed werkend had gekregen was het wel eerder geactiveerd.

- Delen van een cpu uitschakelen en daarmee betere yields halen is iets dat eigenlijk alleen met cache op processoren goed gedaan kan worden. Vooral omdat de cache op een processor veel ruimte inneemt en als er een foutje in de productie zit er een redelijke grote kans hebt dat het in de cache zit. Je schakelt dan dat gedeelte van de cache uit en je houdt een werkende CPU over.

Helaas is dat bij een GPU veel moeilijker toe te passen.
Om dat te laten werken bij de NV31/NV34 zouden ze een DX9 functie moeten hebben die ten eerste niet teveel verkoop zal verliezen als die VPU's 'm niet hebben EN ook nog eens veel ruimte inneemt op de die.
Ik kan me zo niet een functie verzinnen die daaraan voldoet? Iemand anders wellicht?
Dat kunnen ze omdat die pipelines niet in de core zelf worden uitgeschakeld.

Vandaar dat het ook zo makkelijk is om softwarematig die pipelines te activeren. (of door middel van een draadje op de PCB)

Die russen hebben de core zelf echt niet aangepast hoor!
Waarom kan Ati dan een goedkopere Radeon 9500 uitbrengen met maar 4 pipelines waar alle andere R300 chips 8 pipelines hebben? Ook ati maakt maar 1 chip, waarbij ze bij de goedkope versie uiteindelijk dingen uitschakelen, die ze dus ook niet hoeven te testen, waardoor de chip op zich goedkoper te produceren is...

... met als gevolg dat de tweakers nu de verborgen 4 pipelines ondertussen weer zichtbaar hebben kunnen maken...

dus optie 4 lijkt mij hier juist een heel erg normaal gebeuren om een 'goedkopere' chip te maken.
Daar staat tegenover dat met de huidige kaarten zelfs alle functionaliteit van DirectX 8 niet eens uitgebuit kan worden.
Doodat nVidia de markt beheerste werd er goed voor nVidia hardware ontwikkeld en werden de meer Features die ATI had niet ondersteun.

Denk maar aan Gf4 ti das DX8.1 zonder PS1,4
8500 i s dus met PS1,4 en dat is een krachtigere versie dan 1.3

Dus dat hoeft niet voor nVidia een probleem te zijn aangezien alleen de features die mainstream zijn dus aanwezig zijn in bijde hardware goed ondersteund worden dus iets minder is niet zo'n ramp voor een grote speler in die markt.
Denk maar aan Gf4 ti das DX8.1 zonder PS1,4
Beter bekend als DX8.0 :)
Mhh... Ik denk dat de discussie hier verkeerd gevoerd wordt.

Imho moet je kijken naar prestaties ingame. DX9 hardwarematig supporten zorgt voor een boost in DX9 games. Die zijn er idd nu nog niet, maar dat komt echt wel. En dan ben je echt wel blij als je een DX9 compilant kaart hebt.

Ik hoop dat er goede benchmarkprogsels komen binnenkort om DX9 functies te benchen
http://www.tweakers.net/nieuws/25173 nog niet gezien dan?
DX9 3dmark komt eraan :)
Hier wordt denk ik compliant bedoelt? Als ze niet compatible zouden zijn heeft nvidia een HEEL groot probleem
Misschien dat bepaalde features nog door software opgevangen kunnen worden
daar koop je toch geen high-end kaart voor? |:(

ik zie het al voor me :
Nvidia Geforce FX
- DX9.0+ Compatible (*)

(*) Softwarematig, prestaties zijn CPU afhankelijk en door ons gepubliceerde specificaties/prestaties zijn geen garantie voor het uiteindelijke product
:Y)
even afgezien van het feit dat ik vind dat ik idd wel een punt heb ja :)


NV31en NV34 zijn toch "budget-chips"? daar gaan ze echt geen 600-700 euro voor vragen. Zeker niet gezien ze de Ti4600 moeten gaan vervangen.

maar dan nog, verwacht je als consument dat je, als je een kaart van de volgende generatie koopt, ook hardwarematige functionaliteit krijgt lijkt me...en daarnaast zou het gewoon een misser van nvidia zijn als ze reclameren met DX9.0+ (dat plusje dat doet 't em :) ) terwijl ze DX9.0 (zonder plusje) niet eens volledig ondersteunen.
Misschien moeten ze er dan een DirectX 8.1+ van maken.

Ik zou het niet erg vinden, als de belangrijkste functies er maar in zitten. Als enviroment bump mapping en de nieuwe shaders. De dingen die in de toekomst veel gebruikt zullen worden....Alleen hoe leg je dat uit aan de gemiddelde consument?

Ik vind toch dat als dit zo is nVidia er toch wel en rommeltje van maakt. De nv30 is al extreem qua koeling,vermogen en complexiteit (gelukkig ook qua prestatie). En nu is het dan misschien zo dat er in de DX9.0 specificaties moet worden gesneden om te zorgen dat de kaart niet te duur wordt.......Zo langzaamaan begin ik te twijfelen of nVidia er wel goed aan heeft gedaan om Ati zo ver achter te duwen. Ze zitten nu wel met een lastige kaart die later overtroeft wordt en nog steeds duur te produceren is...... Dan wordt het moeilijk om een mogelijke low- of mid-end (in de 200 euro klasse) kandidaat goed te verkopen. Mede vanwege de extreme koeling en gevraagd vermogen.
Ten eerste: het zij geruchten en die hoeven niet waar te zijn.
Ten tweede: als het waar is, wat dan nog? voorlopig heb je die voledige ondersteuning voor DX9 nog niet nodig (de komende 12 maanden) als je het belangrijk vind koop je een FX en dat weet NVIDIA ook.
Daar komt bij dat het proces om zo'n chip als de FX te bakken, niet makkelijk is.
Toen de eerste DX9 compliant kaart op de markt kwam zei iedereen: woot als je geen DX9compliance hebt dan is je kaartje zo weer verouderd en heb je er niks aan.

Nu is NVIDIA toevallig de ongelukkige en nu moeten we opeens niet meer zeuren en maakt het niet veel uit.

Welke van de twee klopt niet :P
K draai zelf met een radeon 9700 pro, en ik merk idd dat op dit moment dat ie zelfs met de huidige versie van dx9 en catalyst 3.0 drivers nog niet helemaal lekker draait met de spellen. Maar daar zal in de loop van dit jaar wel verandering in komuh :9~.
Je moet even kijken dat je de Catalyst 3a drivers hebt. In de eerste versie 3 zat een bugje waardoor je stuttering kreeg in OpenGL, dat is in de 3a versie opgelost.

Die vernieuwde versie is net iets meer dan een week oud.
klopt, ik had idd een oudere versie van catalyst 3.0, overal staat nog 3.0 aangegeven, vandaar. Bednkt vor d tip. kbenchmark unreal tournament 2003 even, paas zo wel even de resultaten. :*)
zo heb hier de resultaten,
specs van mn comp:
AMD Athlon XP 2400+
ASUS A7N8X moederbord (AGP8X, ATA 133, enz)
2x 256 MB DDR 375 (Corsair XMS), (dual channel opstelling)
Maxtor DiamondMax Plus 9 HDD (60 GB, ATA133)
Hercules 3d prophet 9700 pro
Onboard sound

instellingen in UT2003:
details staan allemaal op het hoogste wat mogelijk is, ook trilinear filtering staat aan.
resolutie: 1600x1200x32

benches:
Flyby: 105.418459
Botmatch: 60.647560

Zie niet echt een verschil met eerdere benches, maar dat zal in OpenGL games wel anders zijn.
Zo`n groot gemis hoeft dat volgens mij niet te zijn. En hoeveel spellen zijn er die volop gebruiken maken van DX9.0. Plus als je voor een goedkopere kaart kiest doe je altijd consessie`s........
Nou, het grootste probleem is natuurlijk dat grote concurrent ATi al tijden een hele serie DX9-compatibele kaarten op de markt heeft.
Als het verschil in snelheid en het verschil in prijs te klein is, zullen veel consumenten misschien zeggen "Nou, doe mij dan toch die DX9 maar, je weet maar nooit waar het goed voor is in de nabije toekomst".
Dus in dat geval kan het de bepalende factor worden.
Maar hoeveel consumenten zeggen zoiets? Wij tweakers wel maar de "gewone" consument gaat voor het goedkoopste en/of de kaart met de meeste naambekendheid. En meestal weten ze nog niet eens wat DirectX is...
Als het getalletje 8 op de ene doos staat, en het getalletje 9 op de andere, dan weten een hoop consumenten best wat ze nemen hoor :)

Sowieso denk ik dat mensen die losse videokaarten kopen, toch wel enigszins op de hoogte zijn van de stand van zaken.
(Hoe weten ze anders dat ze een nieuwe videokaart moeten hebben? En niet een nieuwe PC ofzo? :))
Maar ik zie op dozen van 3d kaarten nooit staan welke DirectX het ondersteunt. Bij de kaarten die ik heb gekocht.

En, besides, ik denk niet dat Nvidia erop gaat zetten dat het directX 9 niet ondersteunt.
Dat DX 9 gedoe verklaart natuurlijk waarom nVidia zo'n achterstand heeft opgebouwd bij ATI. Overgens snap ik maar niet dan die bedrijfen zo achter microsoft aan lopen. Je kun toch ook wel OpenGL integreren in de core. Straks zitten we met handen en voeten gebonden aan microsoft en is eerlijke concurrentie vrijwel uitgesloten.
Dat DX 9 gedoe verklaart natuurlijk waarom nVidia zo'n achterstand heeft opgebouwd bij ATI
Hoezo? nVidia en ATi zaten allebei aan tafel bij MS toen die standaard opgetekend werd.
ATi heeft gewoon z'n zaakjes de laatste tijd veel beter op orde dan nVidia. Sinds de Radeon 8500 hebben ze een aanzienlijke technische voorsprong op nVidia, en die hebben ze tot dusverre niet uit handen gegeven.
Daarom moeten de kaarten van nVidia nu ERG goed zijn om alsnog aansluiting te vinden, vandaar dat nVidia nogal eens wat dingetjes bijstelt in het ontwerp, wat ook weer extra vertraging oplevert.
Je kun toch ook wel OpenGL integreren in de core. Straks zitten we met handen en voeten gebonden aan microsoft en is eerlijke concurrentie vrijwel uitgesloten.
Volgens mij heb je het niet begrepen...
Ten eerste zijn 3d-features niet API-gebonden.
Als D3D een feature ondersteunt, wil dat nog niet zeggen dat je die feature dan niet in OpenGL kunt gebruiken, of omgekeerd.

Ten tweede lopen de fabrikanten niet achter Microsoft aan, maar loopt Microsoft met de fabrikanten mee...
Ze besluiten samen wat er in de API moet gaan komen, zodat toekomstige hardware altijd gegarandeerd is van API-ondersteuning.
En daarom is Direct3D zo goed. De nieuwe generatie hardware komt op de markt, en op hetzelfde moment komt er een nieuwe generatie van Direct3D uit, die op een hardware-onafhankelijke manier (dus concurrentie-vriendelijk, iedere kaart wordt goed ondersteund) toegang geeft tot de features van die hardware. Dus altijd prima support.

OpenGL loopt juist achter de fabrikanten aan. OpenGL specificaties worden meestal pas aangepast als de hardware al lang op de markt is.
Daarom heeft OpenGL de race met Direct3D al lang verloren.
OpenGL werkt juist oneerlijke concurrentie in de hand, omdat de API altijd achterloopt. Dus moeten de fabrikanten zelf uitbreidingen toevoegen, die niet standaard zijn, en dus niet op kaarten van de concurrent werken, hoewel deze ook best de features kan ondersteunen.
Het is nu al zover gekomen dat een hoop OpenGL software eigenlijk alleen maar goed loopt op nVidia-kaarten, omdat die kaarten nou eenmaal het meest gebruikt worden, dus dat de nVidia-extensies het meest gebruikt worden.

Ga nou niet bij voorbaat al zeuren over "MS is oneerlijke concurrentie"... Informeer jezelf eens, en je zult zien dat Direct3D een stuk beter is voor de concurrentie dan OpenGL.
MS doet ook een hoop goede dingen hoor, helaas worden die door de meeste mensen voor het gemak even over het hoofd gezien.
DirectX is het mooiste wat de PC in tijden is overkomen. Goede support voor ALLE hardware, niet alleen voor een bepaald merk of type (denk aan het GLIDE-monopolie destijds met Voodoo-kaarten, walgelijk, of in het DOS tijdperk, waar een SB-compatible kaart bijna verplicht was. En hoe moeilijk zou de overstap naar USB-game controllers geweest zijn zonder DirectX? Ik noem maar wat).

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True