Nvidia voegt DX12-ondersteuning toe aan GeForce GTX 400- en 500-videokaarten

Nvidia's nieuwste GeForce-driver blijkt DX12-ondersteuning te bevatten voor videokaarten op basis van de Fermi-architectuur. Het gaat om videokaarten in de GTX 400- en 500-series, die tussen 2010 en 2012 zijn verschenen.

Dat de oude GeForce-kaarten nu overweg kunnen met de api werd ontdekt door gebruikers van het Guru3D-forum. De ondersteuning is toegevoegd in driverversie 384.76, die vorige week donderdag is uitgebracht. Aanvankelijk beloofde Nvidia al in 2015 dat Fermi-kaarten ondersteuning voor de api zouden krijgen. Toen DX12 twee jaar geleden beschikbaar kwam, bleek ondersteuning voor de GeForce-kaarten op basis van de Fermi-architectuur echter niet te zijn meegenomen in de drivers.

Tot nu toe konden de GeForce GTX 400- en 500-kaarten niet overweg met DX12. Nu dat wel het geval is, kunnen ook games gespeeld worden die niet met oudere api's overweg kunnen. Onder andere Forza Horizon 3 werkt alleen met DirectX 12.

De Fermi-architectuur werd in april 2010 geïntroduceerd en is voor het eerst gebruikt in de GTX 480. Aan het eind van datzelfde jaar kwam Nvidia met de snellere GTX 580, op basis van dezelfde architectuur. Alle kaarten in de GeForce GTX 400- en 500-series, die tussen 2010 en 2012 verschenen, zijn gebaseerd op Fermi. Kaarten uit de GTX 600-serie en nieuwer, hadden al DX12-ondersteuning.

Nvidia GeForce GTX 480

Door Julian Huijbregts

Nieuwsredacteur

03-07-2017 • 11:53

95

Reacties (95)

95
92
47
12
0
27
Wijzig sortering
Dit is betere ondersteuning dan dat AMD geeft. Bij AMD begint DirectX 12 ondersteuning vanaf de HD 7000 series, die begin 2012 uitkwam. De HD 6000 series (uit 2010) heeft geen DirectX 12 ondersteuning.

[Reactie gewijzigd door The Zep Man op 26 juli 2024 13:46]

AMD heeft al meerdere jaren DX12 ondersteuning in kaarten vanaf de HD 7000 serie ingebouwd. Gewoon vanaf het begin. Nu pas ondersteuning voor DX12 door nVidia is nogal erg laat. Weinig zitten hier nog op te wachten, omdat de kaarten nu ondertussen wel vervangen zijn. De HD 6000 serie kan dan wel geen DX12, maar daar zit ook niemand op te wachten, heeft weinig toegevoegde waarde.

Is overigens ook maar de vraag hoe goed en nuttig de implementatie van DX12 is bij Fermi. Kan alsnog gewoon zijn dat een aantal DX12 games niet werken omdat functies die de game gebruikt niet worden ondersteund door Fermi.

[Reactie gewijzigd door -The_Mask- op 26 juli 2024 13:46]

Volgens mij ging het er vooral om dat je de Fermi kaartjes in W10 kan blijven gebruiken voor alle applicaties en dat ze ook onder WDDM 2.2 vallen; dus het gaat voornamelijk om compatibility, en niet eens primair om gaming.

[Reactie gewijzigd door Vayra op 26 juli 2024 13:46]

Als ze willen voldoen aan de WDDM 2.2 spec, kan dat alsnog niet (bijv. geen HDR10) en DX12 is niet eens mandatory.
Ik neem aan dat vrijwel alle applicaties tot op zekere hoogte gewoon backwards compatible zijn via DX9 (zoals al het geval is sinds Vista) of software rendering.
Hoeveel baat Fermi bij DX12 heeft is ook maar de vraag. Zoals op de GTX 900 series al te zien was, als de applicatie gebruik maakt van async compute, been je beter af met een oudere DX versie.
Ik kan bevestigen dat inderdaad niet alles goed werkt met deze nieuwe driver bijvoorbeeld Forza Motorsport 6 apex werkt compleet niet na de bypass van de "GPU nog supported' error. Wel kan ik deze game downloaden wat voorheen niet kon vanwege het ontbreken van DX12 oo mijn GTX 670M (Fermi based helaas)
Ben benieuwd of de game hier beter draait.
Heb twee GTX760's hier, GK208 chip, en dus de Kepler Architectuur.

The GeForce 700 Series family is mainly based on a refresh of the Kepler microarchitecture, used in the previous GeForce 600 Series, but also includes cards based on the previous Fermi and later Maxwell architectures.
Bron

[Reactie gewijzigd door SSDtje op 26 juli 2024 13:46]

Er lijken inderdaad niet veel GTX 4xx kaarten meer in gebruik te zijn als ik de Steam Survey mag geloven, uit de 5 serie zijn er nog wel wat kaarten in de lijst te vinden.

Of het game technisch nuttig is zal echt per game afhangen. Ik kan me zo voorstellen dat Forza gewoon meer rekenkracht nodig heeft dan waarover deze oude generaties beschikken (maar heb nog ergens een GTX 460 liggen dus wie weet ga ik h et eens proberen).

Toch denk ik dat dit wel een goede zet is. De DX12 omarming loopt immers vreselijk achter op de hoge verwachtingen die iedereen er van had. Legacy support maakt het weer net even makkelijker voor ontwikkelaars om DX12 te kiezen ipv DX11.
Is overigens ook maar de vraag hoe goed en nuttig de implementatie van DX12 is bij Fermi.
Het staat je vrij om dat te testen / meten. :)
De Fermi 400 en 500 series waren kaarten welke concurrenten waren van de HD5000 (die noemde je niet) en HD6000 reeks, en welke ondersteuning zien deze kaarten van DirectX 12? Niets nada noppes.

Zoals Vayra al aangeeft gaat het hier om compatibiliteit en lange termijn ondersteuning, AMD gooit blijkbaar liever wat vroeger de handdoek in de ring als het gaat om lange termijn ondersteuning, liever laat dan nooit.
Je mist volledig het punt. DX12 ondersteuning is nodig om Windows 10 te draaien. Dat je er goed of niet goed mee kan gamen is niet belangrijk.
Natuurlijk niet, wij hebben hier meerdere PC's staan met Windows 10 die geen DX12 ondersteuning hebben. Ik typ dit zelf van een PC met Windows 10 zonder DX12 ondersteuning. Ik kan je vertellen dat ik het ook nog nooit nodig heb gehad.
Van AMD verwachten dat ze 2010 GPU's een nieuwe API mogelijkheid geven met een driver update vind ik aardig apart. Zeker met het budget dat AMD Radeon algemeen heeft. De AMD drivers zijn al top als je kijkt naar de performance gain van de 480 toen de ReLive driver uitkwam. Mijn beste gok is dat AMD zo gefocust is daarop, dat backward support op een laag pitje komt. Ook van Nvidia vind ik dit apart. Leuk dat ze 7 jaar oude hardware DX12 support geven hoor, maar Nvidia's kaarten hebben doorgaans geen drol aan DX12... Ik zou liever hebben dat ze de manuren en het budget steken in het diehard optimaliseren van de WHQL driver voor de 6-7-9-10 series GPU's. Die worden daadwerkelijk nog gebruikt. De marketshare van 4 en 5 loopt heel erg hard terug.
Dat Nvidia kaarten doorgaans geen drol hebben aan DX12 is niet waar.

Er was een specifieke feature van DX12 waarbij AMD kaarten een enorme performance boost kregen tegenover DX11 en Nvidia kaarten nauwelijks tot niet.
Het gaat in dit geval om de Async compute feauture waarbij AMD's zijn architectuur hier beter tot zijn recht komt, dan de architectuur van Nvidia. Dat komt omdat AMD kaarten daadwerkelijk parallel kunnen calculeren en Nvidia vast zit aan hun single pipeline waar alles doorheen moet. De reden dat AMD kaarten bijvoorbeeld veel beter crypto kunnen minen dan NVIDIA kaarten. Desalnietemin is Async compute maar een klein onderdeel van DX12 en een feature welke alleen in bepaalde situaties gebruikt wordt. De meeste games calculeren nog altijd chronologisch en daarbij zijn er ook een hele hoop feautures in DX12 die waar zowel AMD als NVIDIA kaarten baat bij hebben.

Dus nee NVidia kaarten hebben doorgaans ook heel veel baat bij DX12.
Dan mag je mij een game laten zien waar DX11 zeer drastisch onderdoet voor DX12 met Nvidia hardware. Niemand maakt gebruik van die features of doet een goede implementatie. DX12 heeft tot nog toe alleen met wat multicore processors of low end processors echt invloed gehad naar wat ik gezien heb.
Drastisch nee...
Maar Sniper Elite laat wel prestatiewinst zien in DX12.
De grootste prestatiewinst wordt in DX12 gezien bij lagere resoluties.
Spellen die echter meer CPU-bound zijn zouden ook bij hogere resoluties nog prestatiewinst kunnen opleveren.
Het blijft ook vooral een kwestie van goed programmeren natuurlijk, en naar het schijnt is dat een stuk moeilijker met Low_level API's.
Ja, dat is inderdaad een stuk moeilijker bij Low Level API's. De developer moet namelijk veel meer zelf doen. DX12 heeft een stuk minder ingebouwde functionaliteit dan DX11. Er zitten een boel verbeteringen aan, maar het pakket is een stuk minder compleet. De game developer moet een stuk meer onderdelen zelf coden. Dat is waar Low Level voor staat.
DX12 is een extensie op de oude code base. Als je DX12 gebruikt, wordt je al geacht oude methodes ook gewoon te gebruiken. Maar DX12 heeft gewoon veel meer functies (extra) die veel minder doen op zichzelf en direct de hardware kunnen aanroepen (vandaar low-level). Stappen die anders zouden worden gedaan door de driver, kun je zo simpelweg omzeilen of korter maken.
Maar als je DX12 gebruikt kun je op ongeveer dezelfde manier als DX11 best high level programmeren met alle gevolgen van dien.
Om baat te krijgen bij het gebruik van DX12, moet je dus wel zelf extra code schrijven, en de hele render pipeline aanpassen.
Het gaat niet enkel alleen om prestatie winsten, maar ook om nieuwe mogelijkheden die DX12 bied. Veel van deze nieuwe mogelijkheden heb je nog niet gezien, omdat meeste games die tot nu toe uitkomen DX11 ontwikkeld zijn. Zo ver ik weet zijn de echte DX12 only titels op 1 hand te tellen en dan nog is het de vraag of ze wel daadwerkelijk de nieuwe features van DX12 gebruiken.

Het hele verhaal dat AMD meer baat heeft bij DX12 dan Nvidia kwam voort uit de game Ashes of the singularity, welke gebruikt maakt van Async computing om de 1000den units op het scherm te toveren. Daarbij lieten AMD kaarten een enorme prestatie winst zien, terwijl NVidia kaarten na genoeg gelijk bleven in performance.
Alleen vergis je niet de AMD kaarten haalde het ondanks de enorme toename in performance nog steeds niet bij de performance van Nvidia kaarten.

Dus ja het is nog even wachten om de pracht en praal van DX12 echt te zien. Het is alleen de vraag of we dat ooit echt gaan zien, gezien Vulcan hard aan de weg aan het timmeren is.
"Alleen vergis je niet de AMD kaarten haalde het ondanks de enorme toename in performance nog steeds niet bij de performance van Nvidia kaarten. "
Dat is ietwat misleidend. In dezelfde prijsklasse deden de AMD kaarten het veel beter (en dat doen ze nog steeds), zelfs vergeleken met de nieuwe Pascal kaarten. Dat Nvidia gewoon duurdere, higher end kaarten uitbracht is irrelevant.

DX12 zelf brengt erg weinig visuele effecten mee die een game maar net nodig heeft. Er zijn genoeg games zonder tessellation, bloom, HDR etc. waarvan de DX versie dat wel gewoon ondersteunt, en dat doen ze niet alleen omdat ze een port naar een ouder API hebben. Toen DX10 even uit was kwam STALKER alsnog gewoon met een DX9 versie waar een stel visuele effecten gewoon in waren disabled, niks beperkt programmeurs dat te doen met DX12.

Vulkan (Het is met een K) zal op Windows waarschijnlijk niet zo groot worden als DX12 vanwege XBox. De drivers van DX12 hebben ook minder kinderziektes door het eerder uitkomen en al de games die ermee zijn uitgekomen (wat er significant meer zijn dan van Vulkan).
Weer niet waar. Lees je zelf eens in alvorens hier wat te roepen. Forza Horizon 3 is een voorbeeld van een game die enkel draait op DX12. Als backwards compatibility een optie was zou dat er wel in gezeten hebben toch?
Die backwards compatibility werkt andersom. Een DX12 driver werkt ook voor games die DX9 verwachten. Logisch: DX12 bevat nieuwe features, plus de bestaande features van DX11. Kleine moeite om dan niet alleen de DX11 features te ondersteunen, maar ook de DX11 API.

Een game die echter DX-n features gebruikt heeft echter altijd een driver nodig warin die features zitten, dus DX >=n. De eerste game die DX13 features gebruikt zal niet meer werken op een DX12 driver.
Die 6-7-9-10 series WHQL driver wordt ook al sinds Kepler geoptimaliseerd en we hebben vandaag de dag ook in essentie nog steeds met een doorontwikkelde Kepler arch te maken.

Desondanks; er zijn een paar kaarten met Fermi binnen de Kepler refresh release gevallen, en de Kepler refresh bevatte ook de eerste versie van Maxwell met de 750ti.

Het is dus allemaal niet heel erg zwart wit '6 of 7 serie', het loopt door elkaar heen. Dat is ook de reden dat Nvidia vrij snel na het voltooien van de Maxwell stack klaar was met de drivers voor die kaarten en 'vroeg' aankondigde dat er niet meer echt optimalisatie voor Kepler aankwam.

[Reactie gewijzigd door Vayra op 26 juli 2024 13:46]

Dat kan natuurlijk zijn omdat Terrascale gewoon geen DX12 ondersteund en alles vanaf de 7700 series was gebaseerd op GCN en daar onder niet. Ik ken de precieze details niet meer daar lijkt duidelijk de scheiding te liggen.
Hoe zit het dan met Vulkan-ondersteuning voor deze kaarten?
Anoniem: 300525 @Armada6513 juli 2017 12:08
Die is er (wellicht vooralsnog) niet;

https://developer.nvidia.com/vulkan-driver
Dat is niet helemaal waar, er staat dat er geen plannen zijn maar dat het technisch wel mogelijk is:
We are currently not planning to support for 4-5 (Fermi) class GPUs. It is not an engineering issue, it’s an install base issue.
Gezien het artikel al meer dan een jaar oud is brengt deze nieuwe DX12-ondersteuning wellicht verandering in deze afweging.
De install base is alleen maar geslonken, dus droom verder. Vulkan ondersteuning voor fermi zal er noooooit komen. Deze dx12 ondersteuning was al eerder beloofd dus MOEST er komen. Over vulkan ondersteuning zijn ze gewoon vanaf het begin heel transparant geweest.
Nope, net even gegoogled. Ze hebben het niet en krijgen het ook niet
Ik had begrepen dat er in DX verschillende componenten waren en dat Nvidia minder aantal ondersteund t.o.v. AMD. Is er bekend welke onderdelen nu ondersteuning in is gebouwd?
Die ondersteuning gaat nooit komen, in ieder geval niet in de oude generaties kaarten. Het gaat om hardware die nodig is voor een bepaalde feature die kunnen ze er niet bij bouwen.
Dus dat verschil zal blijven, GCN zal dus altijd meer features houden Fermi (4xx/5xx), Kepler (6xx/7xx) of Maxwell (1 750Ti, 2 9xx).
https://en.wikipedia.org/wiki/Feature_levels_in_Direct3D

Wellicht handig om erbij te vermelden:
HD7xxx/2xx GCN1
R9 290/390 GCN2
R9 285/380/Fury GCN3
RX 4xx/5xx GCN4
Vega GCN5

offtopic:
Disclaimer: het blijf wiki dus hecht er niet te veel waarde aan :p. Niet alles lijkt te kloppen, resource binding van Maxwell is bijv. maar tier 2 en ik kan asynchronous compute niet direct vinden, geen idee of dat in dat lijstje hoort.

[Reactie gewijzigd door Sp3ci3s8472 op 26 juli 2024 13:46]

Dank. Iets met klok en lepel :Y)
Dank. Iets met klok en lepel :Y)
klepel*

[Reactie gewijzigd door aval0ne op 26 juli 2024 13:46]

De 400-serie was Nvidia's eerste met hardwarematige DirectX11 ondersteuning. Mooi om te zien dat er inmiddels zelfs DirectX12 support is, ze verdienen hier geen geld aan. Hoewel Nvidia vaak bekritiseerd wordt om relatief snel hun support voor oudere generaties laten varen, vind ik dit een opvallende meevaller. (Nvidia bracht begin 2010 hun 400-serie al uit)
Het is leuk, maar deze feature hebben ze al lang op de plank liggen.
In 2014 vertelde Nvdia al om DX12 te gaan ondersteunen: http://www.guru3d.com/new...ovement-for-gaming,7.html
Later in 2015: http://nvidia.custhelp.co...gpus-will-support-dx12%3F
En ze zeggen ook dat Fermi het nog in 2015 zou krijgen: http://www.geforce.com/wh...force-gtx-driver-released
Toen nog in 2016: https://www.reddit.com/r/...s_fermi_has_dx12_already/
Maar ondertussen was Fermi EOL: http://www.bitsandchips.i...-time-wasted-fermi-is-eol

Die drivers waren hoogstwaarschijnlijk al lang af, maar ze hebben dit puur terug gehouden om mensen te pushen naar een nieuwere generatie en ze hebben er dus wel degelijk geld aan verdiend door dit zo lang achter te houden. Dat ze het nu alsnog uitbrengen is omdat ze natuurlijk wel hun belofte moeten nakomen.

Je mag het een meevaller noemen, maar eigenlijk verbloemt dit gedrag wat als consument niet zouden moeten accepteren. :(
Eerlijk gezegd ben ik nog geen DX12 only titel tegen gekomen waarvoor ik mijn gpu zou upgraden... Er zijn nu een stuk of 20 games met DX12 support, echter daarbij voegt DX12 vaak niets toe qua graphics en werkt de DX11 modus ook prima.
Heb een 1070 en 1060 daar waar kon dx12 getest (bf1) maar dx11 is gewoon sneller. Verschil in beeld zag ik niet, is er vast wel.
Die is er niet. DX12 bied eigenlijk geen nieuwe features op het gebied van grafische effecten. Het was voornamelijk gericht om developers meer controle te geven over het aansturen van de gfx drivers (ala wat gebeurd op consoles, https://en.wikipedia.org/wiki/DirectX#DirectX_12). Daarbij zijn er wel een paar nieuwe technieken beschikbaar gekomen waardoor er snelheidswinst gemaakt kan worden bij bepaalde processen (voornamelijk de afhandeling van draw calls).

Het grootste effect in snelheid zie je principe voor systemen met een relatief langzame CPU. Daarnaast kunnen er ook (kleine) effect op de performance van videokaarten zelf. Zo zijn er bepaalde features waar AMD wat sterker in is (die hebben juist hun GPU ontwikkeld om hier gebruik van te kunnen maken) waardoor die nog wat extra winst behalen. Nvidia kaarten hebben vaak geen winst (want die maken hier eigenlijk geen gebruik van).

Het advies is dus eigenlijk om even te kijken wat het lekkerst (vloeiendst/hoogste fps) draait voor jou systeem voor elk spel. Dit geldt zelfs voor AMD processors, want de implementatie van directx12 is/was bij sommige spellen namelijk gewoon niet geweldig.
Dank! Kan helaas geen punten toekennen in een eigen antwoord, anders was het +3 geweest😉
Waar blijf ondersteuning voor de 600 series dan?
En de 700 serie.
Of werken de 600 & 700 serie hier inmiddels al mee ?...
De 700 serie kan in elk geval wel met de Vulkan API overweg namelijk.
Of de 600 serie dit laatst genoemde ook al ondersteunt, weet ik zo niet.

[Reactie gewijzigd door SSDtje op 26 juli 2024 13:46]

Met versie 384.76 krijgen de 400/500/600 en 700 serie ondersteuning voor Dx12 blijkbaar.
Top duidelijk, thx voor het melden.
Ikzelf zat nog op versie 382.53, en die is inmiddels dan ook vervangen door 384.76.
Ik kijk zelf vaak ~één keer per maand even of er alweer een update is.

Off-Topic
Ik moet zeggen dat ikzelf nog best wel stond te kijken toen ik DOOM op de Vulkan API liet draaien op mijn GTX-760 met zijn kleine beetje 2Gb aan VRam, de game liep netjes op een steady 60fps.
En dat is zeker niet verkeerd voor een al weer wat oudere gfx kaart.
En had SLi toen nog aanstaan, om er later achter te komen dat de Vulkan API nog geen multi-GPU ondersteunt.
En het dus blijkbaar allemaal ook nog eens door één kaart werd gedaan.
Ikzelf zie dan ook meer in Vulkan API dan in DirectX.

[Reactie gewijzigd door SSDtje op 26 juli 2024 13:46]

Ligt niet zozeer aan vulkan maar aan de uitstekende engine.
Jij en duizenden andere gamers zien meer in de Vulkan API dan in DirectX. Ik hoop echt dat deze API meer geïmplementeerd gaat worden.
De CryEngine 5.4 moet eind deze maand ondersteuning voor krijgen.
Dus het beginnen er al langzaam meer te worden.
Althans als het artikel klopt natuurlijk.
Maar aangezien het een artikel van Tweakers zelf betreft, zit dat wel goed denk ik.
:)
Allemaal individueel confirmed ook nog eens.
En ik word weer gedownmod door moderators die een eenvoudige opmerking niet begrijpen. Altijd moet je hier alles tot de laatste byte uitleggen.

Er worden zo'n 40 tot 50 miljoen discrete videokaarten per jaar verkocht door nVidia en AMD. Aan gamers. (Non-gamers kopen geen video-kaarten meer). Wat een paar duizend gamers subjectief leuker vinden, een roze of een lila video-kaart, daar gaan AMD en nVidia niet van wakker liggen. Ik vind youridv1's opmerking dan ook niet echt veel toevoegen.
Ik vind van wel, hij zegt duidelijk wat de meeste willen, en dat is zo veel mogelijk fps met zo hoog mogelijk in game settings, en DX11/12 is niet berpaald snel te noemen, de Vulkan API werkt eenmaal beter dan DX11/12.
Ik vind van niet, kan meer liggen aan software enginering skills om engine te ontwikkelen wat goed bij moderne hardware met toegankelijke en efficiente API. Dat vergt hoger niveau kwa kennis onder devs. Dat kan dus ook met DX12.
Het gaat er denk ik eerder om wat de developers leuker vinden, die hebben enorm veel meer baat bij multi-platform ondersteuning welke Vulkan biedt.
Dat is vanwege het aantal klanten die ze kunnen aanspreken, dat wordt nog groter.

En dan hebben we tenminste minder gezeik met Microsoft die enkel hun nieuwe OS door de strot kan drukken door DirectX artificieel te limiteren, more fun for all.

[Reactie gewijzigd door CriticalHit_NL op 26 juli 2024 13:46]

Waarschijnlijk bedoel je één een bit, aangezien daarna pas een byte komt, 8 bit maakt één byte namelijk.
En twee, met de vingers naar een ander wijzen is wel erg makkelijk.
Plus heeft @youridv1 het er over dat veel gamers liever de Vulkan API geïmplementeerd zien in meer games.
En laat DirectX (welke versie, doet er niet toe) nou ook een API zijn, alleen dan eentje die net wat anders werkt.
Dus @youridv1 voegt wel degelijk wat toe.
Aangezien hij of zij het dus keurig over API's heeft, waar dit artikel ook over gaat, alleen dus een andere, genaamd Vulkan.

[Reactie gewijzigd door SSDtje op 26 juli 2024 13:46]

Heeft de 9xx het al?
Die was bij het uitkomen van dx12 al ondersteund..
Nee de 600 en 700 serie hadden al ondersteuning voor Dx12, als je goed gelezen had, alleen de Geforce GTX 4** en 5** hadden dat nog niet, maar nu wel met de nieuwste driver.
Kaarten uit de GTX 600-serie en nieuwer, hadden al DX12-ondersteuning.
...dat is later pas toegevoegd aan het artikel.
ok, maar iedereen met een Game PC weet toch of hun video kaart DX12 kan draaien of niet?
Ik heb zelf een GTX 650 met 1GB GDDR5 (helaas), en ik weet ook dat mijn videokaart de nieuwste games na 2014 niet meer op hoge framerate en volledig resolutie kan draaien, toch wordt er gek genoeg Dx12 ondersteuning toegevoegd terwijl mijn videokaart dit nooit gaat trekken.
Ja maar omdat de toen high end Geforce GTX 680 het kan, kan ook (vaak) automatisch de 650 het van de zelfde serie, en daar is niks raars aan.

Maar zelfs een Geforce GTX 680 heeft nu veel moeite om spellen op 40fps te draaien op 1080P en High/VeryHigh, een Geforce GTX 960 staat ongeveer gelijk aan de snelheid van een Geforce GTX 680 (en weet daar alles van af omdat ik ze alle twee gehad heb), en zie je dat zelfs de goedkope Geforce GTX 1050 Ti vaak een stuk sneller is dan de Geforce GTX 960.

http://www.guru3d.com/art...0_ti_kalmx_review,13.html
Oh nvm, thanks. Werd in het artikel niet benoemd.
Voor de duidelijkheid nog even toegevoegd :)
Met DX12 ziet het er allemaal wel mooi uit, maar zelfs met een gtx1080ti en een i7-core 7700k krijg ik het niet helemaal strak draaiend.

Ook als ik de settings naar beneden draai blijft het een beetje buggy.
In tegenstelling tot eerdere DX versies wordt een game er met DX12 NIET mooier op. Dx12 zou in theorie door efficientere code beter moeten presteren op PC's met een mindere cpu. Het ontzien van de cpu en dus de belastbaarheid van de cpu werkt in veel gevallen niet beter, zeker niet op een 7700k&1080. Dx11 all the way
.oisyn Moderator Devschuur® @millman3 juli 2017 13:16
In tegenstelling tot eerdere DX versies wordt een game er met DX12 NIET mooier op
Waarom zou dat met eerdere DX versies wel het geval zijn, dan? Of iets mooi wordt hangt nog altijd af van de game zelf. Nieuwe features zorgen er misschien voor dat sommige technieken efficienter uitgevoerd kunnen worden, maar dat impliceert niet meteen dat iets mooier wordt. Hetzelfde kun je ook zeggen bij DX12: minder draw call overhead kan resulteren in meer draw calls per frame en uiteindelijk een mooier/levendiger resultaat.
De mogelijkheden tussen DX9 en DX10/11 waren zo'n groot verschil dat de ontwikkelaar bij DX10/11 er voor koos meer grafische pracht toe te passen tov DX9. Dat is nu pertinent niet het geval. Bij DX12 gaat het over de Drawcall overhead op de cpu (althans, dat is waar men zich nu op focust).

DX10+DX11 verbeteringen tegenover DX9"

* Fully programable pipelines
* New state object model
* SM 4.0
* Geometry Shaders
* Texture Arrays
* Predicated Rendering
* Insatancing 2.0

DX11

* Tesselation
* Multithreaded Rendering
* Compute Shaders

Natuurlijk is alleen Tesselation al iets wat direct een grafische toevoeging is, dus "mooier", de rest van de DX10/11 toeoegingen zijn er vooral op gespitst meer en makkelijker effecten toe te voegen.
Daarnaast was het de bedoeling het aantal Drawalls toen al te verhogen. DX12 heeft het over het algemeen over de overhead.
.oisyn Moderator Devschuur® @millman3 juli 2017 15:55
(en ook @Rin)
Volgens mij ontgaat het punt je een beetje. Wat ik zei:
Nieuwe features zorgen er misschien voor dat sommige technieken efficienter uitgevoerd kunnen worden, maar dat impliceert niet meteen dat iets mooier wordt
Natuurlijk hebben we grote veranderingen gezien in de API wat betreft GPU features, vooral bij DX8 en 10. Maar DirectX bepaalt niet hoe mooi iets wordt, de game doet dat. En de game doet dat alleen als de target hardware er een beetje mee om kan gaan. Nieuwe features bieden zeker nieuwe mogelijkheden. Maar minder overhead op de CPU doet dat net zo goed.
[...]

Waarom zou dat met eerdere DX versies wel het geval zijn, dan? Of iets mooi wordt hangt nog altijd af van de game zelf. Nieuwe features zorgen er misschien voor dat sommige technieken efficienter uitgevoerd kunnen worden, maar dat impliceert niet meteen dat iets mooier wordt. Hetzelfde kun je ook zeggen bij DX12: minder draw call overhead kan resulteren in meer draw calls per frame en uiteindelijk een mooier/levendiger resultaat.
Traditioneel gezien zaten er altijd technieken in de nieuwe DX versies waardoor games mooier konden worden. Met name in het DX9/ 10(11) tijdperk waren er aardig wat games die op de nieuwere DX gebruik maakten van de nieuwe mogelijkheden (denk aan soft shaders). Zo even uit mijn hoofd had je destijds in ieder geval World in Conflict, Far cry 2, Crysis en Company of Heroes waarbij er een visueel verschil optrad. (Bij FC2 een performance boost).

World in Conflict - DirectX 10 Features

De laatste DX12 is wat dat betreft een beetje een vreemde eend in de bijt want juist het 'bare metal' concept past niet echt bij de historie van DirectX. Wat er nu in zit werkt zo ver ik weet allemaal indirect; efficiënter, dus uiteindelijk kan het mooier, maar hoe dat laten ze aan de developers over.

Dat ging vroeger anders, zie bijvoorbeeld Nvidia die hier bijvoorbeeld laat zien hoe je 'fur' (vacht) met DX10 maakt: http://developer.download...0-effects-siggraph-06.pdf
DirectX10 offers new functionality that enables the GPU to run algorithms that used to only run on the CPU
Marching Cubes

Increased flexibility allows for easier and more efficient implementation for other applications like GPGPU
Cloth
Fins generation
Dat was veel meer 'hands-on'. Wellicht is dat veroorzaakt door de omarming van Gameworks (methode om makkelijk effecten te implementeren) en de dreiging van Mantle (schreeuw naar efficientie). De rol van DX lijkt in ieder geval te veranderen. Het is even afwachten wat DX13 gaat brengen om daar zeker van te zijn.

[Reactie gewijzigd door sdk1985 op 26 juli 2024 13:46]

In eerdere dx versies werden ondersteuning voor hbao, programmable shaders etc toegevoegd dat games inderdaad mooier maakte.
Implementatie bepaalt ook een hoop. Als een game engine of gewoon de game overall shite is wat betreft coding dan gaat DX12 daar niet magisch een eind aan maken. Ook met DX12 moet de game zelf goed in elkaar steken en ook goed aansluiten op de API. Vulkan all the way imo.
.oisyn Moderator Devschuur® @youridv13 juli 2017 13:11
Vulkan all the way imo
Die opmerking slaat echt kant noch wal in de context van je reactie. Precies hetzelfde verhaaltje gaat namelijk op voor Vulkan.
Geldt ook voor Vulkan inderdaad, ik zeg niet dat Vulkan een of andere magische oplossing is. Vulkan is gewoon een open source versie van DX12 (heel erg simpel verwoord) die verdomde goed kan werken. Dat is, dacht ik, goedkoper voor de developer aangezien er geen prijs aan het gebruiken van Vulkan zit, zoals bij DX11 en 12.
.oisyn Moderator Devschuur® @youridv13 juli 2017 13:23
Dat is, dacht ik, goedkoper voor de developer aangezien er geen prijs aan het gebruiken van Vulkan zit, zoals bij DX11 en 12.
Die volg ik niet helemaal. Voor DirectX hoef je niet te betalen. Je betaalt indirect natuurlijk wel voor een Windows machine, maar dat hou je toch als je je game ook voor Windows wilt releasen (en zo niet dan is de keuze tussen DirectX en Vulkan natuurlijk al helemaal niet relevant)
De developer betaalt een prijs aan Microsoft voor het implementeren van de DX API in zijn game, naar mijn weten. Beetje hetzelfde geval als het betalen van een prijs aan de patenthouder van HDMI voor het zetten van een HDMI poort op je videokaart, wat AMD en Nvidia moeten doen.
.oisyn Moderator Devschuur® @youridv13 juli 2017 13:26
De developer betaalt een prijs aan Microsoft voor het implementeren van de DX API in zijn game, naar mijn weten
Ik zeg net dat dat dus niet waar is :). Je hoeft helemaal niets te betalen voor het mogen publiceren van Windows applicaties.

[Reactie gewijzigd door .oisyn op 26 juli 2024 13:46]

even gegoogled, naja oke dan. Apart, zeker voor een bedrijf als microsoft dat torenhoge prijskaartjes hangt aan een doodsimpel office pakket en gigantische premiums vraagt voor dat iMac achtige geval dat ze de Surface Studio noemen.
.oisyn Moderator Devschuur® @youridv13 juli 2017 13:30
Helemaal niet apart, het is een zeer goed businessmodel. Ze verdienen op software, maar ze houden hun platform zo toegankelijk mogelijk houden voor 3rd party ontwikkelaars zodat er heel veel 3rd party software wordt ontwikkeld en meer mensen dus hun OS willen gebruiken, waardoor ze ook weer meer software als Office kunnen verkopen.

Dat ze nu ook hardware verkopen komt volgens mij meer uit frustratie omdat fabrikanten niet in dat premium deel van de markt springen, terwijl dat wel nodig is om te kunnen competen met de Mac. Dus dan doen ze dat zelf maar.

[Reactie gewijzigd door .oisyn op 26 juli 2024 13:46]

even gegoogled, naja oke dan. Apart, zeker voor een bedrijf als microsoft dat torenhoge prijskaartjes hangt aan een doodsimpel office pakket en gigantische premiums vraagt voor dat iMac achtige geval dat ze de Surface Studio noemen.
Heel Windows is gebaseerd op de filosofie van een open systeem. Min of meer het tegenovergestelde van Apple/Mac. Zie ook Steve Jobs and Bill Gates Face Off

[Reactie gewijzigd door sdk1985 op 26 juli 2024 13:46]

Dat is niet waar. Men kan zonder extra kosten directx gebruiken in hun applicaties. Het is gewoon een API die men vrij mag consumeren. En dat is altijd al zo geweest.
Ligt het dan niet aan de game? Want met een gtx960m en een i7-4610m kan ik, zonder enige hapering, vloeiend Hitman spelen.
En dan te bedenken dat ik vorig jaar nog mijn twee gts 450's heb vervangen door een gtx 770.

Daar had ik echter een andere reden voor dan dx12. De 450 kan niet hardware video coderen voor het streamen van steam spellen naar mijn laptop.
@jannickdeb

Ik speel alleen BF1 misschien ligt daaraan :) ..... wat me vooral opvalt is dat met DX12 het beeld er heel helder uitziet. Nogmaals ik heb alleen ervaring met BF1 op DX12.
Er is geen verschil qua beeld in dx11 en dx12 in bf1.
Dan doe je iets niet goed,, er is wel degelijk verschil in beeld :P

Of je hebt een bril nodig :)
Ehhhh.. nee, er is 0 verschil tussen bf1 dx11 en dx12 in grafische pracht. Ik zou niet weten hoe je erbij komt.. maar misschien heb jij wel een speciale bril op? Iets met roze wellicht :P

Tot nu toe is dx12 alleen in games geimplementeerd om de drawcall overhead te verlagen en t aantal theorethisch mogelijke drawcalls te verhogen. Daarnaast is er dx12 mGPU geintroduceerd. Het kunnen combineren van verschillende GPU's zoals je zelf kunt testen met bijvoorbeeld Rise of the Tombraider.

*ik zeg niet dat er meer mogelijk is met dx12, integendeel, het 'bare metal' concept geeft veel mogelijkheden, echter is er van ontwikkelaars kant veel meer nodig dan een 'optimalisatieslag'. Als Dx12/Vulkan rijpt, wie weet. Maar ik zie nu nog te weinig terug van wat er echt mogelijk is.

[Reactie gewijzigd door millman op 26 juli 2024 13:46]

Zoals @millman al zei is DX12 vooral een performanceverbetering voor de wat minder krachtige GPU. Hitman (2016) was met DX11 niet te spelen met gtx960m en i7-4610m. Vaak nog geen 20fps op laagste instellingen. Allemaal lag. Maar met DX12 is een stabiele 50fps te halen.
Als ze nou eens beginnen met games te optimaliseren voor DX12

Op dit item kan niet meer gereageerd worden.