Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 195 reacties
Submitter: CriticalHit_NL

Intel heeft tijdens een demonstratie een Surface Pro 3 getoond waarop het komende DirectX 12 was geïnstalleerd. De tablet zou door de nieuwe api tot vijftig procent meer frames per second kunnen behalen. Het energieverbruik kan in bepaalde scenario's met de helft dalen.

De demonstratie van DirectX 12 werd gehouden op de Siggraph 2014-beurs. Intel toonde een grafische demo waarin 50.000 asteroïden een asteroïdenveld vormen. De demo werd gedraaid op Microsofts Surface Pro 3-tablet, die gebruikmaakt van een Intel HD4400-gpu. Tijdens het draaien van de demo kon geschakeld worden tussen een DirectX 11- en 12-modus. Bij het tonen van exact dezelfde beelden wist DirectX 12 het energieverbruik te halveren. Als het framelock van de demo werd gehaald zou het aantal frames per seconde met vijftig procent toenemen als dezelfde hoeveelheid energie werd verbruikt als in de DirectX 11-modus.

DirectX 12 weet snelheidswinst of energiebesparing te boeken dankzij low-level toegang tot de gpu. Hierdoor wordt de cpu ontlast en wordt de hardware minder heet. Dit kan niet alleen profijt bieden voor Windows-systemen, maar potentieel ook voor de Xbox One.

Microsoft heeft DirectX 12 nog niet uitgebracht. Wel loopt er een Early Acces Program, waarmee ontwikkelaars kunnen experimenteren met de nieuwe api, die deels gezien kan worden als Microsofts antwoord op AMD's Mantle. Overigens is ook de Khronos Group, verantwoordelijk voor de OpenGL-standaard, bezig om in een toekomstige api low-level toegang tot de gpu mogelijk te maken.

DirectX 11/12-demo

Moderatie-faq Wijzig weergave

Reacties (195)

Mooi.
Vooral de One als echte game-console kan wat gpu-kracht gebruiken.
De Xbox One heeft al een low-level laag in D3D11, daarom spreekt men van D3D11.x.
DX12 is dan ook vooral om dit soort CPU-besparende dingen naar de desktop te halen.
Dat is ook wat Microsoft zei in hun eerste presentatie:
http://blogs.msdn.com/b/d...014/03/20/directx-12.aspx
Forza Motorsport 5 is an example of a game that pushes the Xbox One to the limit with its fast-paced photorealistic racing experience. Under the hood, Forza achieves this by using the efficient low-level APIs already available on Xbox One today. Traditionally this level of efficiency was only available on console – now, Direct3D 12, even in an alpha state, brings this efficiency to PC and Phone as well. By porting their Xbox One Direct3D 11.X core rendering engine to use Direct3D 12 on PC, Turn 10 was able to bring that console-level efficiency to their PC tech demo.
De Xbox One zal ook een update naar DX12 krijgen, maar verwacht daar niet de winst in CPU-overhead, want die had de Xbox One al.
DX12 komt vooral naar de Xbox One om het voor ontwikkelaars makkelijker te maken om beide platforms te ondersteunen.
De Xbox One heeft al een low-level laag in D3D11
Die low-level laag is anders behoorlijk hopeloos high-level in vergelijking met de low-level laag die je op de 360 had.
De Xbox One zal ook een update naar DX12 krijgen, maar verwacht daar niet de winst in CPU-overhead, want die had de Xbox One al.
Nope, not quite. Er is nog best wat te halen.
Ja, en op m'n 286 zat ik direct met de CRTC- en ALU-registers te klooien.
Of je denkt iets langer na en vergelijkt de Xbox One met de PS4, waar het wél meer low level is, terwijl de hardware van dezelfde generatie is. Kernpunt is dat ze (nog) niet afdoende moeite hebben gedaan de hardware vrij te geven zoals ze dat op de Xbox 360 hebben gedaan, terwijl dat gewoon mogelijk was.
Niet de 50% die ze hier demonstreren.
Waar beweer ik dat precies?

[Reactie gewijzigd door .oisyn op 14 augustus 2014 15:18]

Of je denkt iets langer na en vergelijkt de Xbox One met de PS4, waar het wél meer low level is.
Jij vergelijkt toch met de 360? Dus met oudere generaties? Dat kan ik ook.
Waar beweer ik dat precies?
Ik zeg niet dat jij dat beweert. Ik geef alleen aan dat ik dat bedoelde in het stukje waar je op reageert.

[Reactie gewijzigd door Scalibq op 14 augustus 2014 15:19]

Jij vergelijkt toch met de 360?
Omdat dat beide DirectX is, en je dat dus niet als argument kunt gebruiken om een reden te verzinnen waarom ze het niet hebben gedaan op de Xbox One. In plaats daarvan haal je een stroman erbij.

[Reactie gewijzigd door .oisyn op 14 augustus 2014 15:21]

En ik was niet bezig met jou, ik wilde jouw post aanvullen door te zeggen dat de zogenaamde "low-level" API op de Xbox One helemaal niet zo low-level is en er dus best nog wat verbetering mogelijk is. In plaats van dat te accepteren en te laten voor wat het is (want het paste immers niet in de discussie die jij wilde voeren) ga je er tegenin.

Overigens ben je zelf koning van verdraaien van woorden, dus die wedstrijd ga ik liever niet met je aan :)

[Reactie gewijzigd door .oisyn op 14 augustus 2014 15:29]

Dat zal best, maar dat verandert natuurlijk nog steeds niet dat er op de XB1 niet echt te spreken valt over een low-level laag. Of laten we het anders zeggen, de driver-layer is nog veel dikker dan dat 'ie hoeft te zijn.
de driver-layer is nog veel dikker dan dat 'ie hoeft te zijn.
Behalve dus als het altijd al het idee van MS was om deze laag naar de desktop te halen, en de twee platfoms gelijk te trekken.
Niet ideaal voor een console, ben ik met je eens. Maar als de insteek was dat iedereen straks DX12-code maar 1 keer hoeft te schrijven voor Windows en Xbox, dan is het een ander verhaal natuurlijk.
We zullen het pas weten als we DX12 er straks is voor de desktop en de Xbox. Dan kunnen we vergelijken in hoeverre die twee van elkaar afwijken, en in hoeverre ze lijken op D3D11.x.
Mijn opmerking was meer in de trant van: we doen dingen tegenwoordig anders dan vroeger, dat is niet per definitie beter of slechter.
Dat zeg ik toch? Dat is een opmerking die je helemaal niet toe kunt passen op de Xbox 360, want in werkelijkheid doen ze niet zo heel veel verschillende dingen.
en daarna vind je het vreemd dat ik niet over de PS4 begin.
Dat vind ik helemaal niet, ik vind het jammer dat je gewoon niet even wat langer nadenkt. Het feit dat men dingen vroeger anders deed is geen sluitende redenatie waarom het op de Xbox 360 anders werkt, en al helemaal niet dat het dús op die Xbox One ook niet kan (let er even op dat ik op dat moment nog dacht dat je dat wilde impliceren). Dat laatste kun je concluderen door even naar de PS4 te kijken, vandaar dat ik die er ook maar even bijhaalde. Capiche?
Dat zeg ik toch? Dat is een opmerking die je helemaal niet toe kunt passen op de Xbox 360, want in werkelijkheid doen ze niet zo heel veel verschillende dingen.
Ik bedoelde programmeertechnisch.
Vroegah zat je ook pure assembly te kloppen, later C, nu C++.
Verder doe je nog steeds in grote lijnen hetzelfde in een 3d game-engine.
Dat vind ik helemaal niet, ik vind het jammer dat je gewoon niet even wat langer nadenkt.
Dat heeft niks met 'langer nadenken' te maken. Zoals ik al eerder zei: jij probeert de discussie in een richting te trekken waar ik helemaal niet mee bezig was. Ik was dus niet in die richting aan het denken, en zou daar ook nooit uitgekomen zijn.
Het feit dat men dingen vroeger anders deed is geen sluitende redenatie waarom het op de Xbox 360 anders werkt, en al helemaal niet dat het dús op die Xbox One ook niet kan (let er even op dat ik op dat moment nog dacht dat je dat wilde impliceren). Dat laatste kun je concluderen door even naar de PS4 te kijken, vandaar dat ik die er ook maar even bijhaalde. Capiche?
Nou, blijkbaar heb jij ook een zetje nodig om in de juiste richting te denken:
Bij de Xbox 360 was er geen sprake van dat de low-level API ooit naar de PC zou komen. Het was puur een hulpmiddel om de console beter te laten presteren.

Bij de Xbox One zou het zomaar kunnen dat de low-level API van D3D11.x daadwerkelijk het 'prototype' is voor DX12, en dat men bij MS dus van tevoren al had besloten dat de Xbox One krachtig genoeg was om de software zoveel mogelijk gelijk te trekken met de desktop (iets dat we overigens ook vanuit de Windows Phone/RT-hoek steeds horen: MS wil naar 1 OS voor alles).
In dat geval kan ik MS alleen maar gelijk geven: het performance-verschil met de PS4 is zeker niet spectaculair, en valt makkelijk te verklaren door het verschil in APU-specs, niet zozeer de API. Daarbij lijkt het vooral de GPU die een bottleneck is om 1080p te halen. Verder heb ik eigenlijk weinig verschil gezien qua graphics, effecten en dergelijke.
Want je zult met me eens zijn dat als CPU-overhead een issue is, dat het dan niet voldoende is om een game terug te schalen naar bv 900p, maar met dezelfde kwaliteit graphics etc. Resolutie heeft immers geen effect op CPU-overhead.
Nou, blijkbaar heb jij ook een zetje nodig om in de juiste richting te denken:
Of wellicht heb ik die gedachtenkronkel bij voorbaat al afgeschoten:
Bij de Xbox One zou het zomaar kunnen dat de low-level API van D3D11.x daadwerkelijk het 'prototype' is voor DX12
Daar heeft het niet echt de schijn van, want de "low-level" API op de Xbox One is hopeloos en bevat niet de features die zijn aangekondigd voor DX12.
Want je zult met me eens zijn dat als CPU-overhead een issue is, dat het dan niet voldoende is om een game terug te schalen naar bv 900p, maar met dezelfde kwaliteit graphics etc. Resolutie heeft immers geen effect op CPU-overhead.
Maar waaruit concludeer je dan dat dat het enige is wat men doet? Natuurlijk, als je verder zeeën van tijd hebt op de CPU dan hoef je daar verder niet naar te kijken. Als je toch al krap zit zul je net zo goed optimalisaties moeten doen aan de CPU kant. En dat is precies wat we hebben moeten doen voor Tomb Raider The Definitive Edition, we hebben veel meer moeite moeten doen om dingen te batchen in vergelijking met de PS4. Alleen is dat niet typisch iets dat je terugleest in de media, itt de resolutie waarop men rendert.

[Reactie gewijzigd door .oisyn op 14 augustus 2014 16:37]

Daar heeft het niet echt de schijn van, want de "low-level" API op de Xbox One is hopeloos en bevat niet de features die zijn aangekondigd voor DX12.
Het is dan ook een prototype :)
Maar waaruit concludeer je dan dat dat het enige is wat men doet?
Nou, ik zie verder geen verschillen bij games die op beide platforms zijn uitgebracht. Niet alsof de PS4 veel meer physics-effecten, particles etc heeft, of duizenden extra NPCs of wat dan ook, dat duidt op meer ruimte aan de CPU-kant.
we hebben veel meer moeite moeten doen om dingen te batchen in vergelijking met de PS4.
Maar het is uiteindelijk wel gelukt. Wel grappig op zich, vroeger was het juist de PlayStation waar je al die moeite in moest steken :)
Niet alsof de PS4 veel meer physics-effecten, particles etc heeft, of duizenden extra NPCs of wat dan ook, dat duidt op meer ruimte aan de CPU-kant.
Dat is omdat de games in de regel in tandem worden ontwikkeld voor beide platforms en men niet de moeite gaat doen om de content te wijzigen als blijkt dat men op een platform resources over heeft. Zeker niet als men éérst de moeite moet doen om dergelijke differentiatie in content daadwerkelijk mogelijk te maken.

[Reactie gewijzigd door .oisyn op 14 augustus 2014 16:47]

Zeker niet als men éérst de moeite moet doen om dergelijke differentiatie in content daadwerkelijk mogelijk te maken.
Maar er zijn wel games te noemen die dat voor de PC-versie WEL hebben.
Ik denk dat de waarheid in het midden ligt: het verschil is doorgaans te klein om daadwerkelijk differentiatie mogelijk te maken.
Ik bedoel maar... stel dat je 5% minder CPU nodig hebt op de PS4. Ja, vanuit technisch oogpunt is dat best wat... Maar het is dan wel weer te weinig om er daadwerkelijk iets mee te gaan doen in een game. Dan moet je eerder denken aan een verschil van 50% of meer.
Het is dan ook een prototype :)
Nee. Dat was het niet. |:( |:(
Deze optimalisatie is niet erg relevant voor de Xbox One en PS4, aangezien daar al low-level toegang tot de hardware mogelijk is. Vooral PC's zullen hier voordeel uit halen.

[Reactie gewijzigd door Overv op 14 augustus 2014 14:22]

Dat is dus niet waar, MS gebruikt op dit moment DirectX 11.x op de xbox one en zou dus mogelijk wel iets meer low-level truukjes hebben dan op de PC maar Microsoft heeft zelf al aangeven DirectX 12 uit te brengen voor de XBone en wordt gezien als potentiele 'game changer' voor de machine

http://www.neowin.net/new...game-changer-for-xbox-one

http://bgr.com/2014/04/07/xbox-one-directx-12-update/

[Reactie gewijzigd door ultimasnake op 14 augustus 2014 14:29]

Dat eerste artikel is fout. Die slides die ze laten zien, gaan over de winst in 3DMark op desktop Windows, niet over de Xbox One.
Zie mijn post elders, MS gaf zelf in die presentatie al aan dat ze juist de CPU-optimalisaties van D3D11.x naar de desktop hebben gehaald, en dat is wat ze daar demonstreren.

Die tweede haalt een van de ontwikkelaars van StarSwarm aan, niet Microsoft zelf. Ik neem die claims dan ook niet serieus, want voor zover ik weet, hebben de mensen van StarSwarm helemaal niets te maken gehad met DX12 of de Xbox One, en weten ze dus ook niet waar ze over praten (sowieso claimt hij dat de *GPU* sneller wordt, en dat is juist NIET het geval. De CPU-overhead wordt minder, maar Xbox One zal het moeilijk blijven houden met 1080p omdat je dan gewoon tegen de maximale bandbreedte en shader-prestaties van de GPU aanloopt).
Het gaat om Surface 3, dus in feite meer op mobile tablet dan op desktop. Maar toch interessant ;)
Om stroom besparing is indd interessanter voor mobiele game pc zoals een Asus ROG. of de SFP 3 :D
Misschien een game changer op de huidige 900P en wat nog meer voor achterlijke resoluties, maar volgens de dev van the witcher 3 niet echt.

I'll just leave this here:

“I think there is a lot of confusion around what and why DX12 will improve. Most games out there can’t go 1080p because the additional load on the shading units would be too much. For all these games DX12 is not going to change anything,”

“They might be able to push more triangles to the GPU but they are not going to be able to shade them, which defeats the purpose. To answer the first question, I think we will see a change in the way graphics programmers will think about their pipelines and this will result in much better systems hopefully.”

Bron: Klikkerdeklik
De verbeteringen voor high end games zal afhangen van hoeveel ze al gebruik maken van optimalisatie, maar wellicht dat andere games wel stuk beter draaien, of iig minder zwaar worden om te spelen op dezelfde resoluties.
Je zal iig niet the witcher wild hunt met 50% fps meer spelen nee ;)
Als dat waar is, en dat is het wss ook, dan is het toch vreemd dat als je een VGA kaart koopt voor je PC, daar doodleuk een bepaalde DX versie op de doos staat. Zoals bv DX 10.1, of zo.

De VGA in de Xbox One kan wel nieuwere versies aan?
Dat mogen ze mij dan toch wel eens even uitleggen.
DX 11 kaarten zijn compatible met DX12.
Helaas klopt dit niet helemaal. Zo heb ik een van de eerste AMD GPU's met DirectX11 support maar zonder GCN architectuur en val ik dus buiten de boot. Binnenkort tijd voor 'n upgrade dus ;)

AMD: all Graphics Core Next-based Radeon GPUs
Nvidia: Fermi, Kepler, and Maxwell (i.e. GeForce GTX 400 series and newer)
Intel: Fourth generation of Haswell CPUs

bron: http://www.guru3d.com/new...ovement-for-gaming,7.html
Niet allemaal.
Bij nVidia wel... bij AMD alleen alles met GCN (dus sommige 7000-serie en hoger).
Voor zover ik weet heeft Intel nog niet bekend gemaakt welke GPUs ondersteuning voor DX12 krijgen.

Er gaan overigens wel nieuwe features in DX12 komen, waarvoor je wel een nieuwe 'DX12' GPU moet hebben. Maar deze features zijn dus niet verplicht (net zoals DX11 ook op een DX9-GPU met SM2.0 of beter gedraaid kan worden, met uitzondering natuurlijk van nieuwere features zoals geometry shaders, tessellation, compute).
Kaarten kunnen compatible gemaakt worden door drivers aan te passen, zodat een DX12 commando vertaald wordt naar een DX11 commando.

Kaarten kunnen niet achteraf compliant gemaakt worden, want dat is iets wat ingebakken moet zijn.
Volgens mij begrijp je er niks van, met alle respect.
Er zit geen 'DX11' in een videokaart gebakken.
Net zoals er geen 'Windows' in een CPU gebakken zit.
Een videokaart heeft gewoon een eigen instructieset en featureset, en die is voldoende om DX11/DX12 te ondersteunen (en zo niet, dan helpt een driver daar ook niet aan). De driver vertaalt DX11-commando's naar GPU-specifieke commando's.
In dit geval komt er een nieuwe driver die DX12-commando's naar dezelfde GPU-specifieke commando's vertaalt.

Er hoeft dus niets ingebakken te worden, en ook niets 'vertaald' van DX12 naar DX11.
Waarom AMD niet z'n oudere DX11-kaarten ondersteunt zal aan 2 dingen kunnen liggen:
1) Misschien zijn de minimum-specs van DX12 iets hoger dan de volledige DX11-set, en ontbreekt er iets op de pre-GCN-kaarten.
2) Misschien vindt AMD het gewoon niet interessant om nog drivers te ontwikkelen voor een verouderde architectuur (nVidia heeft dit probleem niet echt, omdat Kepler en Maxwell min of meer evolutionair voortborduren op Fermi, waar GCN een totale stijlbreuk was met de eerdere VLIW-gebaseeerde architectuur).

[Reactie gewijzigd door Scalibq op 14 augustus 2014 16:03]

Een dx9 kaart kan geen tesselation doen, ook al probeer je de drivers aan te passen - dx spreekt, zoals je zegt, een featureset aan maar die ligt toch echt vast op hardwareniveau. Net zoals een voodoo destijds geen hardware tnl kon doen, of een geforce2 pixel shaders.

De oudere AMD kaarten hebben gewoon niet de juiste featureset.
Een dx9 kaart kan geen tesselation doen, ook al probeer je de drivers aan te passen - dx spreekt, zoals je zegt, een featureset aan maar die ligt toch echt vast op hardwareniveau.
Dat zeg ik... Maar DX kent vaak meerdere lagen van featuresets.
Zo kun je dus DX11 downlevel 9.1, 9.2 of 9.3 draaien op een DX9 SM2.0 kaart, en zo zijn er nog een aantal 'downlevels' voor de API, tot aan de hoogste featureset, dat is 11.2:
http://msdn.microsoft.com...op/ff476876(v=vs.85).aspx

In het geval van DX12 is er dus een soort 'downlevel' voor DX11 hardware.
De oudere AMD kaarten hebben gewoon niet de juiste featureset.
Dat is dus maar de vraag, zoals ik al zei.
Ik kan namelijk zo gauw niets bedenken dat de oude DX11 kaarten van AMD niet hadden, dat Fermi wel had (ik snap jouw opmerking over DX9 en tessellation dan ook niet, we hebben het nog steeds over DX11 hardware).
En de exacte featureset voor DX12 is ook nog niet vrijgegeven voor zover ik weet, dus die kunnen we er ook niet op naslaan op dit moment.
Het zou best kunnen dat ze de featureset wel ondersteunen, maar dat AMD gewoon geen tijd wil steken in het ontwikkelen van de drivers.

[Reactie gewijzigd door Scalibq op 14 augustus 2014 18:49]

quote: Scalibq
Dat zeg ik... Maar DX kent vaak meerdere lagen van featuresets.
Zo kun je dus DX11 downlevel 9.1, 9.2 of 9.3 draaien op een DX9 SM2.0 kaart, en zo zijn er nog een aantal 'downlevels' voor de API, tot aan de hoogste featureset, dat is 11.2:
Wat er dus op neer komt dat als je met de Rivatuner statistics server gaat kijken dan zal je game gewoon "Direct X 9" rapporteren en geen DirectX 11. Je game zal dus ook geen gebruik maken van Direct X11 effecten en grafische instellingen blokkeren.

Een gamer heeft dus nog steeds een DirectX 11 videokaart nodig om gebruik te maken van Direct X 11. Het tegenovergestelde beweren ahv de genoemde argument is wat mij betreft onzinnig gezever waar niemand iets aan heeft.

In het beste geval werkt het verwarrend, in het slechtste geval nemen mensen het voor waarheid aan en kunnen diverse internet fora binnenkort vragen verwachten als "hoe installeer ik DirecX 11 op mijn Geforce 8800 GTS".

Mbt de andere reactie:
quote: Scalibq
Er zit geen 'DX11' in een videokaart gebakken.
Net zoals er geen 'Windows' in een CPU gebakken zit.
Een videokaart heeft gewoon een eigen instructieset en featureset, en die is voldoende om DX11/DX12 te ondersteunen (en zo niet, dan helpt een driver daar ook niet aan).
Er wordt waarschijnlijk verwezen naar de het strengere hardware beleid dat bij DX10 is geïntroduceerd. Zie quote:
There are differences in the way ATI and Nvidia design their hardware. One complaint from software developers has been that there is too much variation in the capabilities of hardware designs, which everyone can see in games that have multiple code paths and thus display different results on different hardware. In particular, if a game detects old hardware, it will run specialized software "channels" of code to accommodate that system.

Console software developers do not need to deal with this, as the constructs for the graphics subsystem are set in stone, but PC game developers don't have this luxury. If they have new ideas and techniques they would like to utilize in their games, they have to build them hoping that people will notice and want to play their games with all of the wonderful features enabled. But we all know that the majority of gamers does not play titles with all of the bells and whistles turned on.

To make matters worse, DirectX 9 left some parts of the standard a bit too open for interpretation, and some parts of the standard were changed before things could be instituted into designs by ATI and Nvidia. This made for some confusion on the part of developers, as there were differing precision standards between the competing hardware makers. Hardware manufacturers have to educate developers on the strengths and capabilities of their hardware, and conflicting standards slows down bringing quality content to the market.

Direct3D 10 addresses the standards for required feature sets, resource limits, arithmetic precision and various storage formats. While everything inside Direct3D 10 hardware will be 32-bit (floating point or integer), there are several storage types. Below is a list of the data storage formats.
http://www.tomshardware.com/reviews/direct3d-10,1356-4.html

Dat een DX11 kaart DX12 gaat ondersteunen is dus helemaal niet vanzelf sprekend. Het is heel goed aannemelijk te maken dat dit niet zo is. Echter, er zijn nu blijkbaar bronnen dat het wel gaat lukken. Maar vreemd is een bewering in die richting wat mij betreft niet.

[Reactie gewijzigd door sdk1985 op 14 augustus 2014 22:17]

Dat een DX11 kaart DX12 gaat ondersteunen is dus helemaal niet vanzelf sprekend.
Nee, maar nVidia en AMD hadden meteen al aangegeven welke kaarten DX12 gingen ondersteunen, bij de eerste presentatie van Microsoft.
Daarnaast, zoals ik al zei, bij DirectX is het meer regel dan uitzondering dat ook oudere kaarten worden ondersteund.
Nee, maar nVidia en AMD hadden meteen al aangegeven welke kaarten DX12 gingen ondersteunen, bij de eerste presentatie van Microsoft.
Daarnaast, zoals ik al zei, bij DirectX is het meer regel dan uitzondering dat ook oudere kaarten worden ondersteund.
Vroeger werd die nieuwe DirectX meegeleverd (met je Twilight cd-rom :+ ). Als ik me goed herinner was Direct X 8 een beetje de laatste waar dat mogelijk was. Voor DirectX 9,10,11 kon je een nieuwe videokaart aanschaffen. DX 12 zou dan weer de eerste zijn.

[Reactie gewijzigd door sdk1985 op 14 augustus 2014 22:38]

Vroeger werd die nieuwe DirectX meegeleverd (met je Twilight cd-rom :+ ). Als ik me goed herinner was Direct X 8 een beetje de laatste waar dat mogelijk was. Voor DirectX 9,10,11 kon je een nieuwe videokaart aanschaffen. DX 12 zou dan weer de eerste zijn.
Wat is dit nou weer voor onzin-argument?
Nee, DirectX is tegenwoordig geen losse install meer, maar wordt met het OS meegeleverd en up-to-date gehouden.
Zo heeft men bij Vista achteraf DX11 toegevoegd in een "Platform Update": http://msdn.microsoft.com...op/ee663866(v=vs.85).aspx

Windows 7 heeft een Platform Update gekregen naar (een deel van) Direct3D 11.1, en de Windows 8.1-update voegde Direct3D 11.2 toe.

Ik snap niet precies wat jij denkt... maar Direct3D is een stuk software. Een nieuwe videokaart helpt je niet aan een nieuwe versie van Direct3D. Die software moet je nog steeds van Microsoft krijgen.
Dat ze dat tegenwoordig via Windows Update doen ipv via een losse installer, tsja, blijkbaar is dat te verwarrend voor jou.

Ik heb hier een overzichtje van welke Direct3D waar werkt: http://scalibq.wordpress....ioning-and-compatibility/

Vooral DX9 was toch wel vrij populair op DX7 en DX8-kaarten. Games als Half-Life2 en Far Cry werkten prima op oudere hardware.

[Reactie gewijzigd door Scalibq op 14 augustus 2014 22:44]

Nee. Hij heeft een DX11 kaart nodig om gebruik te maken van DX11-specifieke effecten
Wat dus niet op gaat voor een DirectX 11 only game, waaronder dus het eerder genoemde Tropico 5. Dus opnieuw; de hardware moet het ondersteunen. Anders beweren is onnodig moeilijk lopen doen.
READ FIRST! Tropico 5 requires a DirectX 11 graphics card!
PLEASE CHECK IF YOUR SYSTEM MEETS THE MINIMUM REQUIREMENTS BEFORE PURCHASING THE GAME OR REPORTING ISSUES!

DirectX 11 support is needed at hardware level, which is why the minimum requirements list graphics cards that have specifically been tested and confirmed to run Tropico 5. For some models (Radeon 4000 series), hardware level 10.1 does suffice, for some others, it doesn't. It also heavily depends on the driver - please make sure you're running the very latest driver available from your graphics card manufacturer if you're experiencing graphical errors and corruption.
(En dan zijn ze bij Tropico nog zo "soepel" dat ze het je laten proberen met een 10.1 kaart. Bij een DX10 game zoals Just Cause 2 had je gewoon pech met je DX9 kaart).
http://steamcommunity.com...ons/0/540742667324372028/
Maar we hebben het hier over de API. Het is voor jou verwarrend omdat jij niet begrijpt wat een API is
Nu komen we dus precies bij het puntje dat ik als gezever omschrijf. DirectX11 is gewoon DirectX 11, dat gaat altijd over een api. Een Direct X10 game vereist een DirectX10 of hogere kaart. Een Direct X 11 game vereist een DirectX11 of hogere kaart. Simpel toch?

[Reactie gewijzigd door sdk1985 op 14 augustus 2014 22:37]

Wat dus niet op gaat voor een DirectX 11 only game, waaronder dus het eerder genoemde Tropico 5. Dus opnieuw; de hardware moet het ondersteunen. Anders beweren is onnodig moeilijk lopen doen.
Wat je dan bedoelt is dat Tropico 5 ALLEEN maar DX11-features gebruikt.
Dat is een beperking van de game, niet van DX11.
Er zijn zat games die wel de DX11-API gebruiken, maar ook op lagere hardware kunnen draaien (Tropico 5 zelf ook blijkbaar: "For some models (Radeon 4000 series), hardware level 10.1 does suffice, for some others, it doesn't.")
Zo weet ik bv uit eigen ervaring dat F1 2013 op een GeForce 8800 prima werkt.
Nu komen we dus precies bij het puntje dat ik als gezever omschrijf. DirectX11 is gewoon DirectX 11, dat gaat altijd over een api.
Nee, zoals jij de term 'DirectX 11' gebruikt, heb je het juist over de hardware featureset, en NIET alleen over de API.
Een Direct X 11 game vereist een DirectX11 of hogere kaart.
Nee dus. Zie bv F1 2013, en er zijn vast veel meer games die op DX10 hardware werken, misschien zelfs op DX9-hardware (al was DX9-hardware natuurlijk al vrij verouderd toen DX11 op de markt kwam, dus dat zal zeldzaam zijn).

[Reactie gewijzigd door Scalibq op 14 augustus 2014 22:34]

Volgens mij zit er een soortgelijk idee achter als de tick tock voor cpu's, een aantal generaties dx versies/ videokaarten die compatible er mee zijn, tot een nieuwe versie komt die zo anders is, zoals dx9 naar dx 11 dat de kaarten van de vorige generatie daar niet mee kunnen werken. dan werken ze een aantal keer met de dx 11 versie tot dx 13 of 14, waarna er weer een nieuwe generatie komt.
Er zitten geen nieuwe functies in DX12 waarvoor nieuwe hardware nodig is. Dit is overigens niet de eerste keer, volgens mij was dat met DX8 ook zo.

DX12 is een pakket optimalisaties die ervoor zorgt dat er meer parrellisatie word uitgevoerd. Ook krijg je nog meer low-level access tot de hardware.
Volgens mij leek het erop dat bv. Een quad-core computer met 1core de videokaart aan stuurde en dit met dx12 door alle cores wordt aangestuurd zoals werdt aangegeven in het neowin artikel een paar posts hierboven...
Ja, daar komt het kort-door-de-bocht een beetje op neer.
Er zat wel wat support voor multithreading in D3D11, maar het was vrij beperkt. Je kon niet zo heel veel dingen op andere cores voorbereiden, dus er was vooral 1 core/thread die constant draw-calls naar de driver stuurde.
Met DX12 kun je het beter over meerdere cores/threads verdelen, waardoor je minder opgehouden wordt door de 'main' thread die alles naar de driver stuurt.
Je ziet dat thread 0 nog steeds het meeste werk doet, maar het verschil met de andere threads is veel kleiner.
Er zitten wel nieuwe functies in DX12, maar die zijn optioneel: http://techreport.com/new...eatures-for-next-gen-gpus
DirectX heeft altijd een stuk backwards compatibility (anders zouden ouder computers of games er plots mee uitscheiden bij een upgrade), maar wil je minimaal de volledige feature set van DirectX versie X willen benutten moet je kaart compatible zijn. Niet zo lastig toch?

De kans is groot dat veel grafische kaarten al veel meer kunnen dan de inmiddels toch wat oude DirectX 11 en dat het in 12 pas benut gaat worden.

[Reactie gewijzigd door ultimasnake op 14 augustus 2014 14:38]

In dat geval zou er een DX12 graka/chip in moeten zitten op het moment. Backwards compliant is in dit geval niet aan de orde. De HW is eerder aanwezig dan de DX12 versie.

In jouw verhaal haal je het volgende aan; Een nieuwe graka die bijvoorbeeld DirectX 10.1 ondersteunt, kan ook DX10 of DX9 draaien. Dat is backwards compliant.

Wat natuurlijk mogelijk is, is dat er met de komst van DX12 een ander soort compatibiliteit wordt geïntroduceerd. Wat zou kunnen inhouden dat oudere videokaarten ook DX12 aankunnen.

[Reactie gewijzigd door exmatproton op 14 augustus 2014 19:17]

Wat natuurlijk mogelijk is, is dat er met de komst van DX12 een ander soort compatibiliteit wordt geïntroduceerd. Wat zou kunnen inhouden dat oudere videokaarten ook DX12 aankunnen.
Dat is in principe altijd zo geweest. De enige uitzondering is DirectX 10.
Alle andere versies kunnen ook draaien op kaarten van minimaal 1 generatie terug: http://scalibq.wordpress....ioning-and-compatibility/
Sterker nog, vaak hoefde je niet eens een driver-update te doen. De nieuwe runtime installeren was genoeg, deze kon gewoon met oudere driver-interfaces overweg.
Aahh ok, thnx. Ik ben ook echt vooral begonnen met gamen met DX9/DX10. Wist ik niet.
Alle videokaarten vanaf dx11 zullendx12 voor een gedeelte kunnen gebruiken, dit heeft zowel Microsoft gezegd als de videokaart makers.
Compliant, niet compatible. I know, grammar nazi enzo, maar toch :)
Dat is oud nieuws:

Phil Spencer: DirectX 12 Not a “Massive Change” For Xbox One
http://www.dualshockers.c...s-from-1st-party-studios/

Consoles hebben altijd al wel veel low-level toegang gehad. DX12 is echt de tegenhanger van Mantle.
Als ik me niet vergis zou in de XBX1 zowel de ps4 een AMD mantle gpu draaien. alleen d DirectX is ook aanwezig op de XBX1 en unlocked dat was ook bij de vorige gen XBX360 die kreeg een directX 10 bij release in 2007/8 en is nu upgegrade naar DX11. bedoel maar te zeggen dat je in feitelijk met primitieve computers werkt als je en console heb van de next-gen. :)
Dat is dus wel waar. De DirectX 11-variant die op de X1 gebruikt wordt is niet dezelfde als voor PCs en is al zoveel mogelijk gestript om het zo low-level mogelijk te maken. Mogelijk dat er nog wel een beetje meer winst te halen valt met DirectX 12 op de X1, maar bij lange na niet zoveel als op de PC.

Helaas maken de bronnen die je aanhaalt overigens dezelfde fout.
De Xbone heeft een GPU die gelijk is aan de RadeonHD 7790 (PS4 heeft dacht ik een 7870 maar het kan ook andersom zijn, dat de Xbone de 7870 heeft.).
Dus als de Xbone DX12 gaat ondersteunen dan kunnen in elk geval AMD videokaarten vanaf de 7700 serie gebruik maken van DX12, lijkt mij tenminste.

De Xbone en PS4 maken niet precies gebruik van die kaarten, het zijn aangepastte versies van die GPU's maar de architectuur is redelijk hetzelfde gebleven.
Idd. Snap de opmerking in het artikel daarom ook niet zo goed. Het is niet alsof de XB1 op "stock DirectX" draait.
niet alle games op consoles zijn gemaakt om het maximum uit de console te halen, dan denk ik maar aan eenvoudige arcade games
die kunnen wel gebruik maken van een meer generieke aansturing zoals DX
het voordeel zou kunnen zijn dat ze dan heel makkelijk een versie kunnen ontwikkelen voor X1 en PC
Ach...het lijkt mij op fanboy-reclame.
...kan in bepaalde scenario's...
Ik kan hier weinig mee. misschien vallen er bij nieuwe software altijd scenario's te bedenken waarin iets een x aantal keer beter presteert. Het kan ook te maken met de tekortkomingen uit de vorige versie...

Het enige wat mij interesseert is real-life (dus geen nietszeggende statische lab-tests) scenario's. Al het andere heeft een grote kans om ruis te zijn. Daarom wekt dit soort nieuws eerder een negatieve reactie op dan een positieve.
Zeker niet voor de PS4, die draait niet op een OS wat gebouwd is op de NT kernel, maar op een FreeBSD variant. Dat gebruikt dus OpenCL/OpenGL
Zeker niet voor de PS4, die draait niet op een OS wat gebouwd is op de NT kernel, maar op een FreeBSD variant. Dat gebruikt dus OpenCL/OpenGL
Wat een rare conclusie!
Alles dat op FreeBSD draait, moet dus OpenCL/OpenGL gebruiken?
Nee hoor, Sony heeft z'n eigen API ontwikkeld: http://www.eurogamer.net/...ndry-inside-playstation-4
The development environment is designed to be flexible enough to get code up and running quickly, but offering the option for the more adventurous developers to get more out of the platform. To that end, PlayStation 4 has two rendering APIs.

"One of them is the absolute low-level API, you're talking directly to the hardware. It's used to draw the static RAM buffers and feed them directly to the GPU," Norden shared. "It's much, much lower level than you're used to with DirectX or OpenGL but it's not quite at the driver level. It's very similar if you've programmed PS3 or PS Vita, very similar to those graphics libraries."

But on top of that Sony is also providing what it terms a "wrapper API" that more closely resembles the standard PC rendering APIs.
Ik snap niet dat dat OpenGL zo hardnekkig aan de PlayStation blijft plakken. Voor de PS3 hoorde je dat ook overal, terwijl de PS3 eigenlijk LibGCM van Sony gebruikte.
Iedereen die ook maar IETS van consoles begrijpt, snapt dat OpenGL natuurlijk VEEL te highlevel is om een serieuze game te maken.
en de xboxone is geen PC dan ?? (uhmm jawel het is een pc architectuur..)

xbox one gaat gewoon op Direct x 12 draaien of het effect heeft JA!!! daar ben ik wel van overtuigt !! omdat een Xbox one ook een API is...

[Reactie gewijzigd door Jeroentjeeuh op 15 augustus 2014 06:37]

Het is jammer genoeg niet zo dat alle games hier meteen van gaan profiteren.
Unreal 4 wordt één van de eerste met DX12 ondersteuning.

Ben benieuwd of het ook iets uitmaakt in prestaties van 12 min games maar ik betwijfel dat.
Dit zeggen ze elke keer.
Eerst zien dan geloven. Ik weet dat Mantle van AMD wel heel erg goed is. Bij Battlefield heb 20/25 fps meer.
Ik neem aan dat dit ook weer een gevalletje 'StarSwarm' is: ze zullen iedere asteroide wel met een aparte draw-call tekenen. Dan heb je al gauw HEEL veel draw-calls per frame, en wordt de overhead enorm uitvergroot.
Er bestaan verschillende technieken in D3D11 om een dergelijke hoeveelheid asteroiden met veel minder draw calls te tekenen. Maar dan zou het effect een stuk minder spectaculair zijn.

Dus ja, aan de ene kant zal het wel waar zijn: met deze benchmark zullen ze echt wel die winst halen.
Aan de andere kant: het is geen realistisch scenario vergeleken met hoe echte games zoiets zouden tekenen met D3D11. Met goed geoptimaliseerde D3D11-code zal het verschil veel kleiner zijn.
Aan de andere kant: het is geen realistisch scenario vergeleken met hoe echte games zoiets zouden tekenen met D3D11.
Als games altijd zouden blijven doen wat ze in het verleden deden dan speelden we nog steeds pong...
Het is geen realistisch scenario als je de oude beperkingen in acht neemt. Maar nu, met deze technologie is het wel een realistisch scenario en kan er voordeel uit gehaald worden.
Op deze manier leg je D3D11 juist extra beperkingen op: er wordt geen gebruik gemaakt van features om dit soort scenarios efficienter te renderen, terwijl die WEL in D3D11 zitten.
Huh? Dan heb jij een heel trage CPU? In de gevallen van een courante intel CPU scheelt het bij mij zo'n 5fps op ultra.. en dat was al tussen de 80 en 100 fps. Zo goed is mantle ook weer niet, en daarnaast maar voor een 4tal games. Ik heb goede hoop op DX12, maar de beloofde tot 50% winst is natuurlijk alleen in de meest extreme gevallen. Ga er ook bij DX12 maar van uit dat het in de meeste gevallen neerkomt op een snelheidswinst van een procent of 10 (koffiedik kijken natuurlijk, maar imho wel een redelijke inschatting)
Geldt dit ook voor discrete GPU's? Stel dus dat de 290 50% meer fps kan genereren dan komt 4k wel een stuk dichterbij!
Mits je CPU limited bent. OF DX12 moet meer dan dan alleen de CPU bottlenek weg nemen. En nog veel meer slimme GPU optimalisaties gebruiken.

Al vraag ik me af in hoeverre dat kan aangezien Mantle ook al to the metal programming mogelijk maakt.

Het gaat in dit geval ook om een demo. Het is de vraag of je bij echte games ook zo veel winst ziet. Bij Mantle zie je grote verschillen tussen de verschillende games die het ondersteunen. Bij de een heb je heel veel winst bij de ander minder,
Het is natuurlijk niet voor niets dat ze hier een asteroide veld simuleren. Dat zijn heel veel onafhankelijke bewegende objecten, waarvan de locatie op de cpu berekend moet worden, en de rendering dan op de gpu. Dat is een worst-case scenario. Spel ontwikkelaars proberen natuurlijk dit soort worst-case scenario's te vermijden. Maar hoe beter de driver en hardware dit soort dingen kunnen doen, hoe minder problematisch het is het in een spel te gebruiken.
Momenteel zul je relatief weinig winst zien in de meeste spellen, omdat spellen dit soort situaties vermijden. In de toekomst is er minder reden het te vermijden, en zal het meer gebruikt worden.
Dit geld voor alle GPU's
De tablet zou door de nieuwe api tot vijftig procent meer frames per second kunnen behalen.
Let op het woordje "kunnen". In sommige, waarschijnlijk zeer specefieke situaties is er de mogelijk op 50% meer fps. Gemiddeld zal het waarschijnlijk een stuk lager liggen, vooral op high end kaarten omdat DX12 net als mantle vooral overhead moet beperken.
DirectX 12 weet snelheidswinst of energiebesparing te boeken dankzij low-level toegang tot de gpu.
Als leek op dit gebied. Moet ik dit zien als een soort mantle idee waarmee AMD kwam?
Edit: en dan doel ik dus meer op de achterliggende techniek. M.a.w. wat verschilt er nu ten opzichte van Mantel als ze beide in feite hetzelfde doen. Dat had ik even wat duidelijker moeten aangeven zie ik. :+

Waarom zou je dan niet de handen ineen slaan maar afzonderlijk werken. Kennelijk is er genoeg verschil om dit zo te willen doen.

[Reactie gewijzigd door Perkouw op 14 augustus 2014 14:27]

Ik acht de kans niet uitgesloten. ;)

Uit het artikel:
Microsoft heeft DirectX 12 nog niet uitgebracht. Wel loopt er een Early Acces Program, waarmee ontwikkelaars kunnen experimenteren met de nieuwe api, die deels gezien kan worden als Microsofts antwoord op AMD's Mantle.
Dit is goed nieuws, dan heeft AMD Mantle gedaan wat de bedoeling was. In een artikel flinke tijd terug zij AMD dat mantle voornamelijk is gemaakt om deze techniek te pushen in het DX standaard. In de laatste DX updates is alles grotendeels alleen mooier gemaakt en er is weinig focus geweest op efficientie van DX.
Mantle zal sowieso altijd efficienter zijn omdat het toegestpitst is op een bepaalde GPU.

Terwijl DirectX in het algemeen low level toegang bied.
In een ideale wereld wel...
In de praktijk zou het best wel eens kunnen dat Microsoft hun runtime beter weet te optimaliseren dan AMD's Mantle, waardoor DX12 alsnog sneller is.
Let wel: MS heeft hier het voordeel dat ze niet alleen de API controleren, maar ook het hele OS, dus MS kan het hele drivermodel aanpassen, en zelfs dingen aan de kernel aanpassen om te zorgen dat bv multithreading efficienter verloopt voor de API/drivers.
Ligt er maar aan hoe de bril gekleurd is waar je door kijkt.
De Xbox One had al een low-level laag in de D3D11.x API voordat Mantle er was.
Dus je zou ook kunnen zeggen dat Mantle op zijn beurt weer een antwoord is op D3D11.x.
Nee, natuurlijk niet. AMD heeft geen concurrentie van de consoles (waar ook gewoon AMD GPU/APU's inzitten).
Nee, maar AMD kan wel gedacht hebben van: "Hee, dit low-level spul kunnen we ook naar onze GPUs op de desktop halen" toen ze met MS bezig waren om de Xbox One te ontwikkelen (en bij de PS4 hetzelfde verhaal).
Hoe dan ook, D3D11.x was er eerder dan Mantle.
Nonsens, er was al een experimentele Mantle API terwijl de DirectX 11 implementatie op de Xbox One op dat moment direct van de PC af kwam en ontzettend crappy was. Pas in de laatste maanden voor release van de Xbox One zijn er wat performanceverbeteringen doorgevoerd, en pas na launch is het beter geworden.
Is dat een reden waarom (launchgame) battlefield 4 op 720p draait op Xbox one en eigenlijk waarom dezelfde game op die ps4 eigenlijk ook niet op 1080p loopt? Je gaf net aan dat games vaak in tandem worden ontwikkeld waardoor de slechte tools op die Xbox one eigenlijk de ps4 versie tegenhielden?

Ik hoop als ps4 eigenaar dan dat de tools voor de Xbox verbeteren waardoor de games op mijn console ook beter en groter kunnen worden.
Mantle is nog steeds experimenteel...
Daarnaast, we hoeven niet te stoppen bij de Xbox One, zoals je zelf al aangeeft.
Ook de Xbox 360 had een low-level API en een ATi/AMD GPU.
Dus ook daar had AMD al 'inspiratie' op kunnen doen.

[Reactie gewijzigd door Scalibq op 15 augustus 2014 13:12]

Dat is correct ;-)
Microsoft heeft DirectX 12 nog niet uitgebracht. Wel loopt er een Early Acces Program, waarmee ontwikkelaars kunnen experimenteren met de nieuwe api, die deels gezien kan worden als Microsofts antwoord op AMD's Mantle.
Ja dus.
De praktische uitwerking schijnt anders in elkaar te zitten, maar het achterliggend concept is identiek: minder softwarelagen tussen applicatie en hardware = betere performance.
Ja of gelijk aan Metal op iOS 8, allemaal het zelfde trucje, namelijk directer toegang tot de hardware
Leuk allemaal, maar wat ik nou niet begrijp is waarom was dit niet in DX11 of eerder. Die zijn feitelijk broken, maar pas als een ander (AMD, Mantle) daar wat aan doet word dit opgelost. Ontzettende snelheidswinst, ik vind het toch frappant. (Gegeven een trage of bezette CPU natuurlijk).
Een idee moet je eerst hebben, voor je die kunt toepassen.
Hoe dichter op de hardware, des te groter de kans dat als er iets misgaat het ook goed misgaat. Dus in plaats van een crash naar de desktop een volledig vastgelopen systeem.
Klopt, maar zie je ook bij mobiele telefoons, ze hebben de techniek al... Maar als ze alles al gelijk in de mobiel stoppen is het niet innoverend.
Dit is natuurlijk een demonstratie van een worst-case scenario. In normale spel situaties zul je nooit zoiets tegenkomen, en zal de winst veel en veel lager uitvallen.
Daar zullen videokaartfabrikanten niet blij mee zijn. Als GPU's inderdaad 'zomaar' 2x zo snel worden, kan een upgrade nog wel een jaarttje uitgesteld worden, of voldoet een onboard grafische chip ineens voor nog meer mensen. Voorheen was een nieuwe DirectX versie vaak een reden om je GPU te updaten. Als DirectX12 blijkbaar hardware compatible is met een HD4400, is dat dit keer ook echt niet nodig.

Ook het nut van AMD's Mantle, dat eenzelfde winst op ging leveren (uit m'n hoofd, kan zo snel geen cijfers vinden), wordt hiermee redelijk overbodig.

Intel heeft hier natuurlijk alle belang bij. Behalve dat de markt voor onboard grafische chips weer groter wordt, wordt dit ook op een tabblet gepresenteert. Een tabblet met windows die ineens in veel grafische taken 2x zo snel/zuinig wordt... dat maakt de markt voor windowstabblets natuurlijk zeker niet kleiner. Die zijn bijna allemaal gebaseerd op Intel hardware. Erg interessante ontwikkeling.
Maar, is het niet zo dat bij PC's waar de CPU bijna geen bottleneck is er weinig performance er bij komt? Tenminste dat is mijn ervaring met Mantle.
Klopt, Mantle ontlast the CPU dus geen CPU bottleneck kleine winst. En als je dan een simulatie hebt die veel CPU gebruikt is het verschil zo groot mogelijk, iets waar je vanuit kan gaan dat in deze test de meest idieale resultaat te krijgen is.
Ze kunnen het altijd gewoon niet implementeren in de drivers natuurlijk. Dan hebben nieuwe calls geen zin. Alleen als bestaande calls verbeterd zijn in DX12 gaat de boel dan sneller.

Daarentegen scoort de eerste fabrikant die wél DX12 implementeert natuurlijk dikke punten en dan moet de andere partij ook wel.
Als GPU's inderdaad 'zomaar' 2x zo snel worden,
Dat is niet zo. Het is in dit soort specifieke situatie de CPU die de bottleneck vormt. Als je die bottleneck wegneemt, dan kan je óf meer frames door de GPU laten renderen, óf minder energie verbruiken.

In de praktijk is de CPU echter meestal niet de bottleneck...
In het plaatje is te zien dat vooral de CPU belasting zakt. Dat zou ook logischer zijn want dat is ook wat mantle doet (CPU bottelnek weg nemen) DX12 moet hetzelfde gaan doen.

Dus dan vind ik het ook niet zo raar dat er zo veel bespaart kan worden als je de FPS lockt. De CPU en GPU draaien dan beide niet op volle kracht omdat ze die 60 fps met gemak aan kunnen.

Wel een mooie ontwikkeling dat microsoft ook met lagere API overhead komt. Jammer dat ze dit niet veel eerder gedaan hebben. Goed van AMD dat ze door Mantle uit te brengen Microsoft net dat duwtje hebben gegeven om wat vaart te maken met iets waar ontwikkelaars al jaren om vragen.
Leuk dat ze hier nu DX12 vergelijken met DX11, maar het zou natuurlijk nog veel interessanter zijn als iemand exact dezelfde scene ook nog eens rendert in OpenGL en Mantle; beter dan je vorige product is mooi, maar beter dan de concurrent is relevanter.
Renderen in Mantle lijkt me geen optie: Deze benchmark is van Intel, en Mantle is er alleen voor AMD-hardware.
Het lijkt me verder een veilige aanname dat DX12 ook efficienter is dan OpenGL, om de simpele reden dat D3D en OpenGL elkaar nooit veel hebben ontlopen tot dusverre. OpenGL 4.4 zit ongeveer op het niveau van D3D11 (en vooral OpenGL is zeer beperkt in het gebruik van multithreading, wat juist het grote verbeterpunt van Mantle/DX12 is).
Het lijkt me verder een veilige aanname dat DX12 ook efficienter is dan OpenGL,
Ze hoeven ook geen rekening te houden met de andere "Khronos groep/commitee leden" :D.
De features van DX worden niet in isolatie door alleen MS opgesteld. MS werkt daarom samen met hardware fabrikanten en softwarehuizen om de specificaties van een DX-versie op te stellen. Daarna implementeerd MS die features. Die wisselwerking moet er ook wel zijn, anders zou een dictaat van alleen MS niet geaccepteerd worden door zowel die hardwarefabrikanten als die softwarehuizen.
Dat wordt inderdaad een belangrijke test. Ik ben benieuwd wat daar uit gaat komen. Het is de vraag of AMD Mantle tegen de goed in de markt heeft kunnen zetten tegen tijd dat DX12 echt gebruikt wordt bij games die wij kunnen kopen.
Dat het over de cpu power ging viel mij idd ook op.
Wat ik mij dan nu af vraag is of dit soort winst ook dusdanig wordt met een dedicated gpu...

Want geven ze nu de igpu meer vermogen, omdat er meer ruimte is door het lagere cpu verbruik?
Of is de code zelf ook efficiënter op de gpu?
Wat AMD met Mantle doet is de GPU efficienter en directer aan sturen zodat de CPU minder hoeft te doen. Dus je krijgt een lagere cpu load en de FPS kan toch iets omhoog ondanks je GPU limited was. Maar die winst is tot nu toe maar klein.

Bij Dedicated GPU's is de winst qua FPS waarschijnlijk groter. Aangezien die nog sneller zijn en je CPU dat niet altijd bij kan benen. Het werkt ook beter bij PC's met een minder krachtige CPU.

In dit geval gaat het om een soort van SOC. En als de CPU power over heeft kan het inderdaad zijn dat de GPU meer headroom krijgt en die dus hogere clocks kan draaien.

In het plaatje hierboven zie je echter dat zowel de CPU als GPU Power omlaag gaan. Maar met een FPS lock op 60 vind ik dat niet raar. Zonder FPS lock krijg je wellicht het andere beeld dat de GPU iets meer gaat verbruiken dan voorheen. (in het geval dat er met DX11 een CPU limit is en dus met DX12 niet meer)

Edit: Die informatie staat in de link in het nieuwsbericht.

DX11 - 19FPS: http://blogs.msdn.com/res...72/7345.UnlockedFPS11.jpg

DX12 - 33 FPS: http://blogs.msdn.com/res...72/5355.UnlockedFPS12.jpg

Je ziet inderdaad dat de GPU veel meer power gaat gebruiken.

[Reactie gewijzigd door Astennu op 14 augustus 2014 14:42]

Interessant om te zien dat Microsoft ook is toegetreden tot de Kronos groep, die dus in principe een concurrent probeert uit te brengen op DX12
Kunnen ze mooi alle technologie in DX stoppen. :+

On topic:
Dit is zeker een mooie vooruitgang, nu nog hopen dat het snel toegepast word! Dit is vooral interessant voor laptop gamers en ultrabook gebruikers die af en toe wat GPU intensiefs doen!
OpenGL 3(of 4) had dit al moeten hebben, maar CAD producenten waren er op tegen omdat ze dan teveel aanpassingen moesten doen. Bij de nieuwe revisie zijn ze eindelijk, maar te laat, overstag gegaan. Microsoft weigert aan innovatie te doen die er toe doet, dus AMD heeft het heft, misschien uit noodzaak, maar in eigen hand genomen.

Het voordeel van de OpenGL en Mantle is dat het crossplatform is en er geen licentie kosten aan zijn verbonden. DX12 is imo een doodgeboren kindje. De stompzinnige manier waarop ze het presenteren zegt ook al boekdelen... Wat de hel is het nut van grafisch intensieve prestaties op een tablet? De xbox kan er geen gebruik van maken, het is windows 8+ en Microsoft zal er a'la Microsoft voor zorgen dat SteamOS het niet mag gebruiken. Dan blijft er een verdomd klein gebruikersgroepje over.
Microsoft weigert aan innovatie te doen die er toe doet.
Windows Phone, Surface (RT en Pro series), Kinect... jij hebt duidelijk of geen idee waar je over praat, of je bent hopeloos anti-Microsoft.
Het voordeel van de OpenGL en Mantle is dat het crossplatform is en er geen licentie kosten aan zijn verbonden.
Een groot nadeel van OpenGL is dat het hopeloos ingewikkeld en bloated is, in tegenstelling tot Mantle en DirectX, welke een veel schonere API hebben.
Wat de hel is het nut van grafisch intensieve prestaties op een tablet?
Games die niet om de haverklap je accu leegtrekken?
Microsoft zal er a'la Microsoft voor zorgen dat SteamOS het niet mag gebruiken.
SteamOS kan niets met deze DirectX verbeteringen, aangezien het geen DirectX gebruikt. Beetje achterlijk statement, dit.
Sorry maar waar zat de innovatie in de door jouw genoemde producten dan precies?

Windows Phone - iPhone was er eerder en toen Android.
Surface - tablet met een toetsenbord was een vrij logisch gevolg na de tablet. Het is nieuw uiteraard maar om het innovatief te noemen gaat mij persoonlijk te ver.
En de kinect kwamen ze mee na het succes van de Wii.

Vernieuwen, wat ze inderdaad wel degelijk doen, is niet echt hetzelfde als innoveren.

Ben je zelf hopeloos pro MS dan? :)

Waren ze overigens niet zo tegen low level GPU toegang toen OpenGL het wou?
Windows Phone - iPhone was er eerder en toen Android.
Surface - tablet met een toetsenbord was een vrij logisch gevolg na de tablet. Het is nieuw uiteraard maar om het innovatief te noemen gaat mij persoonlijk te ver.
Credit where credit's due: Microsoft was wel degelijk eerder met tablets bezig dan Apple of Google: http://en.wikipedia.org/wiki/Microsoft_Tablet_PC
Alleen was de technologie/de markt er op dat moment nog niet rijp voor, dus werd het geen succes, en liet Microsoft het idee varen. Apple pakte het idee op het juiste moment op, en kwam met de juiste uitvoering ervan, in de vorm van de iPad. Maar innovatief is het niet echt te noemen, als je kijkt wat Microsoft jaren eerder al gebouwd had.
Waren ze overigens niet zo tegen low level GPU toegang toen OpenGL het wou?
DirectX is juist ontstaan omdat OpenGL te highlevel was. Zie dit zeer interessante verhaal: http://www.alexstjohn.com...he-evolution-of-direct3d/
Vergeet Cortana niet.. volgens mij door MS zelf ontwikkeld itt Siri wat niet door Apple is ontwikkeld.
Windows Phone is geen innovatie. Surface Pro was gewoon een tablet zonder interessante features en de eerste Surface flopte. Kinect was ook geen innovatie die er echt toe doet.

Gewoon een uitgekleed Windows OS meer is het niet.

Mantle is innovatie in mijn mening. Nu is DX12 ALS!!!! ze deze belofte van intel waarmaken ook innovatief.. En we kennen Microsoft, die maken weinig beloftes echt waar.

[Reactie gewijzigd door Vegettokai op 14 augustus 2014 19:32]

Zijn er al indicaties voor backwards compatability? De laaste jaren werkte DX10 alleen op een DX10 kaart en DX11 alleen op een DX11 kaart.

Als dat zo doorzet dan zou ik de aanschaf van een dure videokaart even uit stellen. Zonde als volgend jaar blijkt dat je kaart van ¤500 euro voorbij wordt gestreefd.

edit:
NVIDIA will support the DX12 API on all the DX11-class GPUs it has shipped; these belong to the Fermi, Kepler and Maxwell architectural families. With more than 50% market share (65% for discrete graphics) among DX11-based gaming systems, NVIDIA alone will provide game developers the majority of the potential installed base.
http://www.guru3d.com/new...ovement-for-gaming,7.html

@scalibq
DX11 had 'downlevel' modi, waardoor het ook op DX9 en DX10-hardware kon draaien.
Waarschijnlijk vooral ook gedaan voor Windows Phone
Dat is natuurlijk onzinnig om te vermelden. Normaliter start je game gewoon niet in DX11 modus op zonder DX11 kaart. De enige uitzondering die ik ben tegen gekomen is Tropico 5 dat DirectX 11 eist maar ook op een select aantal Radeon DX10.1 kaarten draait.

[Reactie gewijzigd door sdk1985 op 14 augustus 2014 19:19]

@scalibq
Dat is natuurlijk onzinnig om te vermelden. Normaliter start je game gewoon niet in DX11 modus op zonder DX11 kaart. De enige uitzondering die ik ben tegen gekomen is Tropico 5 dat DirectX 11 eist maar ook op een select aantal Radeon DX10.1 kaarten draait.
Hoezo onzinning? Windows Phone HEEFT geen DX9 of DX10. DX11 is de enige API die ze ondersteunen (zelfde geldt voor Modern UI apps voor Windows RT en Win 8 ).

[Reactie gewijzigd door Scalibq op 14 augustus 2014 19:29]

Omdat ik het over losse videokaarten heb en jij met Windows Phone komt aanzetten. Windows Phone is volledig irrelevant in een reactie op mijn reactie.
Jij zegt dat DX11 alleen op DX11-kaarten werkt.
Ik zeg dat dat niet waar is, want DX11 werkt op DX9-kaarten en hoger. Ja, ook losse videokaarten ja.
DX10 alleen op een DX10 kaart
Ja
en DX11 alleen op een DX11 kaart.
Nee.
DX11 had 'downlevel' modi, waardoor het ook op DX9 en DX10-hardware kon draaien.
Waarschijnlijk vooral ook gedaan voor Windows Phone. De meeste phones hebben niet meer dan DX9 SM3.0 hardware aan boord, dus dat moest wel ondersteund worden.

Het is ook al bekend gemaakt dat DX12 op bepaalde DX11-hardware gaat draaien (het lijstje is al meerdere keren genoemd in de reacties hier).
Grappig... hoe we full circle zijn gegaan. Vroegah had je al direct access naar de videokaart, en dat vond men maar vervelend want dat gaf zo veel crashes en hardware errors... toen werd die toegang ontnomen, en werd het allemaal stabieler... en voila, anno 2014 zijn we weer terug bij directe hardware toegang... en ik vermoed zo dat het deze keer zonder BSOD ellende zal gebeuren :) Mooie ontwikkeling :D
Precies wat ik dacht. DirectX, OpenGL enzovoort waren er juist om een high-level schil om de GPU te kunnen bieden zodat je niet meer handmatig instructies naar de GPU hoefde te sturen. Wat is het nut van een dergelijke abstractielaag nog als je toch alleen maar low-level bezig gaat zijn?
DX12 is zeker geen directe toegang tot de videokaart. Ook Mantle niet, trouwens.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True