Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 196 reacties
Submitter: Loller1

Microsoft heeft meer details vrijgegeven over de nieuwe DirectX-generatie. Het bedrijf verwacht dat de eerste games op basis van DirectX 12 eind 2015 verschijnen. De api-verzameling komt naar Windows, Windows Phone en de Xbox One.

DirectX 12 moet efficiënter van gpu's gebruikmaken bij games, maar het is niet alleen bedoeld voor high-end gaming en niet alleen voor desktopvideokaarten, meldt Microsoft op zijn DirectX Developer Blog. "Direct3D 12 werkt op alle Microsoft-apparaten, van telefoons en tablets tot laptops en desktops."

Wat Windows Phone betreft betekent dit dat Qualcomms Snapdragon-socs ondersteuning krijgen, zoals Qualcomm ook bevestigd heeft, volgens EETimes, al is niet duidelijk welke modellen dat betreft. Bij de desktop krijgen alle AMD-videokaarten op basis van de Graphics Core Next-architectuur ondersteuning, terwijl het bij Nvidia om alle kaarten met DirectX 11-ondersteuning gaat. Volgens Microsoft gaat het om 100 procent van de videokaarten die momenteel verkocht worden en 80 procent van de game-pc's.

Ook de Xbox One ondersteunt DirectX 12 en volgens Microsoft krijgen games betere prestaties op het platform. Daarnaast belooft de api-bundeling het porten van games naar de verschillende platforms eenvoudiger te maken.

DirectX 12 gaat ontwikkelaars meer toegang geven tot de grafische hardware en het platform moet de cpu-belasting terugdringen. Om dit te demonstreren heeft Microsoft de 3DMark-benchmark geport naar DX12. Ten opzichte van de huidige, voor DX11 geoptimaliseerde benchmark, wordt de cpu bij de port 50 procent minder belast, terwijl het werk ook efficiënter over de cores verdeeld wordt. Ook beschrijft Microsoft het verminderen van overhead door onder andere pipeline state objects op een uniforme wijze om te zetten in native instructies voor de hardware.

Overigens gebruikt Microsoft de slogan 'Closer to the metal' om de directe toegang tot de grafische chip aan te duiden. Dit is dezelfde leuze als AMD eerder gebruikte voor zijn Mantle-api, die vergelijkbare functionaliteit biedt. Eerder liet AMD al weten de komst van DirectX 12 graag tegemoet te zien, omdat de api's in lijn zouden liggen met de Mantle-visie van het bedrijf.

De eerste games die van DirectX 12 gebruikmaken, komen aan het einde van 2015 beschikbaar, verwacht Microsoft. Later dit jaar komt er al een preview-release beschikbaar.

Microsoft DirectX 12 presentatieMicrosoft DirectX 12 presentatieMicrosoft DirectX 12 presentatieMicrosoft DirectX 12 presentatieMicrosoft DirectX 12 presentatieMicrosoft DirectX 12 presentatieMicrosoft DirectX 12 presentatieMicrosoft DirectX 12 presentatie

Moderatie-faq Wijzig weergave

Reacties (196)

Ze laten het wel heel onduidelijk of Direct X 12 ongesteund gaat zijn in windows 7. Direct X 11.1 was windows 8 only. Ik hoop maar dat Direct X 12 op windows 7 gaat werken.
Als ze willen dat het gebruikt wordt door ontwikkelaars, zouden ze het best ook beschikbaar maken voor W7. Het marktaandeel van W8 is veel te laag om daar exlusief games voor te maken. En onder gamers is het dan waarschijnlijk nog lager dan gemiddeld. En als Dx12 zo radicaal verschilt van Dx11, zullen weinigen geneigd zijn om een spel op 2 verschillende manier te ontwikkelen...
Niet helemaal waar, op de gaming markt heeft Windows 8 een opvallend hoog marktaandeel tegenover de gewone markt. Het is zeker geen blunder om dan DirectX 12 only te ontwikkelen. Daarbij, eind 2015, dan zijn we de release van Windows Threshold ook alweer voorbij en kijken we misschien al uit naar de opvolger daarvan, als Microsoft daadwerkelijk nu mikt op lente-releases.
Eind 2015, dan is (volgens de geruchten) ook Windows 9 al uit. Mag verwachten dat tegen die tijd W8/W9 voldoende marktaandeel zullen hebben.
ik betwijfel het, als je ook ziet hoelang mensen nog op Win XP blijven

en nu vooral met de wat slechtere naam van Windows 8 en de goeie naam van Windows 7, verwacht ik dat vooral de pc's die er toe doen op Windows 7 blijven hangen

Nieuwe pc's worden verkocht met Win 8, maar hoeveel game pc's zitten daar tussen?
Dat weet ik niet, maar wanneer Windows 8.1/9 gewoon beter word om te gamen dan zal daar naar over worden gestapt. Windows 7 is dan toch ook alweer 5 jaar oud.
Niet mogelijk. Windows 7 mist een hele flats aan kernel features en mogelijkheden die in W8.1 wel zit.
En dan kan jij mij ongetwijfeld vertellen welke van deze kernel features nodig zijn voor Dx12? Zijn dat die voor een slechte GUI ofzo misschien?
Onder gamers is juist Win8 heel erg populair. Dat bewijst Steam toch wel. Als je een echte gamer bent gebruik je Win8 omdat deze net wat meer prestaties uit je pc perst.

Al 20% van gamers op Steam draait Win8.
http://thenextweb.com/ins...1-pass-20-adoption-steam/
Ik zou 20% nu niet als "erg populair" omschrijven. Er gaat geen enkele ontwikkelaar games maken die maar door 20% van de doelgroep gespeeld kunnen worden, tenzij W9 terug goed is en tegen dan makkelijk verkrijgbaar is.

Trouwens, een "echte gamer" heeft geen behoefte aan een tablet metro interface, en er is al lang vastgesteld dat W8 qua performantie identiek is aan W7.
heb nochtans veel gamers als vrienden en ben er zelf ook 1.
Niet 1 heb ik gehoord dat hij tevreden is met W8.
Er is er eigenlijk maar 1 meer over die echt nog W8 gebruikt omdat hij toch teveel PC's heeft en er dus wel een paar op stock heeft om W8 op te draaien.
En nee om echt te gamen is het tegenwoordig nog steeds via de Win7 machines.
Van alle andere waarvan ik weet dat ze W8 gekocht hebben, zijn allemaal terug naar Win7.
Hier en daar wel al eens iemand die terug denkt om, en ik quote "toch maar terug gaan naar W8 omdat het toch door ons strot geduwd zal worden, en we kunnen ons maar beter de korte pijn nemen."
En net over dat laatste ben ik het helemaal niet eens, MS is net heel hard bezig om die pijn te verkorten. Dus kan je beter zo lang mogelijk wachten.

en zoals tomba zegt 20% zou ik niet veel noemen. Ben zelfs verrast dat het er al zoveel zijn.
Om FF te quoten : "DirectX 12 moet efficiŽnter van gpu's gebruikmaken bij games, maar het is niet alleen bedoeld voor high-end gaming en niet alleen voor desktopvideokaarten, meldt Microsoft op zijn DirectX Developer Blog. "Direct3D 12 werkt op alle Microsoft-apparaten, van telefoons en tablets tot laptops en desktops.""

Fijn om te lezen dat ze ook XP hiermee gaan ondersteunen. :+ Tja, je hebt toch nog altijd 350 miljoen Chinese PC's, en het blijven onderdeel van "alle Microsoft apparaten". :Y) En 1,5 miljoen pinautomaten kunnen Direct3D 12 gebruiken voor flitsende 3D visuals. :P

Aangezien Windows XP en 8 ongeveer even veel gebruikers hebben in "het westen" op Steam (~150 miljoen dus), heeft Microsoft toch nog een markt van een half miljard XP gebruikers.
De kans dat die Chinese XP gebruikers geld gaan uitgeven aan games is natuurlijk wel minimaal :p
eigenlijk heb je al een antwoord... als 11.1 W8 only is... kan je moeilijk verwachten dan 12 W7 zal zijn...
Bijna zeker win8 only.
Windows 7 gebruikers kunnen updaten naar DirectX 11.1, DirectX 11.2 was wel Windows 8.1 only.
Wat betekent dit voor de PlayStation 4? Werkt de ps4 ook met DirectX, en gaat deze vanaf 2015 achterlopen op de Xbox one met DirectX12 of hoe zit dat precies?
Volgens mij werkt de PS4 met OpenGL.

Correct me if I'm wrong.
De PS4 werkt met een eigen API van Sony. Een low-level API, en daarop een 'wrapper API', zie ook http://www.eurogamer.net/...ndry-inside-playstation-4

[Reactie gewijzigd door Scalibq op 21 maart 2014 15:49]

Consoles hebben altijd al hun eigen graphics API's gehad. De PS3 had wel een pokke langzame implementatie van OpenGL ES.
Achterlopen is niet het juiste woord. De CPU houd nu per cycle meer tijd over, om andere zaken dus te kunnen gaan. Het is niet dat je performance dus omhoog gaat, maar de CPU kan dus extra randzaken in die cycle gaan doen die normaal dus vertraging zouden opleveren.

Denk daarbij aan meer power naar OS/side-stuff (zoals smartglass of dergelijke) of mogelijk wat betere AI mogelijkheden, maar dus niet aan '50% meer performance'.
Veel overhead op de CPU geeft veel latency en overhead op de GPU.
Als je GPU de helft van de tijd zit te wachten op de CPU ipv acties uitvoeren is wel meteen 50% meer performance uit de GPU.
DIrectX is Windows only gelukkig. Op de PS4 draait een variant van BSD :)
Volgens Microsoft gaat het om 100 procent van de videokaarten die momenteel verkocht worden en 80 procent van de game-pc's.

Betekent dit dat 20% van de 'game-PC's' geen videokaart hebben? In hoeverre zijn het dan game PC's?

Overigens ben ik bang dat DX12 Windows 9 exclusief wordt, net als met DX10/Vista destijds. Dat maakt het voor de ontwikkelaar die oudere systemen wil ondersteunen niet gemakkelijker.
Bedoelen ze hiermee dat de GTX780 die ik nu in mijn pc heb zitten die op direct X 11(.1?) aankan dadelijk ook dx12 aankan?
Bij de desktop krijgen alle AMD-videokaarten op basis van de Graphics Core Next-architectuur ondersteuning, terwijl het bij Nvidia om alle kaarten met DirectX 11-ondersteuning gaat. Volgens Microsoft gaat het om 100 procent van de videokaarten die momenteel verkocht worden en 80 procent van de game-pc's.
Maar betekend dat ook dat er geen Directx 12 kaarten op de markt komen, waar bepaalde features van directx 12 alleen in combinatie met deze kaarten werkt? Dat zal namelijk dan wel voor het eerst zijn, kijkend naar de 10.x en 11.x kaarten.
Ik vermoed van niet. Ik neem aan dat ze wel wat nieuwe features in de planning hebben, die alleen werken op kaarten die ergens rond die tijd op de markt komen.
Die zullen dan optioneel zijn in de DX12-API (net zoals DX11 op DX9-hardware kan werken, en de rest van de functionaliteit 'optioneel' is, zoals bv compute shaders of tessellation).
Komen geen features bij behalve de nieuwe low-level API's. Maar die zijn dus ontworpen voor de huidige generatie GPU's. En niet met het idee van "over 5 jaar of zo".
Dx12 is voornamelijk gewoon Dx opruimen en optimaliseren vergeleken met voorgangers.
Oh dat is wel fijn om te horen dan :)
Mijn videokaart ondersteunt ook DirectX 11.1, maar zodra ik DX11 features laat gebruiken dan loopt het allemaal niet zo vloeiend meer. Het wordt pas fijn om te horen als je leert dat het ook GOED werkt ;)
Wat voor kaart gebruik jij dan?, de GTX470 die ik hiervoor in mijn pc had hangen deed het prima met directX 11

[Reactie gewijzigd door SupremeRick op 21 maart 2014 16:18]

Volgens de press release van Nvidia kunnen alle DX11 GPU's ook DX12 draaien. NVIDIA will support the DX12 API on all the DX11-class GPUs it has shipped; these belong to the Fermi, Kepler and Maxwell architectural families.

Bij de AMD press release gaat het over alle kaarten die GCN (Graphics Core Next) ondersteunen
AMD revealed that it will support DirectXģ 12 on all AMD Radeon™ GPUs that feature the Graphics Core Next (GCN) architecture. (GCN is available on select AMD Radeon™ R7 series, R9 series and HD 7000 series graphics cards)

Hou er ook wel rekening mee dat compatibel niet hetzelfde wil zeggen als performant. Maar dit is pas een aankondiging, de eerste applicaties gokken ze pas op eind 2015. Maar je 780 kan wel nog een paar jaar mee en in tussentijd heb je mogelijks al een leuke upgraide? ;)

[Reactie gewijzigd door miklas op 21 maart 2014 15:55]

mezelf kennende wel ja.. :P maar ik hoop dat ik hier nog een lange tijd mee mag/kan doen dus ook met direct X 12 ik hoop dat ze nog steeds een boel meer performance uit de huidige generatie kaarten kunnen krijgen, met of zonder dx12
Nou ik denk niet dat de performance op gebied van CPU zo zal verschillen tussen de generaties of merken. Het is immers een API die vooral sleutelt aan CPU loads, met de GPU zelf gebeurt niet zoveel lijkt me. De featureset is ook niet veranderd namelijk.

[Reactie gewijzigd door Vayra op 21 maart 2014 17:28]

dat vraag ik me ook af

als je een 780 hebt zitten zal je hem wel niet direct verkopen voor een betere vermoed ik :-)
nee, sterker nog ik heb m nog niet zo lang geleden gekocht, dus ik hoop dat deze minimaal 2 jaar nog mee wil :)
Ja, zie ook de blog van nVidia over DX12: http://blogs.nvidia.com/blog/2014/03/20/directx-12/
Alle GPUs met Fermi of nieuwer ondersteunen DX12.
ah, cool dus vanaf de 4xx kaarten, top!
Als je windows 8 instaleerd werkt dat ja het zal namelijk net als bij versie 10 en 11 niet voor de nieuwe windows uitkomen.
Ik denk dat je Microsoft dankbaar mag zijn voor het nemen van risico's om de algemeen ingezette technologie juist voortwaarts te pushen i.p.v. stil te laten staan.

[Reactie gewijzigd door CoreIT op 21 maart 2014 15:25]

Dankbaar?

De soort verbeteringen waar ze nu met DX12 mee komen had jaren geleden al mogelijk geweest (zelfs Mantle loopt eigenlijk wat achter). De voornaamste verbeteringen zijn namelijk dat ze eindelijk eens gebruik gaan maken van meerdere cores en de data in bulk naar de GPU kunnen pushen (wat die enorme overhead geeft als je het niet doet).

En dat ze die DX versies dan ook nog eens alleen bij bepaalde windows versies laten werken.. Geef mij maar Mantle of de OpenGL implementatie van de zelfde verbeteringen maar. Hoef ik niet naar een brakke windows (8+) te upgraden.
De voornaamste verbeteringen zijn namelijk dat ze eindelijk eens gebruik gaan maken van meerdere cores
Dat kon in DX11 al.
en de data in bulk naar de GPU kunnen pushen (wat die enorme overhead geeft als je het niet doet).
Dat kon in DX10 al.

DX12 is vooral een logische stap in de evolutie: je kunt nu nog beter gebruik maken van meerdere cores, en de states van de GPU zijn nu nog minder ver onderverdeeld in aparte blokken.
Ben wel benieuwd hoe openGL nu is qua ondersteuning, vroeger speelde ik best veel games in openGL. De laatste jaren lijkt de ondersteuning echter erg afgenomen, tevens startte ik laatst voor de grap WoW nog eens in OpenGL op, nu is dit in DX11 modus natuurlijk al geen grafische hoogvlieger, maar in OpenGL leek het wel zo of OpenGL is blijven steken in 2007 zo slecht zag het er uit in vergelijking met de DirectX 11 modus van WoW.
Verouderde GPU's waarschijnlijk...
ze doelen op game PC's met een oudere videokaart (die niet meer verkocht wordt)
Valt me wel op dat de Xbox 360 specifiek niet wordt genoemd. Is daar dan alle ondersteuning al van afgelopen ?
Videokaart van de Xbox 360 is van voor DX11 dacht ik...
Dx9 met Dx 10/11 features. (tessellation etc.)
De tessellation in de XBox360 is een hele eenvoudige fixed-function variant, en is niet te vergelijken met de programmeerbare tessellation in DX11. Je kon wel met render-to-vertexbuffer het een en ander hacken aan programmeerbaarheid... maar het is niet bepaald hetzelfde.
Nee oke. Tessellation was snel voorbeeld, kon zo even niet op andere features komen die de 360 Dx9 wel heeft maar XP Dx9 niet.
Da's ook niet helemaal waar... want ook de desktop-GPUs van ATi hadden wel een vorm van tessellation.
De Radeon 8500 had dat zelfs al (DX8.1), in de vorm van TruForm: http://rastergrid.com/blo...of-hardware-tessellation/
Truform was geen onderdeel van DirectX en ATI only.
Unified shaders, geometry tessellation e.d zit wel in de 360 maar zit niet in Dx9.
Jawel, TruForm was onderdeel van DX, waar het bekend was onder de naam 'N-patches': http://msdn.microsoft.com...op/bb206314(v=vs.85).aspx
nVidia had een tegenhanger onder de naam 'RT-patches' in de GeForce3.
Unified shaders zijn een bepaald ontwerp van de GPU-architectuur, en hebben weinig met de API te maken.
Het is wel zo dat er geen unified shader GPUs voor DX9 waren, maar dat had wel gekund. (DX10+ kaarten hebben wel unified shaders, maar werken natuurlijk ook gewoon met DX9).

Maar inderdaad, de GPU in de 360 is een soort overgangsvorm tussen DX9 en DX10, en ook de API is dus iets uitgebreider dan de gewone DX9.

[Reactie gewijzigd door Scalibq op 21 maart 2014 18:38]

Ah, was inderdaad onder de indruk dat Truform gewoon een ATI kaart feature was. Moet ook zeggen dat ik het de laatste jaren ook vrij oppervlakkig bijgehouden heb, kudos voor de details :P
Nee, ook Matrox heeft het geimplementeerd in hun Parhelia, destijds. Zij noemden het alleen geen TruForm of N-patches, maar hadden het gewoon over 'displacement mapping': http://www.anandtech.com/show/911/6
bestaat matrox eigenlijk nog?
Ja, en de kaarten die ze verkopen zijn nog steeds gebaseerd op de Parhelia-architectuur :)
Ze zijn nu gespecialiseerd in multi-head oplossingen, en professionele displays voor medische toepassingen en dergelijke.
Van voor DX10 zelfs...
De xbox 360 heeft een bijna 9 jaar oude GPU, die geen onderdeel is van de GCN AMD architectuur. Vandaar dat de xbox 360 niet genoemd wordt. De GPU is simpelweg verouderd, van een totaal andere generatie.
Op de 360 hebben developers waarschijnlijk al meer lowlevel acces dan ooit met dx12 gaat gebeuren.
De 360 gebruikt DirectX 9 dacht ik de hardware is veelte oud voor een hogere versie.
Is die dan ook voor windows 7 of alleen 8? (anders juich ik alleen mantle toe)
was DX11 voor Vista NEE
Ja, DX11 werkt wel degelijk op Vista: http://www.dailytech.com/...m+Update/article16582.htm
Niets forceren. Microsoft moet de kernel van de oudere OSen zodanig aanpassen dat het de nieuwe OS word. De oudere kernels ondersteunen het gewoon niet.
Niets forceren. Microsoft moet de kernel van de oudere OSen zodanig aanpassen dat het de nieuwe OS word. De oudere kernels ondersteunen het gewoon niet.
Windows 8 werkt anders nog steeds op dezelfde NT 6 kernel, zij het een iets doorontwikkelde variant. Maar volgens mij is er niet echt een reden dat het niet zou kunnen werken op Windows 7.
directX zit niet in de kernel.

daarbij werkt mantle wel op windows 7, dus onoverkomelijke problemen voor een low-level- api zijn er duidelijk niet.
directX zit niet in de kernel.
Ja en nee.
Het display drivermodel van Windows (WDDM) bevat een low-level Direct3D-interface, waar de Direct3D-runtime tegenaan praat.
Voor een update aan WDDM moet dus ook de kernel een update krijgen.
Voor D3D11.2 moet je bv WDDM 1.3 hebben, en alleen Windows 8.1 ondersteunt dat (er zaten wat vrij ingrijpende wijzigingen in qua geheugenmanagement oa: http://en.wikipedia.org/w...lay_Driver_Model#WDDM_1.3).

Voor andere APIs zoals Mantle of OpenGL geldt dit natuurlijk niet: die werken buiten WDDM om, en hebben hun eigen driver-interface.
Een simpelere optie is de nieuwe OS aanbieden met een oud thema.
Dus windows 8 met een windows 7 vista en xp thema en iedereen ie gelukkig...
Geef ze eens ongelijk om eerlijk te zijn; het is gewoon goede business en je kunt het ook nog eens wegpraten als "technische beperkingen".
Helemaal waar, maar de meeste mensen werken niet voor Microsoft en hun belangen zijn dus niet dezelfde belangen als die van Microsoft. Dat Microsoft er beter van wordt heb ik niets aan als het mij als consument dwarszit.
11.2 was afaik Win8.1 only, want denk je zelf? :P
Kan iemand mij vertellen of mijn Lenovo Y510P met NVIDIA Geforce GT755M dit ook gaat ondersteunen? Ben reuze benieuwd!
Het is een DirectX11 kaart en de nieuwste serie van Nvidia dus ik zeg JA!
Zolang je windows 8 instaleerd wel.
Die zat er al standaard op. De laptop is nu een half jaar oud ongeveer.
ondersteunen? ja.. vlot kunnen draaien? twijfel geval
DirectX 12 is juist bedoelt voor hardware vlotter overweg te kunnen laten gaan dan DX11.
Dit is echt een hele goede zet dat op de huidige DX11 GPU's ook straks DX12 uitkomt. Dat zal wat kunnen betekenen voor de boosts die de high-end generatie op dit moment voor dat jaar dan krijgen. Ook is het daarnaast goed voor de mensen die nu een high-end PC kopen en er dan op dit moment niet bij stil staan van. Ik koop nu een high-end videokaart ala 500 euro, maar over 1.5, 2 jaar moet ik alweer een nieuwe kopen wil ik DX12 hebben, dus koop je er maar 1 van 200 euro zeg maar. Ik vind dit zeer goed en zeker voor de nieuwere high-end generatie zorgt dit niet voor een stop in de vekroop van de GPU's!
En niet te vergeten de adoptie door ontwikkelaars. Waarom een game ontwikkelen voor een DX versie waarvoor 99% van de doelgroep de hardware nog niet heeft? Dat probleem is meteen weggenomen :D
Meer dan anderhalf jaar wachten dus. Zoals gewoonlijk loopt MS weer eens achter de feiten aan.

Willen jullie meer of minder cpu belasting?

Minder! Minder! Minder!
Ik denk dat je blij moet zijn dat het er aan komt, zo'n framework maken kost tijd en geld.. natuurlijk wil een bedrijf als microsoft alle beetjes geld uit het laatste framework slepen maar, er zit dus nog vooruitgang in en dus word het nog steeds beter.

Kun jij een framework opnoemen dat meer gebruikt word als directX?
ik niet!

OpenGL is opzich ook wel goed opweg om een betrouwbaar framework te worden, dat is het eigenlijk al alleen het directX framework is dus nog steeds het meest uitgebreide en misschien wel het makkelijkst te gebruiken framework, correct me if i'm wrong :)
Ik denk wel dat OpenGL meer gebruikt wordt dan DirectX, behalve dan voor Windows games, wat inderdaad een prominente markt is. Maar eigenlijk alle mobile games (Android en iOS) draaien op OpenGL. Games die draaien op Mac OS X en Linux, en zelfs sommige Windows games (zoals alle games draaiend op idTech engines) draaien puur op OpenGL. Embedded systemen die een beetje fancy graphics hebben draaien doorgaans ook op OpenGL, vaak bovenop Embedded Linux of QNX. Bovendien worden professionele applicaties zoals CAD software ook praktisch uitsluitend met OpenGL gemaakt.

Wat betreft meest uitgebreide gaat OpenGL het op zeker winnen van DirectX. OpenGL draait op veel meer platforms (alle versies van Windows, dus geen restricties zoals DirectX 11.2 wat alleen op Windows 8.1 werkt, Mac OS X, Linux, SteamOS, Android, iOS, BlackBerry, etc..) en biedt extensies waarmee je specifieke functies van videokaarten kunt benaderen. Bovendien loopt OpenGL wat betreft features de laatste tijd ook weer voor op DirectX. De meeste mogelijkheden tot optimalisatie die Mantle biedt, en die straks ook DirectX 12 gaat bieden, zijn vandaag de dag ook al mogelijk middels OpenGL, zie bijvoorbeeld: http://blogs.nvidia.com/blog/2014/03/20/opengl-gdc2014/

Wat betreft makkelijkst te gebruiken zou je misschien wel gelijk kunnen hebben, al wordt dat natuurlijk ook voor een groot deel bepaald door wat je al kent en gewend bent (bijvoorbeeld, op de Leidsche Universiteit maakt OpenGL standaard onderdeel uit van het vak Computer Graphics, wat ik toendertijd ook gevolgd heb).

Edit: Nog een kleine aanvulling op de multiplatform support van OpenGL, behalve alle platforms die OpenGL native supporten is het tegenwoordig zelfs in de webbrowser te gebruiken middels WebGL, iets waar zowel Unreal Engine 4 als de Unity engine gebruik van beginnen te maken: bron, bron

[Reactie gewijzigd door arendjr op 21 maart 2014 16:05]

Misschien ook wel, als je gaat kijken naar andere besturing systemen die opkomend zijn kwa gamen zoals linux en mac os. waarschijnlijk word openGL groter en beter dan het nu al is puur en alleen al omdat er dadelijk meer vraag naar is.
DirectX wordt niet perse gebruikt om dat het 'beter' is, maar om dat het default is en Windows-only is, en veel hoge scholen Windows-les geven in plaats van programmeer-les, waarna je dus vooral software engineers hebt die met DirectX kunnen werken.

Waarschijnlijk wordt OpenGL meer gebruikt als je kijkt naar alle grafische gebruiken, bijvoorbeeld ook STB's, telefoons, embedded systemen enz. OpenGL draait overal, DirectX bijna nergens (alleen op Windows).


Edit voor de mensen hieronder:

Ik heb nooit gezegd dat DirectX slecht is, maar dat het niet absoluut gebruikt wordt om dat het beter is. Ja, soms gebruik je graag een superieure API als je project daar geen probleem mee heeft, maar het is niet 'beter' als je een multiplatform applicatie maakt en geen bestaande multiplatform engine kan gebruiken. Dan moet je namelijk altijd DirectX voor Windows implementeren, en OpenGL voor de rest. Dan kan je bijna beter gewoon OpenGL overal gebruiken.

Als DirectX FOSS zou worden was het misschien de beste keuze, maar met een vendor lock-in is een bepaalde API gewoon altijd een slechtere keuze om dat je je vrijheid gewoon weggeeft en dan ook nog eens op z'n best een black box terug krijgt.

[Reactie gewijzigd door johnkeates op 21 maart 2014 17:36]

DirectX wordt niet perse gebruikt om dat het 'beter' is, maar om dat het default is en Windows-only is
Denk je dat echt?
Ik las van de week nog dit (http://www.pouet.net/topic.php?which=9840):
as i always point out when this kind of debate comes up - the choice of api from an ease of use perspective is almost irrelevant after a couple of weeks of boilerplate work, because youll have wrapped it all anyway.
what does matter is - the portabilty/compatibility/performance (delete as appropriate based on what you care about).. and most of all the shading language and quality of the shader compiler. because doing graphics / demos you'll be writing shaders constantly from day 1 onwards.

in that last aspect - the shading language and compiler - dx11 wins against everything hands down imo. (having worked with various)
Dit is dus afkomstig van Smash, alias Matt Swoboda, die oa ook bij Sony heeft gewerkt.
Game developers vinden DirectX dus wel degelijk de superieure API. Zelfs als ze bij 'de concurrent' hebben gewerkt.

Het argument gaat eerder op voor OpenGL: developers gebruiken dat omdat er geen keus is op non-Windows platforms.

[Reactie gewijzigd door Scalibq op 21 maart 2014 16:02]

Dan zou MS DirectX moeten implementeren op andere platforms dan alleen Windows. OpenGL is beschikbaar op Windows alsook die andere platforms.
Niet noodzakelijk MS. Een third-party zou dat ook kunnen (denk aan Wine, SwiftShader, MacDX). Een API valt niet onder copyright (weten ook Google en Oracle... Android gebruikt grote delen van de Java API in Dalvik: http://en.wikipedia.org/wiki/Oracle_v._Google).

[Reactie gewijzigd door Scalibq op 21 maart 2014 22:45]

MS moet niks en handel in eigen belang niet in dat van concurenten.
Zoals hier iedereen induvidueel ook grotendeels doet.

MS betaald werknemers voor software te maken voor hun eigen platformen uiteraard.
Oa. John Carmack heeft in het verleden al herhaaldelijk gezegd dat DirectX gewoon de betere API is.
Maar de markt wil OpenGL, vanwege dat steeds minder apparaten in verhouding op Windows draaien...

Denk aan Browsers, Tablets, Telefoons, Embedded systemen op Linux die vaak nu graag een QT applicatie draaien op basis van OpenGL en ga zo maar door.
Maar de markt wil OpenGL, vanwege dat steeds minder apparaten in verhouding op Windows draaien...
De markt wil gewoon goede graphics, goede performance en betrouwbare software.
Het interesseert ze niets welk OS, welke drivers of welke API, als het maar werkt, en liefst niet te duur is.
Volgens Carmack is het voor linux zelfs aan te raden om een Wine-achtige oplossing te gebruiken: http://www.guru3d.com/new...form_for_video_games.html
Eventueel met extensies in OpenGL om D3D-code makkelijker te kunnen porten.
Ik was vroegah altijd zo'n OpenGL fan (zeg 10 jaar geleden). Zelfs al werkten games zogenaamd beter in DX, dan nog ging ik voor OGL. Want, zo vond ik, zonder visueel bewijs, veel mooier.
Ok, soms, vooral in iD games, maar ook in UT leek belichting meer saturation in kleur te hebben. Dat vond ik mooi.

DX proggen heb ik nooit geleerd, maar OGL in BC++ was echt goed te doen.

Maar, inmiddels lijkt voor mij OGL van de horizon verdwenen. Ik zie het niet meer in games.
Altijd DX.
Zelfs je hardware prijkt met "nu met DX11.x".

Mantle is misschien wel een mooie tegenhanger, maar het lijkt me niet dat dit ondersteund zal gaan worden door NV of Intel. Zowel/dan niet vanuit AMD.
Ik bedoel, het lijkt mij geen multi-GPU-vendor api worden. Te laat.
De aloude OpenGL VS Direct3D vergelijkingen... ze sloegen toen nergens op en nu nog steeds niet. Je kunt denken dat ze een verschil maken, maar het was nog steeds dezelfde videokaart die het werk deed. OpenGL en Direct3D zijn maar APIs, het zijn geen wondermiddelen die spontaan mooiere graphics produceren. Dat ligt toch echt aan hoe de programmeur de API toepast (en wellicht een stukje aan de video drivers).
Dat vind ik toch wel echt iets te simpel gesteld. Hoewel het inderdaad geen wondermiddelen zijn, kan de API wel degelijk invloed hebben op de performance. Anders zou AMD ook nooit Mantle geintroduceerd hebben, en anders zou Microsoft ook nooit een DirectX 12 uitbrengen om de overhead van DirectX 11 terug te dringen. Sommige APIs zijn simpelweg flexibeler en/of bieden meer directe toegang waardoor de programmeur meer vrijheid krijgt en beter kan optimaliseren.
Ik had zeker bij de oudere ( dx 6 ) het gevoel dat openGL vaak beter ondersteund werd door de kaart. en daardoor beter werkte en zag het er beter uit.

Het hangt dus wel af van wat de videokaart ondersteund.
Klopt (zoals ik al aangaf: subjectief), maar OGL was wel platformonafhankelijk ;)
maar OGL was wel platformonafhankelijk
Dat zou DirectX ook kunnen zijn als iemand de moeite zou nemen het te implementeren voor andere platforms. Zoals ze wel met OpenGL doen.

De Linux community moet niet zeuren, ze moeten DirectX (gelijke) API implementeren. Dat is best mogelijk. Maar het is natuurlijk makkelijker om aan OpenGL vast te blijven houden en klagen richting Microsoft en de game producenten.
ehhhh...
Volgens mij is dat nite te doen. Microsoft heeft in veel gevallen als strategie om de standaard te maken (denk aan office documenten, silverlight, nog een paar andere en vergelijkbare dingen) om deze daarna als enige fatsoenlijk te kunnen ondersteunen omdat ze de standaard gewoon niet vrijgeven (zoals bij dx).

zie ook : http://keithcu.com/SoftwareWars.pdf#235
vooral het mailtje van bill gates is amusant, er word helaas niks in gezegt over directX

edit: linkje

[Reactie gewijzigd door failsnail op 21 maart 2014 18:47]

Wat is er niet vrijgegeven aan DX dan? Het is gewoon een API, en die is gewoon gedocumenteerd (nogal logisch, anders kan niemand er tegen programmeren).
Er zijn dan ook diverse alternatieve implementaties geweest, zoals bv SwiftShader en MacDX.
De taal achter directx is natuurlijk goed gedocumenteerd, en zo kan je de functies waarschijnlijk goed reconstrueren. Het probleem is dat je niet weet wat er met de code gebeurt als je het compileert, zo word het ineens moeilijk om de code die voor windows gecompileerd is op een zelfgemaakte api te laten werken. Wine is de bekendste implementatie, je kan hier dan ook veel directx/windows spellen mee spelen op een linux/mac systeem. De voorbeelden die jij aanhaalde lijken net iets anders te zijn: deze programmas gebruiken kennis van de libraries en de ongecompileerde code om nieuwe code te maken. Het is niet meer dan een versimpelde manier van porten. Bovendien kan dit ook voor linux: winelib. Al deze programmas werken zeker niet foutloos, op dit moment is de enige manier om je shaders ed. fatsoenlijk te porten is of te herschrijven naar opengl, of al vanaf het begin opengl gebruiken.
Het grote probleem met Wine is niet de D3D-API zelf, die is vrij simpel.
Het probleem is dat Wine het vertaalt naar OpenGL. Als je een systeem hebt met drivers die direct D3D-commando's begrijpen, zoals onder Windows, dan wordt het veel makkelijker.
Gallium3D is hier ook mee bezig geweest.
Dat DX ook op niet-MS platforms zou kunnen werken klopt misschien wel, maar dat zal natuurlijk nooit gebeuren, en dit nieuwsartikel onderstreept dat ook nog eens even heel duidelijk.
Als mantle een verschil zou kunnen maken zoals 3DFX's glide in de 90's, kan het een knaller worden. Maar met de visuele effecten van nu lijkt me dat geen makkie.
PS4 draait op OGL
Wel gebaseerd op OpenGL :P
Nee hoor, hoe kom je daarbij?
OpenGL is nou niet bepaald een low-level API.
Naja het begon ooit als eigen gecustomizede versie van OpenGL 1.0.
Zal wel weinig van overgebleven zijn ondertussen :P
Volgens mij verwar je de PS4 met de PS3.
Verder heb je het dan nog achterstevoren: de PS3 had ook een eigen low-level API, bekend als LibGCM. Daarbovenop was een OpenGL ES 1.0 wrapper geimplementeerd, en dan weer extensies van nVidia om shaders mogelijk te maken en dergelijke.
Maar de meeste software werkte direct met LibGCM.
Heeft er ook niet veel van weg, zit wel beetje in die tak was het punt een beetje :P Dat je vast wel wat OpenGL code tegenkomt in Sony's eigen API.
Helemaal niet, lijkt me.
OpenGL is een enorme lelijke legacy-API geworden door de jaren. Dat wil je helemaal niet gebruiken, de meeste dingen in OpenGL hebben helemaal geen nut voor moderne hardware, dus een slechte basis.
PS4 zal meer op Mantle en DX12 lijken. Een dunne abstractielaag over de hardware.

[Reactie gewijzigd door Scalibq op 21 maart 2014 18:25]

Als basis begonnen ze ooit met OpenGL 1.0. Ken de code verder niet, zal idd vrij weinig of zelfs vrijwel niets meer van OpenGL overgebleven zijn.
Nee, ze zijn niet begonnen met OpenGL, waar haal je dat vandaan?
Waarom zou je een console als de PS4 beginnen met een API uit het jaar kruik?
Ik verwacht eigenlijk dat met mantle over een tijdje dx wellicht op de tweede plaats komt tenzij ze mantle soort van in dx12 gaan verweven of op een bepaalde manier implementeren.
Zodra de nvidia kaarten ook ondersteund worden heeft mantle enorm groot potentieel om dx overbodig te maken.
Microsoft loopt juist niet achter de feiten aan. Ze geven een nieuwe Direct X versie uit met nieuwe API's welke gamedevelopers kunnen verwerken in hun games, dat die games vervolgens pas in 2015 uit komen ligt niet aan Microsoft.
Microsoft loopt juist niet achter de feiten aan
Ze lopen achter de feiten aan in de zin dat DX12 met deze functies veel te laat komt, zeker omdat het waarschijnlijk allang mogelijk was

het lijkt er ook op dat ze het pas aankondigde toen Mantle uit was gekomen

uiteraard werken ze er al veel langer aan, maar het is volgens mij wel duidelijk dat ze er opeens haast achter hebben gezet
het lijkt er ook op dat ze het pas aankondigde toen Mantle uit was gekomen
Daar lijkt het misschien op, maar dat kan natuurlijk niet.
Microsoft en nVidia hebben namelijk twee werkende demonstraties gegeven met D3D12.
Dat betekent dus dat de API al in een vergevorderd stadium is, en dat er al werkende drivers zijn, ook al zijn ze nog in een alpha of beta-stadium. Mantle is niet veel verder dan dat.
Zoals nVidia ook al zegt in hun blog: ze werken al jaren aan lagere CPU-overhead. Dat is ook te zien doordat nVIdia al jaren OpenGL-extensies daarvoor uitbrengt. Diezelfde technologie zullen ze intern met Microsoft ook wel besproken hebben voor DX12.
En nVidia zegt ook dat ze het laatste jaar samen met MS bezig zijn geweest aan de implementatie... en die is nu dus klaar om gedemonstreerd te worden. Het was waarschijnlijk dus al lang van tevoren gepland om een DX12-demonstratie te geven op GDC.
Ze kunnen nooit op zo'n korte termijn de API specificeren, drivers maken, en dan 3DMark en Forza porten naar de nieuwe API.
Dat moet vele maanden van tevoren al gepland zijn.... En AMD kwam pas rond september 2013 voor het eerst met publieke info over Mantle.
http://blogs.nvidia.com/blog/2014/03/20/directx-12/
En AMD kwam pas rond september 2013 voor het eerst met publieke info over Mantle.
en jij gelooft echt dat dat het eerste moment is waarop microsoft over mantle hoorde?

die is grappig.
Mantle is niet veel verder dan dat.
een console port en een benchmark is nu niet bepaald het zelfde als 2 volwaardige games nu beschikbaar, en 3 engines en 20+ games onderweg dit jaar.
en jij gelooft echt dat dat het eerste moment is waarop microsoft over mantle hoorde?

die is grappig.
Dat zeg ik niet, maar er is nogal een verschil tussen 'horen over Mantle', en genoeg informatie hebben om een nieuwe versie van D3D te ontwikkelen op basis van Mantle. AMD weet zelf pas een aantal maanden hoe Mantle er nou precies uitziet.

Daarnaast, vind je het niet ietwat vreemd dat DX12 blijkbaar op veel oudere nVidia-kaarten werkt dan dat bij AMD het geval is?
En dat uitgerekend nVidia met de eerste demonstratie-drivers komt, en niet AMD, die toch al Mantle hebben?
Lijken me toch wel indicaties dat het eerder AMD is die het een en ander van nVidia/DX12 heeft 'geleend' voor Mantle dan andersom.
een console port en een benchmark is nu niet bepaald het zelfde als 2 volwaardige games nu beschikbaar
Nee? Is allebei twee engines (en BF4 en Thief vallen ook onder de categorie 'console port').
En ik heb genoeg klachten gehoord van mensen over de drivers, dus zo volwassen is Mantle niet.

[Reactie gewijzigd door Scalibq op 22 maart 2014 12:52]

Nee? Is allebei twee engines (en BF4 en Thief vallen ook onder de categorie 'console port').
niet bepaald. BF4 zeker is vooral gemaakt voor de PC en beide games hebben een bestaande PC versie, waar forsa alleen voor de xbox beschikbaar is, en de gebruikte demonstratie is NIET beschikbaar voor het publiek.
Daarnaast, vind je het niet ietwat vreemd dat DX12 blijkbaar op veel oudere nVidia-kaarten werkt dan dat bij AMD het geval is?
nee totaal niet. alle nvidia kaarten waar het op werkt lijken enorm veel op de huidige kaarten van nvidia (fermi based), en precies het zelfde bij AMD (GCN).
Lijken me toch wel indicaties dat het eerder AMD is die het een en ander van nVidia/DX12 heeft 'geleend' voor Mantle dan andersom.
ongefundeerde speculatie om aan je anti-amd jeuk te kunnen krabben.

[Reactie gewijzigd door Countess op 22 maart 2014 14:28]

niet bepaald. BF4 zeker is vooral gemaakt voor de PC
Dat is jouw mening. Ik vind BF4 nogal lightweight voor een moderne PC (niet bepaald een Crysis), en het verschil met de console-versies is ook niet bepaald dramatisch.
Ik vind het dus een console-port waarbij de PC-versie nog wat gepimpt is.
en beide games hebben een bestaande PC versie, waar forsa alleen voor de xbox beschikbaar is, en de gebruikte demonstratie is NIET beschikbaar voor het publiek.
Is dat een criterium dan?
Ik dacht dat we het hadden over het aantal engines/games/whatever dat draaide op een bepaalde API. Forza draait wel degelijk op DX12. Dat ie niet beschikbaar is voor het publiek lijkt me nogal logisch, aangezien DX12 sowieso pas over anderhalf jaar uitkomt.
nee totaal niet. alle nvidia kaarten waar het op werkt lijken enorm veel op de huidige kaarten van nvidia (fermi based), en precies het zelfde bij AMD (GCN).
Ja, maar Fermi is 2 jaar ouder dan GCN (en daarbij is GCN nogal afgekeken van de SIMD-architecturen van nVidia).
Het verhaal van nVidia klopt dus gewoon: 4 jaar geleden kwamen ze met Fermi. En je kunt ook OpenGL-extensies terugvinden uit 2009 die met bindless resources en andere dingen qua CPU-overhead bezig zijn, zoals deze: http://developer.download...als/bindless_graphics.pdf
Dingen die je nu ook terugvindt in DX12 en Mantle.
4 jaar geleden had AMD nog niet eens een DX12-compatible GPU.
Dat zijn allemaal feiten, mee eens?

Het heeft er dus alle schijn van dat DX12 vooral iets is tussen Microsoft en nVidia, en dat AMD daarop de GCN-weg is in geslagen, en uiteindelijk hun eigen 'DX12' als Mantle hebben uitgebracht, waarbij ze geinspireerd zijn door de architectuur en extensies van nVidia (en hoogstwaarschijnlijk ook interne info over DX12, want AMD was daar ook bij).

Vind je het dan ook niet vreemd dat DX12 op nVidia-hardware en drivers getoond wordt? Als het allemaal van AMD af komt, en gebaseerd zou zijn van Mantle, zou het dan niet logischer zijn dat een eerste demo op AMD-hardware is, met AMD drivers? AMD zou dan immers een grote voorsprong gehad moeten hebben op nVidia.

[Reactie gewijzigd door Scalibq op 22 maart 2014 15:03]

Dat zijn allemaal feiten, mee eens?
er zitten feiten tussen, maar jouw interpretatie daarvan is echter nogal gekleurd en ongefundeerd.
Forza draait wel degelijk op DX12.
ja met een titan kaart van 1000 euro, om een console met een video kaart die op de PC zeg 120 euro zou kosten te evenaren.

ik ben dus nog niet echt onder de indruk. ("console level performance" mijn kont.
Als het allemaal van AMD af komt,
dat was niet mijn claim maar die van iemand anders.
er zitten feiten tussen, maar jouw interpretatie daarvan is echter nogal gekleurd en ongefundeerd.
Care to elaborate?
Ja, maar Fermi is 2 jaar ouder dan GCN (en daarbij is GCN nogal afgekeken van de SIMD-architecturen van nVidia).
Het verhaal van nVidia klopt dus gewoon: 4 jaar geleden kwamen ze met Fermi. En je kunt ook OpenGL-extensies terugvinden uit 2009 die met bindless resources en andere dingen qua CPU-overhead bezig zijn, zoals deze: http://developer.download...als/bindless_graphics.pdf
Dingen die je nu ook terugvindt in DX12 en Mantle.
4 jaar geleden had AMD nog niet eens een DX12-compatible GPU.
Dat zijn allemaal feiten, mee eens?
Waar zit uberhaupt een 'interpretatie' van mij? Laat staan dat die gekleurd of ongefundeerd is? Dit *zijn* toch gewoon feiten:
- Introductiedatum Fermi
- Introductiedatum GCN
- Introductiedatum OpenGL extensies van nVidia voor lagere CPU-overhead
- Gebruik van low-level concepten om CPU-overhead te verlagen in Mantle en DX12
- GCN stapt over van VLIW op SIMD-architectuur
- nVidia gebruikt al sinds de 8800 een SIMD-architectuur

Meer zeg ik niet.
ja met een titan kaart van 1000 euro, om een console met een video kaart die op de PC zeg 120 euro zou kosten te evenaren.
Heb je daar een bron voor? Ik heb nergens specs gezien van de gebruikte CPU en GPU.
dat was niet mijn claim maar die van iemand anders.
Een claim die jij al maandenlang keihard aan het verdedigen bent.
Maar er komt steeds meer informatie naar boven die het een en ander nuanceert, zoals je ziet.

[Reactie gewijzigd door Scalibq op 22 maart 2014 15:14]

Heb je daar een bron voor? Ik heb nergens specs gezien van de gebruikte CPU en GPU.
http://wccftech.com/forza-5-demo-directx-12-titan-black-pc/

en hier de link op nvidia's eigen site.
Gosalia demonstrated the new API with a tech demo of the Xbox One racing game Forza running on a PC powered by an NVIDIA GeForce Titan Black.
http://blogs.nvidia.com/blog/2014/03/20/directx-12/
Een claim die jij al maandenlang keihard aan het verdedigen bent.
Maar er komt steeds meer informatie naar boven die het een en ander nuanceert, zoals je ziet.
heb ik nooit gezegd.

JIJ was de gene die er op bleef hammeren dat een low level API NIET KON op zo'n manier dat hij zou werken op nvidia en AMD. dat er geen mogelijkheid van dat mantle ook zou werken op nvidia hardware. en nu is er dx12 die precies dat doet, en dat is ineens de best thing since sliced bread.
Waar zit uberhaupt een 'interpretatie' van mij? Laat staan dat die gekleurd of ongefundeerd is? Dit *zijn* toch gewoon feiten:
voornamelijk in het feit dat je denk dat deze dingen er iets mee te maken hebben of er iets over zeggen
- Introductiedatum Fermi
- Introductiedatum GCN
feiten ja, maar die hebben er niks mee van doen. je doet net alsof GCN er alleen is gekomen om dx12 te ondersteunen.
- Gebruik van low-level concepten om CPU-overhead te verlagen in Mantle en DX12
speculatie. er zijn maar zo veel manieren waarop je overhead kan verminderen en een low-level API is dan de meest logische.
- GCN stapt over van VLIW op SIMD-architectuur
opnieuw, irrelevant voor deze discussie. GCN is niet gemaakt vanwegen dx12. er is voor GCN gekozen ivm het HSA.
- nVidia gebruikt al sinds de 8800 een SIMD-architectuur
compleet irrelevant voor deze discussie, ook omdat die nvidia de 8800 niet gaat ondersteunen op dx12.

je haalt allemaal dingen aan om, hoogst speculatief en, ongefundeerd redenen en claimt dan dat dat kei hard bewijs zou zijn dat we dit alles aan nvidia te danken zouden hebben dat AMD alles gejat MOET hebben.

[Reactie gewijzigd door Countess op 22 maart 2014 15:39]

Heb je daar een bron voor? Ik heb nergens specs gezien van de gebruikte CPU en GPU.
http://wccftech.com/forza-5-demo-directx-12-titan-black-pc/

en hier de link op nvidia's eigen site.

Gosalia demonstrated the new API with a tech demo of the Xbox One racing game Forza running on a PC powered by an NVIDIA GeForce Titan Black.
http://blogs.nvidia.com/blog/2014/03/20/directx-12/
Maar de CPU?
Dat ze een high-end GPU gebruiken om CPU-overhead aan te tonen, lijkt me logisch. Hoe sneller de GPU, hoe moeilijker de CPU het krijgt. Dat zie je bij Mantle ook: beste resultaten met de snelste GPUs, en de traagste CPUs. Niet vreemd dat MS/nVidia een vergelijkbare opstelling demonstreren om een vergelijkbaar resultaat te laten zien.
JIJ was de gene die er op bleef hammeren dat een low level API NIET KON op zo'n manier dat hij zou werken op nvidia en AMD.
Dat heb ik nooit gezegd. Ik heb alleen gezegd dat als je echt een lowlevel API hebt voor een bepaalde GPU (zoals console-APIs, waarbij je direct in de pushbuffers van een GPU kunt hannessen... wat ook AMD's eerste claims waren: dat Mantle als lowlevel API op XBox One en PS4 gebruikt zou worden), dat andere GPUs dat niet zo efficient zouden ondersteunen.
DX12 en OpenGL zijn dan ook niet zo lowlevel als dat. Het is vooral zo dat er direct pointers vanuit de driver aan de applicatie blootgegeven worden, zodat er geen extra lookup in de driver gedaan hoeft te worden, wat dus weer cache-misses scheelt.
je doet net alsof GCN er alleen is gekomen om dx12 te ondersteunen.
Nee, GCN was ook nodig voor betere OpenCL/DirectCompute-performance. Maar het is wel opvallend dat oudere architecturen geen DX12 of Mantle ondersteunen, en bij nVidia wel.
speculatie. er zijn maar zo veel manieren waarop je operhead kan verminderen en een low-level API is dan de meest logische.
Nee, dat is geen speculatie. Dat is een *feit*. Evenals dat het een *feit* is dat nVidia al in 2009 met OpenGL-extensies daarvoor kwam. Lang voor GCN, en lang voor Mantle.
compleet irrelevant voor deze discussie, ook omdat die 8800 niet eens ondersteund worden door dx12.
Nee, jij trekt het uit z'n verband. Het verband is: nVidia gebruikt al heel lang SIMD. AMD is dat sinds GCN gaan doen, en dat heeft geleid tot veel betere performance in OpenCL en DirectCompute (standaarden gebaseerd op de technologie van de 8800 en Cuda).
Tot zover een feit.
En nu blijkt dus ook dat alleen GCN Mantle en DX12 ondersteunt. Dus misschien zijn er meer redenen geweest om over te stappen op een meer nVidia-achtige architectuur dan alleen GPGPU, dat is speculatie, maar niet ongefundeerd.
kei hard bewijs zou zijn dat we dit alles aan nvidia te danken zouden hebben dat AMD alles gejat MOET hebben.
Dat zeg ik niet. Er zijn wel genoeg mensen die keihard het omgekeerde hebben geclaimd, dus ik stip wat feiten aan ter nuance.

[Reactie gewijzigd door Scalibq op 22 maart 2014 15:51]

Dat heb ik nooit gezegd. Ik heb alleen gezegd dat als je echt een lowlevel API hebt voor een bepaalde GPU (zoals console-APIs, waarbij je direct in de pushbuffers van een GPU kunt hannessen), dat andere GPUs dat niet zo efficient zouden ondersteunen.
o god jij hebt ECHT een slecht geheugen. jij BLEEF volhouden dat mantle zo'n low level API MOEST zijn, zelfs nadat ik herhaaldelijk had aangetoond dat mantle NIET on-the-metal, maar CLOSE to metal werkte. dat er nog steeds een abstractie laag aanwezig was (abstracite-laag, gaat je daar iets bij dagen misschien?). maar jij bleef maar volhouden van niet.
dat Mantle als lowlevel API op XBox One en PS4 gebruikt zou worden)
nee, ze gebruikte precies de zelfde claim die microsoft nu maakt over dx12: console-LIKE API/performance.
Nee, GCN was ook nodig voor betere OpenCL/DirectCompute-performance. Maar het is wel opvallend dat oudere architecturen geen DX12 of Mantle ondersteunen, en bij nVidia wel.
AMD gaat het niet ondersteunen, dat is niet het zelfde als dat het niet kan.
Nee, dat is geen speculatie. Dat is een *feit*. Evenals dat het een *feit* is dat nVidia al in 2009 met OpenGL-extensies daarvoor kwam. Lang voor GCN, en lang voor Mantle.
feit ja, maar jouw ongefundeerde conclusie en speculatie is dat daarom AMD heel mantle van nvidia heeft gejat moet hebben op basis van een paar extensies.

dit bedoel ik dus, je noemt feiten, maar verbind daar speculatieve en ongefundeerde conclusies aan.
En nu blijkt dus ook dat alleen GCN Mantle en DX12 ondersteunt.
nee, nu blijkt dat AMD alleen GCN gaat ondersteunen. net als dat nvidia er voor kiest om niet verder als fermi terug te gaan.

p.s. had nog een link toegevoegd in de vorige post over de titan. zelfs een link naar de site van nvidia zelf.

[Reactie gewijzigd door Countess op 22 maart 2014 16:00]

o god jij hebt ECHT een slecht geheugen. jij BLEEF volhouden dat mantle zo'n low level API MOEST zijn, zelfs nadat ik herhaaldelijk had aangetoond dat mantle NIET on-the-metal, maar CLOSE to metal werkte. dat er nog steeds een abstractie laag aanwezig was (abstracite-laag, gaat je daar iets bij dagen misschien?). maar jij bleef maar volhouden van niet.
Nee hoor, het is alleen zo dat de definitie van 'low-level' en 'console-like' door AMD een aantal keren is opgeschoven.
In eerste instantie was de berichtgeving wel degelijk dat het een console-API was, zie bv hier: http://www.anandtech.com/...evel-graphics-api-for-gcn
What’s not being said, but what becomes increasingly hinted at as we read through AMD’s material, is not just that Mantle is a low level API, but rather Mantle is the low level API. As in it’s either a direct copy or a very close derivative of the Xbox One’s low level graphics API.
Vrijwel alle sites hadden een dergelijk verhaal bij Mantle in het begin. Lijkt me geen toeval.

Nu zijn er zelfs sites die het omgekeerde beweren: dat XBox One geen low-level API heeft, en dat ze daarom DX12 nodig hebben... Komt van Semi-Accurate af... nogal een pro-AMD website. Toeval?
AMD gaat het niet ondersteunen, dat is niet het zelfde als dat het niet kan.
Tsja, als het kan, zouden ze het natuurlijk gewoon doen. Nu slaan ze een modderfiguur omdat ze voor de zoveelste keer hun gebruikers niet kunnen leveren wat de concurrent wel kan.
maar jouw ongefundeerde conclusie en speculatie is dat daarom AMD heel mantle van nvidia heeft gejat moet hebben op basis van een paar extensies.
Dit heb ik helemaal niet gezegd. Dat ligt eerder aan jouw gekleurde interpretatie van mijn woorden.
net als dat nvidia er voor kiest om niet verder als fermi terug te gaan.
nVidia *kan* niet verder terug dan Fermi, want Fermi is hun eerste DX11-architectuur. Als je verder teruggaat, ontbreken er teveel features.
AMD heeft daarentegen voor GCN al meerdere generaties DX11-kaarten gehad, die qua features gewoon Mantle/DX12 moeten kunnen ondersteunen. En de laatste high-end niet-GCN kaarten zijn nog steeds prima bruikbaar voor de gemiddelde gamer. Beetje jammer om die mensen geen drivers te geven als er geen technische redenen zijn om het niet te doen.

[Reactie gewijzigd door Scalibq op 22 maart 2014 16:20]

Nee hoor, het is alleen zo dat de definitie van 'low-level' en 'console-like' door AMD een aantal keren is opgeschoven.
nope. sites hebben alleen hun eigen interpretaties gegeven aan wat ze van AMD kregen. jij accepteerde die duidelijk aangemerkte speculaties ('hinted at', 'not being said') over de duidelijk informatie die AMD later zelf verschafte omdat dat in jouw straatje paste.
Nu zijn er zelfs sites die het omgekeerde beweren: dat XBox One geen low-level API heeft, en dat ze daarom DX12 nodig hebben... Komt van Semi-Accurate af... nogal een pro-AMD website. Toeval?
zegt de persoon die een gehele nvidia presentaties zoutloos voor waar aan neemt.

maar het was al langer bekend dat MS een uitgeklede versie van directX op hun console gebruikte. de unvailing van 11.2 werd de xbox one zelfs expliciet genoemd even als het feit dat deze voor zowel 8.1 als de xbox one tegelijk zouden uitkomen.

dat doe je niet als die niks met elkaar te maken zouden hebben.
sites hebben alleen hun eigen interpretaties gegeven aan wat ze van AMD kregen.
Als alle sites de woorden van AMD op dezelfde manier interpreteren, dan is het wel duidelijk dat AMD op een bepaalde manier gecommuniceerd heeft.
jij accepteerde die duidelijk aangemerkte speculaties ('hinted at', 'not being said') over de duidelijk informatie die AMD later zelf verschafte omdat dat in jouw straatje paste.
Integendeel, ik was een van de eersten die riep dat het zeer onwaarschijnlijk is dat die API op XBox en PS4 gebruikt zou worden, laat staan dat het dezelfde API was als de low-level XBox API. En dat bleek ook zo te zijn.
zegt de persoon die een gehele nvidia presentaties zoutloos voor waar aan neemt.
Ten eerste is er nogal een verschil tussen een presentatie van een fabrikant, en dingen die een notoire geruchtensite schrijft. Ten tweede neem ik NOOIT iets zonder korrel zout.
Waar doel je trouwens precies op?
maar het was al langer bekend dat MS een uitgeklede versie van directX op hun console gebruikte.
Nogal logisch, dat hebben ze op alle XBoxen gedaan.
de unvailing van 11.2 werd de xbox one zelfs expliciet genoemd even als het feit dat deze voor zowel 8.1 als de xbox one tegelijk zouden uitkomen.

dat doe je niet als die niks met elkaar te maken zouden hebben.
Wat is je punt precies? Het was toch altijd al duidelijk dat de XBox een DX11-variant zou krijgen?
Ik weet niet wat dit met Mantle of DX12 te maken heeft?
Als alle sites de woorden van AMD op dezelfde manier interpreteren, dan is het wel duidelijk dat AMD op een bepaalde manier gecommuniceerd heeft.
het waren zeker niet alle sites en kruisbestuiving in de geruchten molen is zeker ook geen onbekend fenomeen.
Integendeel, ik was een van de eersten die riep dat het zeer onwaarschijnlijk is dat die API op XBox en PS4 gebruikt zou worden, laat staan dat het dezelfde API was als de low-level XBox API. En dat bleek ook zo te zijn.
/facepalm. o god...

dus jij bleef stug volhouden dat mantle en zo'n low-level API zou MOETEN zijn dat er geen abstractie aanwezig was omdat dat is wat er gebruikt wordt bij consoles en VERVOLGENS ga je beweren dat jij vol gehouden hebt dat mantle nooit op de API van de consoles heeft geleken.

goed...
Nogal logisch, dat hebben ze op alle XBoxen gedaan.
maar hiervoor zie je dit:
dat XBox One geen low-level API heeft, en dat ze daarom DX12 nodig hebben... Komt van Semi-Accurate af... nogal een pro-AMD website. Toeval?
dus de pro-AMD site had gelijk?
Waar doel je trouwens precies op?
op je andere reactie met deze link (hieronder)
http://www.pcper.com/revi...1-Efficiency-Improvements

waar nvidia helemaal jubelend doet omdat ze na waarschijnlijk een enorme optimalisatie inspanning voor die mantle games de eerste poging tot een mantle implementatie van een developer hebben verslagen met een kaart die 125 euro duurder is (~25%) en wel verslagen met... 6%. (met drivers die nog niemand buiten nVidia heeft gezien laat staan getest)

dat ze daar nu mee komen zal ook niks met mantle te maken hebben natuurlijk. nope, moet toeval zijn.

[Reactie gewijzigd door Countess op 27 maart 2014 16:22]

dus jij bleef stug volhouden dat mantle en zo'n low-level API zou MOETEN zijn dat er geen abstractie aanwezig was omdat dat is wat er gebruikt wordt bij consoles en VERVOLGENS ga je beweren dat jij vol gehouden hebt dat mantle nooit op de API van de consoles heeft geleken.
Beter lezen he? Ik zeg:
1) Mantle is *niet* de API van de PS4 of XBone.
2) Mantle *lijkt* tot op zekere hoogte op console-APIs zoals van de PS4 of XBone.
Dat kun je allemaal op m'n blog terugvinden.
dus de pro-AMD site had gelijk?
Nee, hoe kom je bij die conclusie? D3D11.x heeft *wel* een low-level API component (die dus niet in reguliere D3D11 zit). Daarom is dat hele geleuter over de XBox onzin mbt DX12.
Sterker nog, MS demonstreert juist dat ze met DX12 op de desktop met Forza dezelfde resultaten kunnen behalen als met D3D11.x op de XBox One, qua CPU-gebruik.

Sowieso, het enige verschil tussen XBone en PS4 games op dit moment is de resolutie. En dat is een *fillrate*-probleem, geen CPU-overhead probleem. Qua detail, AI, physics etc zijn de games gelijk, dus hebben de CPUs evenveel werk te doen.
waar nvidia helemaal jubelend doet omdat ze na waarschijnlijk een enorme optimalisatie inspanning voor die mantel games de eerste poging tot een mantle implementatie van een developer hebben verslagen met een kaart die 125 euro duurder is (~25%) en wel verslagen met... 6%. (met drivers die nog niemand buiten nVidia heeft gezien)
nVidia kan daar moeilijk om gaan liegen. Twee van de drie geteste drivers zijn al uit, en die resultaten kunnen makkelijk geverifieerd worden. Tech Report had ook al aangetoond dat nVidia veel beter scoorde met D3D in BF4 dan AMD.
Het is vrij aannemelijk dat ook de resultaten van de nog niet uitgebrachte driver kloppen (ook AMD heeft niet gelogen over de winst met Mantle... je moet alleen de scenarios met een korreltje zout nemen).

Maargoed, ik vind het vooral belangrijk dat er wordt aangetoond dat het blijkbaar mogelijk is om *binnen* de D3D11-API nog een hoop winst te boeken.
Daar hebben alle games profijt van, zonder dat de code aangepast hoeft te worden.
De D3D11-API is lang zo slecht nog niet.

[Reactie gewijzigd door Scalibq op 27 maart 2014 16:37]

Beter lezen he? Ik zeg:
1) Mantle is *niet* de API van de PS4 of XBone.
2) Mantle *lijkt* tot op zekere hoogte op console-APIs zoals van de PS4 of XBone.
Dat kun je allemaal op m'n blog terugvinden.
dus je had finaal ongelijk toen je stug vol bleef houden dat de mantle API zo low level API moest zijn dat er geen abstractie aanwezig was.

fijn dat je het eindelijk toe geeft.

1 : hebben ik en AMD nooit beweerd.
2: daar is niemand het mee oneens.
Het is vrij aannemelijk dat ook de resultaten van de nog niet uitgebrachte driver kloppen (ook AMD heeft niet gelogen over de winst met Mantle... je moet alleen de scenarios met een korreltje zout nemen).
vooral fijn ook dat nvidia geen scenario's heeft gegeven om die cijfers Łberhaupt te kunnen verifiŽren.

en belangrijker nog hoe generiek zijn deze optimalisaties? hebben ze een aantal manjaren gestopt in het optimaliseren van de drivers voor thief en starswarm of gaan we dit ook terug zien in andere games zonder dat er per game onhoudbare hoeveelheden optimalisatie tijd vanuit de GPU fabrikant aan besteedt hoeven te worden (dat dit uberhaupt regelmatig nodig is geeft opnieuw de zwakte van de DX api aan).

en opnieuw heel bijzonder dat er ze nu ineens mee komen. hadden ze niet zeg 2 jaar geleden kunnen doen? nee dat moest nu ineens van de plank gehaald worden?
dus je had finaal ongelijk toen je stug vol bleef houden dat de mantle API zo low level API moest zijn dat er geen abstractie aanwezig was.
Ik heb nooit geroepen dat er geen abstractie was. Ik heb dan ook nergens ongelijk gehad. Jammer maar helaas.
vooral fijn ook dat nvidia geen scenario's heeft gegeven om die cijfers Łberhaupt te kunnen verifiŽren.
Het was dan ook gericht op developers. Ze lieten direct de verbetering zien bij verschillende D3D11-calls. Daaruit kan iedere developer z'n eigen conclusies trekken. Die weten zelf wel welke calls ze maken, en hoe vaak.
Heeft dus niets met 'scenarios' te maken.
en belangrijker nog hoe generiek zijn deze optimalisaties?
Omdat het dus direct D3D11-calls betreft, zijn deze optimalisaties zo generiek als maar kan: iedere applicatie die die calls maakt, heeft dus minder overhead.
Dit ga je dus overal terugzien (in welke mate precies is afhankelijk van de applicatie natuurlijk).
(dat dit uberhaupt regelmatig nodig is geeft opnieuw de zwakte van de DX api aan).
Dat heeft weinig met de API an sich te maken, en alles met het feit dat het lonend is om voor populaire games specifieke optimalisaties in de driver te bouwen. Dit zou voor iedere andere API ook gelden: iedere game gebruikt de API namelijk weer anders, en je kunt altijd wel ergens een of andere shortcut verzinnen die alleen in dat bepaalde geval beter is (en misschien minder in andere).
en opnieuw heel bijzonder dat er ze nu ineens mee komen. hadden ze niet zeg 2 jaar geleden kunnen doen? nee dat moest nu ineens van de plank gehaald worden?
Het is nooit echt een issue geweest... Maar op mijn blog heb ik meerdere keren geklaagd dat D3D10/11 op papier sneller zouden moeten zijn dan D3D9, maar ik haalde het er niet uit in mijn code. Ik merkte wel dat driver updates toch stukje bij beetje het verschil kleiner maakten.

Blijkbaar is nu het moment gekomen om er structureel iets aan te doen, omdat de 780Ti dermate snel is dat het echt een rol gaat spelen (en vooral ook de opvolger van de 780Ti... die natuurlijk NOG sneller is. Hou er ook rekening mee dat er nog jaren D3D11 games gespeeld gaan worden, ook al komt DX12 er volgend jaar).
Daarnaast is het nu ook prestige geworden... StarSwarm is een bijzonder inefficiente D3D-applicatie, specifiek gemaakt om Mantle te promoten. Als het nVidia's driverteam lukt om uit D3D vergelijkbare prestaties te halen als Mantle doet, dan is dat op z'n minst een morele overwinning.
StarSwarm is een bijzonder inefficiente D3D-applicatie, specifiek gemaakt om Mantle te promoten.
Juist niet, Star Swarm is een Nitrous Engine tech demo, waarbij Mantle er halverwege is in geprutst. Het was de eerste engine waar Mantle in draaide en is daarom ook veel gebruikt in de marketing er van.

Dan Baker, Oxide
"Managed small team from concept to the industries first true fully threaded D3D11 engine. Have developed and managed ongoing advanced research with UMBC with research being both deployed in game and also receiveing multiple publications.

Previous accomplishments include development of D3D9, D3D10, HLSL, Railroads! Civilization Revolution, Graphics Lead for Civilization V, architected Firaxis Graphcis Rendering technology"


Beetje jammer dat je loze uitspraken doet en iets inefficiŽnt noemt, alleen maar omdat Mantle er beter in presteert.

[Reactie gewijzigd door Crp op 27 maart 2014 22:54]

Beetje jammer dat je loze uitspraken doet en iets inefficiŽnt noemt, alleen maar omdat Mantle er beter in presteert.
Niks loze uitspraken... Star Swarm doet zo ongeveer alles fout wat je fout kunt doen qua D3D.... Hun hele 'multithreading' maakt ook ENORM grote driver command lists aan, waardoor oa memory management in de driver een bottleneck kan worden. Ze hebben er op die manier vooral een soort benchmark voor de memory manager van de driver gemaakt, niet direct een grafische benchmark.
Drivers zijn namelijk helemaal niet berekend op dergelijke grote lists. Maarja, drivers kunnen wel aangepast worden om daar beter mee om te gaan, en daar is nVidia nu dus ook mee bezig. Star Swarm draait nu dus al een stuk minder slecht dan eerst.

Leuk dat jij in het goedkope marketingverhaaltje van Oxide gelooft (over loze uitspraken gesproken), maar wij developers pakken gewoon profilers erbij, en kijken wat de code nu echt aan het doen is.
Sowieso, iedereen met een beetje boerenverstand zou toch inzien dat het niet kan dat een engine in D3D amper 10 fps haalt? Zo spectaculair zijn de visuals van Star Swarm niet.
Zoals ze bij Extremetech al zeggen: http://www.extremetech.co...-gaming-since-directx-9/2
No company could ship a game that can’t break 30 fps on DX11 on top-end hardware.

Because Star Swarm clearly isn’t designed to demonstrate a playable level of D3D performance, it’s also a limited window on Mantle performance.
Verder zegt jouw quote niet eens wat over de Nitrous Engine volgens mij. Maar meer over het team, waarvan leden eerder ook aan Civ 5 werkten. Volgens mij bedoelt ie dat met 'the industries first true fully threaded D3D11 engine.'
Ik denk dat deze driver-update alle twijfels rond StarSwarm wel wegneemt: http://www.tomshardware.c...ver-benchmarks,26473.html

Als je in 1 driver-update zoveel kunt winnen met D3D-code, dan zat er iets goed fout in StarSwarm, zoals ik al zei.
Hier nog wat interessante info voor je: http://www.pcper.com/revi...1-Efficiency-Improvements
Met goed geoptimaliseerde DX11-drivers kun je een HEEL eind komen qua draw calls.
AMD's drivers zijn duidelijk een stuk minder optimaal, en dat vertekent het beeld qua Mantle.
Genoeg klachten over de drivers?
Natuurlijk zijn er klachten over, daarom heten het BETA drivers 8)7
En kan je daar niet mee leven dan gebruik je zolang geen mantledriver.
Er is al een flinke verbetering in de tweede beta driver.
De volledige AMD driver zal binnenkort worden uitgebracht.
Dan vind ik dat ze in een relatief korte tijd snel gepuberd hebben bij AMD ;)
Genoeg klachten over de drivers?
Natuurlijk zijn er klachten over, daarom heten het BETA drivers 8)7
Dat is mijn punt: Mantle is nog in beta. Het werkt nog niet 100%, en er is nog geen documentatie of SDK beschikbaar voor ontwikkelaars.
DX12 loopt niet zo heel ver achter op Mantle. Op dit moment kunnen bepaalde developers al toegang krijgen tot DX12, net als Mantle. Later dit jaar komt er een publieke preview, waarmee alle developers alvast met DX12 kunnen ontwikkelen (dus een SDK + documentatie + drivers).
Gaat nog interessant worden of Mantle nog voor DX12 publiek beschikbaar komt voor ontwikkelaars of niet.
Willen jullie meer of minder cpu belasting?

Minder! Minder! Minder!
Dan gaat MS dat regelen! :D :D
Eerst zien, dan pas geloven...
kijk uit dat je niet aangeklaagd wordt met dergelijke uitspraken :P
Het duurt jaren om games te maken. Het heeft gewoon zijn tijd nodig. Maar de eerste stap is er. De API dan zal pas het gebruikt worden bij game productie, de ontwikkeling. Dat duurt even en dan komen deze games op de markt. Ben je toch al snel een jaar verder.
Nou dan blijf ik voorlopig nog wel met mijn 21 maanden oude grafische kaart (Geforce GTX 680.

Daar kan ik nog steeds alle spellen op MAX settings en 1920x1080 spelen.
Meer! Meer! Meer!... zo word ik nu niet aangeklaagd?
MS loopt achter de feiten aan zoals gewoonlijk? En deze loze uitspraak is gebaseerd op wat precies?
Heerlijke comment, erg gevat en perfecte FIPO wat mij betreft :)
Denk dat er vanwege die uitspraak cores voor zichzelf beginnen en uit je CPU stappen
OFF-TOPIC
Onzin. Als je niets zinnigs bij te dragen hebt, reageer dan niet.

ON-TOPIC
Daarbij heeft AMD uitdrukkelijk aangegeven dat het hen niet om propriŽtaire technologie te doen was, maar om de hoop om andere partijen te inspireren en te stimuleren om een nieuwe richting in te slaan betreft het e.e.a. AMD is dan ook blij met deze toevoeging aan DirectX; AMD hoopt dat Khronos Group ook met iets soortgelijks komt.
Yesterday several articles were published that reported that DirectX and OpenGL are being extended to include closer-to-metal functionality and reduced CPU overhead. AMD supports and celebrates a direction for game development that is aligned with AMD’s vision of lower-level, ‘closer to the metal’ graphics APIs for PC gaming. While industry experts expect this to take some time, developers can immediately leverage efficient API design using Mantle, and AMD is very excited to share the future of our own API with developers at this year’s Game Developers Conference.

And if Mantle is ultimately subsumed by DirectX — so what? At APU13 AMD anounced about the next-generation API, that the long-term goal was to get Microsoft and the Khronos Group in charge of OpenGL to adopt a Mantle-like architecture. The entire point of Mantle was to spur game development and drive the adoption of a better standard.

[Reactie gewijzigd door CoreIT op 21 maart 2014 16:59]

AMD hoopt dat Khronos Group ook met iets soortgelijks komt.
Khronos heeft al een tijd geleden OpenGL 4.4 uitgebracht, waar al een hoop interessante dingen in zitten om CPU-overhead te verlagen: http://www.khronos.org/opengl/
Het wachten is nog steeds op drivers van AMD... (nVidia heeft ze al sinds augustus 2013).
AMD is onderdeel van de Khronos Group voor zover ik weet.
Ook DirectX 12 zal pas over zo'n anderhalf jaar beschikbaar zijn, lijkt me.
In de slides stond dat er een preview-versie van DX12 later dit jaar komt. Tel daar nog maar een paar maanden bij op voordat er een final release is (waarbij ze misschien willen wachten totdat ze ook Windows 9 uitbrengen).
Nee hŤ, niet weer die flauwe plaatjes net als bij dx9 vs dx10 waar de oude screenshots expres donkerder gemaakt werden.
De aloude OpenGL vs Direct3D discussie weer. komt ook altijd weer terug. :P
OpenGL geraakt voor gaming meer in onbruik en dat heeft wel degelijk met de kwaliteit en mogelijkheden van EN Direct3D en MS's SDK te maken. Dat zegt overigens niks over de kwaliteiten van OpenGL. Hoewel de 2 feitelijk API's zijn die dezelfde brug slaan, hebben ze tegenwoordig een iets andere markt en die marktdeling is ook deels inherent aan het succes van D3D op de game markt. De tijd dat de Carmack's en collega's een Direct3D boycot uitriepen ligt intussen ver achter ons, tegenwoordig predikt ook Carmack D3D.
Het is inderdaad zo dat OpenGL de standaard is binnen 3D applicaties en dat dit een zeer breed gebied is, maar bedenk dat deze applicaties een kleine subset gebruiken van wat voor features games gebruiken m.b.t. hardware versnelling. Voor sommigen klinkt dit misschien vreemd in de oren, daar "professional graphics" wellicht een associatie heeft met CAD, maar ook met die fantastisch mooie CG die er tegenwoordig is. (de Pixars van deze wereld)
Bedenk dan goed dat deze beelden ontstaan door software rendering en slechts voor een klein deel hardware (particles vaak) en dat hardware rendering m.b.t. "professional" graphics (en dus OpenGL kan je er bijna achteraan zeggen) veelal te maken heeft met previews, het renderen van viewports, en real-time presentaties van scenes. Tot slot moet ook zeker worden opgemerkt dat een API voor een heel groot deel niet de verantwoordelijke is voor wat al dan niet mogelijk is aan pracht op je scherm. De performance van de hardware maar vooral ook de game engine en creativiteit van de ontwikkelaar zijn ook zeer grote factoren.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True