Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 152 reacties
Submitter: ErikV1

Nvidia-kaarten met Maxwell-gpu's ondersteunen asynchronous compute niet echt, claimt de ontwikkelaar van Ashes of the Singularity. Volgens de Nvidia-driver zou de feature moeten werken, maar de prestaties bij de DX12-game zouden op het tegendeel wijzen.

Ashes of the Singularity is een recent in alpha-stadium uitgebrachte game die DirectX 12-functionaliteit ondersteunt. Bij het gebruik van een interne benchmark liep ontwikkelaar Oxide tegen een probleem in combinatie met Nvidia-kaarten op basis van de Maxwell-architectuur aan. Dit noopte de ontwikkelaars asynchronous compute, een feature waar DirectX 12 gebruik van kan maken, uit te schakelen bij gebruik van die kaarten.

Op het forum van Overclock.net claimt de ontwikkelaar dat de drivers van Nvidia melding maakten van ondersteuning van de functie. "Maar pogingen om het te gebruiken waren rampzalig wat betreft prestaties. Daarom hebben we het uitgeschakeld bij hun hardware. Voor zover ik weet heeft Maxwell geen ondersteuning voor asynchronous compute, dus ik weet niet waarom de driver dat probeerde aan te spreken." Niet bekend is of de kaarten de technologie echt niet ondersteunen, of dat het probleem bij de drivers of elders gezocht moet worden.

Nvidia legde de schuld voor de prestatieproblemen aanvankelijk bij bugs in de msaa-implementatie, maar dat ontkent Oxide. Die zouden volgens de ontwikkelaar dan evengoed in DX11-benchmarks te zien moeten zijn en het implementeren van DX12-functionaliteiten zou daar geen invloed op hebben. Volgens de Oxide-ontwikkelaar zou Nvidia ook druk hebben gezet om bepaalde instellingen in de benchmark uit te schakelen, maar welke dat zijn is niet bekend.

De DirectX 12-functie asynchronous compute zorgt ervoor dat multithreaded 3d-applicaties efficiënt afgehandeld worden. Er worden meerdere queues gebruikt voor bepaalde grafische rekentaken, terwijl bij DirectX 11 die taken nog één voor één, achter elkaar, afgehandeld worden. Door het gebruik van asynchronous compute kan de rekenkracht van de gpu dus beter benut worden maar er moet wel ondersteuning vanuit de hardware en de driver voor zijn.

Kaarten van zowel Nvidia als AMD ondersteunen niet alle functionaliteit van DirectX 12 maar de Graphics Core Next-architectuur van AMD kan sinds de introductie van Mantle wel overweg met asynchronous computing. Veel features van Mantle komen overeen met mogelijkheden van DirectX 12.

amd-slide over Asynchronous compute

Moderatie-faq Wijzig weergave

Reacties (152)

Op ars-technica hebben ze een mooie vergelijking gemaakt tussen AMD en Nvidia in DX11 en DX12 met behulp van dit spel:

http://arstechnica.com/ga...isappointment-for-nvidia/
To say these benchmark results are unexpected would be an understatement. While it's true that AMD has been banging the DX12 drum for a while, its performance in Ashes is astonishing. AMD's cheaper, older, and less efficient GPU is able to almost match and at one point beat Nvidia's top-of-the-line graphics card. AMD performance boosts reach almost 70 percent under DX12.
Een must read...

[Reactie gewijzigd door DRaakje op 1 september 2015 14:30]

Als je toch aan het lezen bent:
Verdere DX12 vs DX11 vergelijkingen, Nvidia komt slecht uit de bus:

Benchmarked: Ashes of the Singularity
http://steamcommunity.com/news/post/409053962668221032/
Dit is 1 benchmark van 1 game, een game in alfa status bovendien en dat wordt dan geëxtrapoleerd naar alle dx12 games? Daar komt bij dat de meeste dx12 games pas eind 2016 komen en volledig nog dx11 ondersteunen.
DX12 heeft weinig voordelen om de effecten er beter uit te laten zien, maar biedt wel mogelijkheden om het aantal draw calls te verhogen en/of fps te verhogen
aangezien Win10/DX12 gratis is, zie ik geen enkele reden om DX12 niet te gebruiken als er morgen een spel uitkomt die dat toelaat
waarom zou je immers DX11 gebruiken als je met DX12 betere prestaties hebt?

of dit bericht klopt weet ik niet, we zullen het waarschijnlijk binnen een paar maand wel weten
maar als jij liever DX11 blijft gebruiken de komende jaren, geen probleem voor mij
Het begint zoals altijd met 1 benchmark... maar het moraal van het verhaal is dat Nvidia zijn zaakjes voor DX12 hardware matig nog niet voor elkaar heeft, terwijl ze dat wel beweren.
Het énige dat echt van belang is in dit verhaal is het relletje dat Nvidia anders beweert dan de werkelijkheid.

Feitelijk is het nog steeds zo dat er geen DX12 games op de markt zijn, dat alleen Oxide met AoS een benchmark-achtige situatie heeft waarin AMD goed uit de bus komt, en dat dit niet heel toevallig een project is dat volledig gesteund wordt door AMD. Dat is niet verkeerd, maar geeft wel te denken over de nieuwswaarde van de hele 'DX12 ready' hausse. Ik vind het een typische AMD-herhaling van zetten. Steeds is het een nieuwsbericht of slideshow van 'kijk eens wat we allemaal gaan doen'. Puntje bij paaltje is AMD nog steeds gestaag marktaandeel aan het verliezen en lopen ze zwaar achter op Nvidia ook qua GPU aanbod, met een derde rebrand en Fury dat zwaar aan het floppen is. Dus heel leuk die toekomst, maar nu nog even iets in het heden voor elkaar schoppen aub... anders ben je er niet eens meer om die toekomst mee te maken.

Geheimpje: DX12 is NIET RELEVANT voor deze generatie kaarten. Het aantal DX12 games is nu nog niet-bestaand, geen énkele kaart biedt alle DX12 feature levels, Fable is de enige announcement en je moet nog maar afwachten wat er dan werkelijk voor feature levels in zitten. Kortom, storm in een glas water en een discussie die gevoerd wordt voordat die nog maar in de verste verte relevant is.

Tegen de tijd dat DX12 ingeburgerd is en daadwerkelijk voordelen biedt boven DX11 zijn we al bij Pascal beland, midden 2016 of later dus. Dit hele geneuzel is één grote non-issue en ik begrijp ook niet zo goed waarom Nvidia zich uit de tent liet lokken.

[Reactie gewijzigd door Vayra op 1 september 2015 16:06]

De devs geven zelf aan dat ze meer ondersteuning hebben gekregen en nodig gehad van nvidia. Daarnaast is ACE via een patch voor nvidia nu ook uitgeschakeld, op verzoek van nvidia-support.

http://wccftech.com/oxide...-singularity-controversy/Artikel heeft link naar origineel maar staat ook de bijna volledige reactie.
DirectX12 is wel degelijk relevant voor deze generatie kaarten. De meeste mensen doen namelijk langer dan een jaar met hun videokaart. DirectX 12 performance is dus zeker wel van belang voor de huidige generatie kaarten omdat deze kaarten nog een aantal jaar mee moeten doen. Er zijn nu twee officiele DirectX12 benchmarks uit, 3D mark overhead test en AotS. In beide zie je dat AMD het (uitmunted) goed doet. Uiteraard is de eerste synthetisch maar de tweede is op een echte game gebaseerd. De twee benchmarks wijzen dus uit dat je met AMD goed zit voor DirectX 12 games.
Welnee. De 'enthusiasts' gaan toch upgraden met Pascal en de mid range kaarten hebben helemaal niet zoveel baat bij de snelheidswinst van DX12 want die hebben de bottleneck heel ergens anders liggen. Wat er dan nog van overblijft is dermate minimaal, en daarbij is het ook nog zo dat de grafisch interessante zaken zoals tiled rendering (mooiere textures/efficienter, dus goed voor alle klassen GPUs) worden door geen enkele kaart ondersteund.

En als kers op de taart is het tegen de release van Pascal nog LANG niet zo dat we geweldige nieuwe games hebben die gretig alle features van DX12 inzetten. Daarvoor is de adoption rate van DX12 tegen die tijd nog veel en veel te laag - er is geen markt voor.

Er wordt onnodig op de zaken vooruti gelopen en ik snap die move volledig van AMD, ze pakken die winst nu het kan, omdat niemand echt weet wanneer wat komen gaat. Ook het pushen van DX12 vind ik heel positief. Maar laten we ons niet teveel meeslepen door die hype? Ik denk het wel ;)

[Reactie gewijzigd door Vayra op 2 september 2015 01:24]

Welnee. De 'enthusiasts' gaan toch upgraden met Pascal en de mid range kaarten hebben helemaal niet zoveel baat bij de snelheidswinst van DX12 want die hebben de bottleneck heel ergens anders liggen. Wat er dan nog van overblijft is dermate minimaal, en daarbij is het ook nog zo dat de grafisch interessante zaken zoals tiled rendering (mooiere textures/efficienter, dus goed voor alle klassen GPUs) worden door geen enkele kaart ondersteund.
Een 'midrange' kaart als de 290X komt gewoon langszij de 980 ti. De DirectX 12 prestaties van huidige kaarten zijn dus wel relevant. De kaarten gaan simpelweg langer mee of hebben een hogere restwaarde bij 2e hands verkoop.
En als kers op de taart is het tegen de release van Pascal nog LANG niet zo dat we geweldige nieuwe games hebben die gretig alle features van DX12 inzetten. Daarvoor is de adoption rate van DX12 tegen die tijd nog veel en veel te laag - er is geen markt voor.
Veel AAA titels gaan toch wel een DirectX 12 pad aanbieden en Windows 10 is gratis voor Windows 7 en 8 gebruikers, dus de doelgroep is heel groot.
Er wordt onnodig op de zaken vooruti gelopen en ik snap die move volledig van AMD, ze pakken die winst nu het kan, omdat niemand echt weet wanneer wat komen gaat. Ook het pushen van DX12 vind ik heel positief. Maar laten we ons niet teveel meeslepen door die hype? Ik denk het wel ;)
Ik gun het AMD wel na de hele feature level hype.
Je kan jouw verhaal ook omdraaien natuurlijk. En mag ik vragen waarop de statement "Of kies je voor een kaart die in het huidige assortiment veel beter draait en met nieuwere games bijna even goed" gebaseerd is?

Volgens mij is dat gewoon koffiedik kijken.. (Dat betreft uiteraard de groene als de rode kant).

Punt blijft wel volgens mij dat het er met de huidige range van nVidia kaarten en de resultaten die tot nu toe in benchmarks gehaald worden er niet heel positief uit ziet voor nVidia
In welke wereld is fury An het floppen dan?
In de wereld van verkoopcijfers, de enige wereld die telt.

Ze zetten er gewoon te weinig af, en de rest van het aanbod is een rebrand. Zelfs Pitcairn is opnieuw van stal gehaald. Need I say more?

Nano, een Fury 'off steroids' met 175W TDP en dus veel lagere clock, gaat 650 dollar kosten, zie jij ze al als warme broodjes gaan?

Juist ;)

Edit: de -1 is typerend en een beetje jammer. Kijk over een paar maanden nog eens naar deze voorspelling.

[Reactie gewijzigd door Vayra op 2 september 2015 01:25]

Nvidia heeft tegen de nano helemaal niks in te brengen. Nano is high end in een low end behuizing. Nvidia heeft hier niks tegen in te brengen dus AMD kan vragen eat ze willen.
Nvidia is natuurlijk hier totaal niet blij mee, kleinere footprint, energie zuiniger, minder warm, lagere geluidsproductie, in verhouding erg snel... Nu alleen de prijs nog omlaag :)
Ik gun het AMD van harte. Dan nog een Freesyncje erbij en iedereen is blij!
Waar is die markt dan? We zullen het gaan zien, maar je kan ook gewoon full length kaarten of een kleine GTX 970 kwijt in die behuizing. En die GTX 970 kost toch net even wat minder.

Verder moet je even kritisch nadenken over de manier waarop het TDP gehaald gaat worden.

[Reactie gewijzigd door Vayra op 2 september 2015 01:33]

een 970 mini is toch wel een stukje trager (als het waar is dat de nano maar 5% trager is dan de fury) en verbruikt wel wat meer energie.

tis een erg leuk kaartje, beetje prijzig maar wel heel erg leuke formfactor!
nu geef je wel af op amd maar NV heeft in niet altijde lang vervlogen tijden ook redelijk vaak aan rebrands gedaan, een dieschrink zonder verdere weizigingen en 4 tot 5 tientjes bovenop de prijs...

het hele probleem is wel dat er met de huidige technieken niet heel veel meer haalbaar is dan een beetje dieshringen, wat kleine features en verbeteringen en thats it... dat zelfde is ook al tijden aan de hand bij cpu's...
Geheimpje, Het is wel relevant als Nvidia ermee adverteert en blijkt dat het ze met de huidige kaarten juist NIET alle functionaliteit van asynchronus computing ondersteunen.
Dat heet misleiding.

Maar je hebt gelijk als je aangeeft dat er maar 1 benchmark is die op dit moment dit kan aantonen. En ook nog een met een investering vanuit het AMD kamp.
NVIDIA focust op vandaag en DX11. De DX11 prestaties zijn uitmunted dankzij de goede drivers. DX11 zal er nog een hele tijd zijn. Er komen geen DX12 only games de eerste jaren.
En bewijs eens dat NVIDIA zegt dat ze asynchronous compute wel ondersteunen.
Natuurlijk zijn die er. Het punt is dat AMD dus voorlopig een enorme prestatieboost van DX12 krijgt (die wel gewoon ondersteunt zal worden door de meeste games die in de toekomst uitkomen). Oftewel: Ja, mooi, dat je DX11 nog kan gebruiken, maar wanneer je DX12 gebruik is een AMD kaart ineens 70% sneller. Oftewel, de GTX980 Ti heeft momenteel een lichte performance voordeel tov de Fury. Maar In bestaande games kunnen beide kaarten alles op max gewoon vloeiend spelen. In toekomstige games (en huidige die geupdate worden) zal de Fury 70% sneller zijn door DX12. Nou, ik zou wel weten welke kaart ik zou aanschaffen op dit moment.
we moeten toch wel oppassen die claim te maken op 1 benchmark,
mogelijk dat Oxide toch niet een optimale implementatie heeft gedaan voor Nvidia, maar wel voor AMD, we zullen dat pas weten nadat er meer benchmarks verschijnen.

prestaties gaan zelfs achteruit met DX12 tov DX11 das toch in elk geval apart te noemen...

hier is een voorbeeld van een flinke vooruitgang met DX12 voor Nvidia:
http://linustechtips.com/...1-performance-comparison/

ook niet de beste source maar ik zou toch even wachten met conclusies maken gezien het nog wel erg vroeg is.

verder vraag ik me af hoe
1 Oxide aan maxwell komt,
2 waarom ze hier publiek over spreken
3 waarom ze niet even netjes met Nvidia samenwerken om async compute werkend te krijgen gezien Nvidia schijnbaar wel demo's heeft waar het wel werkt.
4 waarom ze als het idd echt niet werkt Nvidia's vuile was een half jaar voor product launch buiten hangen.

vind het een beetje een rare situatie...
Ze wilden niet met Nvidia samen werken omdat deze bepaalde delen van hun bechmark eruit wilde slopen zodat Nvidia kaarten beter uit de bus kwamen.
Volgens een developer van Oxide hebben ze al een jaar lang samengewerkt met zowel nVidia als Intel en AMD. Met die laatste partij hebben ze natuurlijk een marketing agreement, waardoor die twee al langer om de tafel zitten dan dat. Volgens de developer was echter nVidia het meest actief met ideeën aandragen en feedback geven op hun werk. Toen nVidia eiste dat bepaalde delen (Asynchronous meen ik) werden uitgeschakeld, gaf Oxide daar in eerste instantie geen gehoor aan.
maargoed dat is wederom uit de mond van een Oxide Developer...
en inderdaad ze hebben een agreement met AMD.

verder niets tegen AMD en als dit gewoon zo blijkt te zijn, super voor hen, en ik hoop dat Nvidia de problemen kan fixen, (iets waar ik eigenlijk wel vanuit ga) maar ik ben eeen beetje huiverig om nu ineens te zeggen dat AMD's implementatie superieur is op de basis van 1 benchmark.

maar het is wel duidelijk dat AMD in elk geval in deze game veel voordeel heeft bij DX12/Mantle, en Nvidia minder.

GCN is altijd een erg vooruitkijkende architectuur geweest met enorm veel performance in compute, welke niet altijd benut werd, en mantle en de xbox hebben natuurlijk bij MS ervoor gezorgt dat men het meeste uit GCN probeerde te halen, en dat komt nu naar de PC en dat is dus zeker voordelig voor AMD.

maar om nu te zeggen dat NVIDIA bepaalde dingen niet kan, omdat 1 developer dat zegt op basis van premature drivers approx een half jaar van release, terwijl deze developer een agreement heeft met een competitor, tsja...

[Reactie gewijzigd door freaq op 2 september 2015 01:50]

En dan zijn we alsnog hier met AMD games voor console. Liever PC games dan "DX12 optimized" for AMD. Totaal onnodig. Eens hoor met de comments, maar nee hoor. De optimalizatie is er voor outdated sh*te. 2016...geen probleem. AMD met HBM en straks met HBM2...net als de ander. v5 vs v6 Intel toch ? Almost instant. Geen probleem. We zijn er bijna...met alles bedoel ik...
Nvidia heeft wel een rare move gemaakt. Op het blog (geloof ik) heeft een Nvidia rep gezegd dat Maxwell vanalles kan dat het helemaal niet kan, omdat het vendor specific code betrof die dus op driver niveau werd toegevoegd - kortom Maxwell ondersteunt het niet native zoals AMD GPU's.

[Reactie gewijzigd door Vayra op 1 september 2015 16:09]

wow dit is wel echt een fanboy-reactie eerste klas,
maar als jij hier beweerd dat die game ontwikkelaar liegt over dat NV iets in zijn documentatie al dan niet heeft staan (lees: de manual voor software ontwikkelaars (en met name game devs is heel anders dan het beetje specs op de verkoop pagina voor consumentjes)... dan moet je maar eens op zoek naar die documentatie en laten zien dat het er echt niet staat...
Wie zegt dat ze hun zaakjes hardwarematig nog niet voor elkaar hebben, misschien is het wel gewoon puur een software probleem..
Het punt van DX12 is dat alles spellen universeel hetzelfde werken op de drivers die worden geleverd door de GPU fabrikant. De enige variable in dit geval zijn de vaardigheden van de Ashes devs. Nu kun je wel zeggen dat spellen toch geen async synchronisation gaan gebruiken maar de consoles ondersteunen dit wel. AMD heeft zwaar ingezet met GCN op DX12/Vulkan.

Laat AMD nou net heel erg achterlopen met het optimaliseren van DX11. Ze zitten te concureren met veel sterkere hardware als de prijs ongeveer gelijk is. Als de devs DX12 goed kunnen gebruiken dan krijg je vanzelf dit soort benchmarks. Het is eindelijk afgelopen met het herstellen van gepruts door devs doordat DX11 erg abstract is. De devs kunnen simpelweg niet zien hoe het spel loopt op de hardware.
Dit is 1 benchmark van 1 game, een game in alfa status bovendien en dat wordt dan geëxtrapoleerd naar alle dx12 games?
Precies, er wordt data van 1 benchmark getoond en gelijk gaan alle vlaggetjes omhoog. Dit heeft net zo veel waarde als claimen dat Intel CPU's beter zijn dan AMD op basis van 1 enkele benchmark. Dat beide merken problemen hebben met de verschillende tiers van DX12, wat op zichzelf al een ongelukkige keuze is was al lang bekend.

Kortom storm in een glas water, zonder meerdere games/benchmarks en onafhankelijke onderzoekers met verifieerbare resultaten valt er nog weinig over te zeggen nu.
Bedankt voor het artikel, uiterst interessant!
vreemd want ik meende dat maxwell 2 ook 32 compute units heeft voor dit soort zaken.
1 Graphics + 31 Compute, 32 Compute

[Reactie gewijzigd door Spliffire op 1 september 2015 14:36]

Maxwell kan beide, alleen niet asynchroom omdat hij gebottlnecked wordt. Lees anders de bronnen in het CJ topic eens door.

Directe link met mooie uitleg:
http://www.overclock.net/...chmarks/500#post_24325746

Dit is overigens de user die het allemaal uit de doeken heeft gedaan. Kollock van Oxide heeft dit dus bevestigd.

Nog een interessante post van Kollock waar hij ingaat op waarom hij denkt dat het bij Nvidia fout gaat:
http://www.overclock.net/...hmarks/1400#post_24360916
Dus alles word gebaseerd op de mening van 1 persoon, een persoon die bovendien nauw met AMD samenwerkt? Een emmer zout iemand?
Net zoals alle nvidia geoptimaliseerde troep bedoel je?
Verder nog interessante leesstof omtrent dit probleem op Reddit:
https://www.reddit.com/r/...s_it_true_nvidia_cant_do/

Men lijkt het verhaal van Oxide enigzins te ontkrachten maar heb zelf niet de nodige kennis om dit te kunnen beoordelen ;)
Als je die thread verder leest dan blijkt dat deze resultaten waarschijnlijk het gevolg zijn van een foutief en/of te simpel geschreven benchmark, die uberhaubt geen gebruik maakt van deze feature. Logisch dus dat er niet hetzelfde waar wordt genomen.
Ja zowel Reddit, Tweakers en blijkbaar de rest van het Internet doen aannames op basis van 2 bronnen, terwijl nVidia WEL gewoon Async Computing kan doen op de Maxwell cores. Je moet het alleen wel op de GOEDE manier doen, in het voorbeeld van Ashes of Singularity hebben ze dat zeker niet gedaan.
De link van Wh0lve legt dat uit. Maxwell kan het wel, maar zit met andere workloads te werken dan GCN. Let wel op, Mathragh heeft gelijk! Dit gaat over een zelf-geschreven benchmark die niet geheel correct lijkt te zijn en waar ook nog haken aan zitten. Dus getallen korrel zout, uitleg waar die korreltjes over gaan zijn dan wel interessant.

De grap is dat, mits goed geïmplementeerd, de GTX 960 de Fury X lijkt te verslaan. Dus je kan, per merk, specifiek gaan implementeren en zo bepaalde resultaten realiseren. De kaart in de reactie van ymmv geeft eigenlijk heel goed aan waar wat knelt bij de kaarten.

Oxide heeft dan wat dat betreft een DX12 implementatie die beter werkt op de GCN structuur dan op de Maxwell 2nd structuur. Daarna komen er geruchten en hebben we het internet als effect.

[Reactie gewijzigd door Freaky_Angelus op 1 september 2015 15:05]

Jij interpreteert de resultaten van de bench verkeerd. (Ik eerst ook trouwens)

De lage tijden geven niet aan dat een kaart sneller is dan de ander, maar dat een bepaalde taak al klaar is. Dat zou weer een teken zijn dat de taken niet tegelijk maar achter elkaar worden uitgevoerd en dus dat de kaart geen asynchronous compute ondersteund.
Nou, nee...

On the Maxwell architecture, up to 31 simultaneous command lists (the limit of Maxwell in graphics/compute workload) run at nearly the exact same speed - indicating Async Shader capability. Every 32 lists added would cause increasing render times, indicating the scheduler was being overloaded.
On the GCN architecture, 128 simultaneous command lists ran roughly the same, with very minor increased speeds past 64 command lists (GCN's limit) - indicating Async Shader capability. This shows the strength of AMD's ACE architecture and their scheduler.

Interestingly enough, the GTX 960 ended up having higher compute capability in this homebrew benchmark than both the R9 390x and the Fury X - but only when it was under 31 simultaneous command lists. The 980 TI had double the compute performance of either, yet only below 31 command lists. It performed roughly equal to the Fury X at up to 128 command lists.


Dus, afhankelijk van hoe je command lists worden opgebouwd kun je bepaalde compute capability bereiken. Er zit dus veel winst in te optimaliseren naar welke scheduler er gebruikt wordt..

Over de specifieke tijden heb ik het verder niet gehad, dus ik denk dat je me daar verkeerd op begrepen heb.

-edit-
Om dan nog maar te herhalen. Maxwell 2nd werkt dus zeker wel, maar als je van DX12 uit gaat en bij Nvidia op een 31 list komt maar hoger verwacht te kunnen leveren, dan gaat het fout. Noch Oxide noch Nvidia zijn hier fout en de bench die geschreven is toont ook niet een volledige async approach (zie de edit van het artikel in de link) maar schijnbaar parallel aansturen van multi-kernels.. Om het overzichtelijk te houden.

[Reactie gewijzigd door Freaky_Angelus op 1 september 2015 15:23]

Ja, jij doelt blijkbaar alleen op compute, maar dat is niet het doel van deze bench, het gaat om het verschil als het compute+gaming doet:

http://www.overclock.net/...hmarks/1540#post_24365003
Valid... (of !!! als je dat liever hebt)
Val niet meteen over het volgende, want ik merk hier een flinke communicatiestoornis in het DX12 verhaal naar voren komen ;)

Alleen nu ga ik vanuit process engineering praten en dan zeg ik dat ondanks seriele berekeningen op compute+graphics een asynchronous compute nog steeds voordelen zal leveren, mits goed geïmplementeerd.

Als je de serial compute+graphics nog steeds asynchronous kan verdelen heb je nog steeds winst over als je een set compute+graphics als opdrachten serieel aanlevert. Daardoor zal een optimalisatie op de scheduler veel tijdswinst kunnen winnen met deze asynchronous compute aanpak, echter... Hier komt jouw punchline... wat er als asynchronous compute is voorgehouden en ook expliciet in het plaatje hierboven in het artikel wordt getoond, is een asynchronous operation op het gehele proces. Oxide heeft wat dat betreft gelijk dat de mate waarin Nvidia asynchronous compute om daarna serial op de graphics te gaan niet voldoet aan het gegeven beeld van een asychronous operation waarin compute + graphics meer gelijktijdig worden aangesproken. GCN heeft daar dan i.m.o. meer voordeel op vanwege de andere structuur.

Wat dat betreft zijn wij het dan eens. Nvidia kan geen asynchronous compute+graphics en heeft uitsluitend op de compute een asynchronous benadering die, door de seriale graphics stap die volgt, dan weinig winst levert. Voeg daar dan de DX12 benadering van Oxide op en het is einde oefening.

Wat dat betreft zijn de bronnen hier gepost erg handig... Even bij elkaar voor overzichtelijkheid:
De bron van FPS op Nvidia en AMD via DRaakje
Uitleg structuur Maxwell via Sp3ci3s8472
En jouw eigen link

-edit-
voor de taalpuristen... Herhaaldelijk schakelen tussen Engels en Nederlands heeft mijn taalkunde vandaag echt gesloopt.. Sorry, maar dit geef ik op op deze post.

[Reactie gewijzigd door Freaky_Angelus op 1 september 2015 15:45]

Als ik het dan goed begrijp zijn er een soort van 2 implementaties door beide kampen.
Krijgen we in de toekomst zeker games die voor het ene of juist voor het andere kamp beter werken :|

Zitten we met z'n allen niet op te wachten...
Niet helemaal, DX12 wordt door beide kampen nog niet volledig en correct uitgevoerd.

Als DX12 gewoon netjes wordt aangehouden trekt dit voor beide kampen bij en wordt de volgende generatie kaarten weer 1:1 met DX12 qua functionaliteit. Alleen de stelling dat de kampen momenteel DX12 functionaliteit bieden verschilt nogal.

Zo is de R9 290 veel beter in DX12 dan de 980 Ti in de hele specifieke eerste tests en zowel de spellen zullen nog wijzigen als de drivers als daarna de hardware. Dus een eerlijk vergelijk is er gewoon nog niet ;)

Ik denk persoonlijk dat het erg goed is dat dit nu zo omstreden en vol in de aandacht komt, want nu moeten beide kampen met goede opvolgers qua kaarten komen. Hetzelfde hadden we ook in het verleden met DX11 (of al DX10?) als mijn herinnering klopt... Toen was de overgang ook dat niet alle functies op oudere kaarten werkten. Crysis 2 toevallig??? Geen idee.... wordt oud, ook bij mij beginnen de drivers te buggen :P
Hahaa bedankt voor de (grappige) uitleg! :)
Eens!

En wat je zegt, met de juiste optimalisatie voor de juiste kaart is er meer winst te halen. Want in de consoles zitten weer andere chips (met kleinere command lists) dan in de desktop.

Maar goed de tijd zal leren wat de impact is :)
Ze ondersteunen async computing op dezelfde manier als de 970 4GB RAM heeft. Dit klinkt misschien kinderachtig maar wel waar.
Ik heb ook niet de kunde om het goed te beoordelen, maar daarvoor is bovendien een stuk meer data en bewijs nodig. De test uit dit nieuwsartikel is een alfa-versie van een indie-game die dient als een eerste benchmark voor DX12 (die aangeeft dat async compute niet zou werken op Maxwell). Dat kan wat mij betreft geen volledig uitsluitsel geven; daarvoor is meer nodig. En de test die in het Reddit-thread voorbij komt is ook maar één test, en een vroege / eenvoudige (die aangeeft dat async compute wél zou werken op Maxwell). Er is dus nog geen duidelijkheid. Het is voor nu nog niet gezegd of de Maxwell-GPU's wel of geen ondersteuning hebben voor async compute.

Daarnaast: Als Maxwell inderdaad geen of problematische ondersteuning heeft voor async, dan is het nog niet gezegd of dit in de hardware zit of in de driver.

En het is ook nog de vraag hoeveel dit async compute straks in de praktijk gebruikt gaat worden, en hoeveel het in de praktijk scheelt qua performance wanneer het wordt ingezet in echte games.

Ik ben benieuwd naar meer informatie hierover. Het zou goed kunnen dat we pas zekerheid krijgen wanneer er meer DX12-games en benchmarks uit zijn, van verschillende partijen. Conclusies trekken op basis van de huidige data lijkt me erg voorbarig.

[Reactie gewijzigd door geert1 op 1 september 2015 15:04]

De update onderaan de post geeft al aan dat het programmatje mogelijk volledig in serial modus draait, wat de resultaten mogelijk beinvloed en weer terug biased richting nVidia. Maar volgens mij moeten we gewoon wachten op meerdere onafhankelijke benchmarks totdat we meer weten.

[Reactie gewijzigd door Sloerie op 1 september 2015 15:02]

<game-dev-mode>
Ah, maar dan schakelen we gewoon Asynchronous Computing voor iedereen uit, dan heeft niemand meer een voordeel. Scheelt de programmeurs nog werk ook, en als we een bepaalde fabrikant lief aankijken krijgen we er nog een zak geld voor, want we redden hun performance.
<dev-mode>
<game-dev-mode>
Ah, maar dan schakelen we gewoon Asynchronous Computing voor iedereen uit, dan heeft niemand meer een voordeel.
Probleem is dat deze feature blijkbaar een must is voor een goede timewarp implementatie voor de oculus/vive VR brillen.
bleek ontwikkelaar Oxide tegen een probleem in combinatie met Nvidia-kaarten op basis van de Maxwell-architectuur aan te lopen. Dit noopte de ontwikkelaars asynchronous compute, een feature waar DirectX 12 gebruik van kan maken, uit te schakelen bij gebruik van die kaarten
Enkel bij Nvidia Maxwell, dus.
Hun vorige kaarten doen niet eens DX12, dus daar is het sowieso niet relevant voor ;)
AMD ondersteunt al sinds GCN (de 7000-serie) behoorlijk wat DX12-features, en is dus compatible...
NVIDIA kaarten zijn ook allemaal DX12 compatible.
Welke? Is mijn ouwe 8800 XT ook DX-12 compatible? Ik dacht het niet. Kijk, dat de 900-serie DX-12 ondersteunt lijkt me logisch, maar hoe hard ga je nat met een 780 Ti? Of een 680 Ti? Of? Of?

Mijn snelle zoektocht so far zegt dat je alleen met een 900-serie goed zit, de rest valt onder DX-12 terug naar DX11-features.
NVIDIA will support the DX12 API on all the DX11-class GPUs it has shipped; these belong to the Fermi, Kepler and Maxwell architectural families.
Dat zijn er wel meer dan de "900-serie" hoor :P
Hoop geblaat, weinig wol. Er is op dit moment geen een videokaart van AMD of Nvidia die alle DirectX 12-functies aan boord heeft. Het zijn tenslotte allemaal DirectX 11-gecertificeerde kaarten.

Robert Hallock van AMD zei hierover:
I think gamers are learning an important lesson: there’s no such thing as “full support” for DX12 on the market today. There have been many attempts to distract people from this truth through campaigns that deliberately conflate feature levels, individual untiered features and the definition of “support.” This has been confusing, and caused so much unnecessary heartache and rumor-mongering.
Here is the unvarnished truth: Every graphics architecture has unique features, and no one architecture has them all. Some of those unique features are more powerful than others.
Ook AMD's FuryX-kaart mist DirectX 12-functionaliteit volgens Hallock en wel Raster Ordered Views en Conservative Raster.

Dat DirectX 11-kaarten DirectX 12 kunnen draaien is dus maar een halve waarheid. Afhankelijk van de generatie van je AMD- of Nvidia-kaart zullen er meer of minder hw-functies ontbreken en zullen DirectX-12-drivers die functionaliteit moeten simuleren of negeren. Pas met de echte DirectX-12-kaarten die in 2016 uitkomen zul je DirectX 12-games met de volle snelheid kunnen spelen.
Hoop geblaat, weinig wol. Er is op dit moment geen een videokaart van AMD of Nvidia die alle DirectX 12-functies aan boord heeft. Het zijn tenslotte allemaal DirectX 11-gecertificeerde kaarten.

Robert Hallock van AMD zei hierover:


[...]


Ook AMD's FuryX-kaart mist DirectX 12-functionaliteit volgens Hallock en wel Raster Ordered Views en Conservative Raster.

Dat DirectX 11-kaarten DirectX 12 kunnen draaien is dus maar een halve waarheid. Afhankelijk van de generatie van je AMD- of Nvidia-kaart zullen er meer of minder hw-functies ontbreken en zullen DirectX-12-drivers die functionaliteit moeten simuleren of negeren. Pas met de echte DirectX-12-kaarten die in 2016 uitkomen zul je DirectX 12-games met de volle snelheid kunnen spelen.
Verschil is toen AMD met GCN DX12_1 miste was het meteen moord en brand en een heleboel misinformatie. Ze hebben daar best onder te leiden gehad.
Nu heeft Nvidia volgens hun driver een bepaalde feature (Async Compute) terwijl die eigenlijk niet werkt. Lijkt mij een beter moment om moord en brand te schreeuwen dan voorheen :P.
Als je had doorgelezen, had je gezien dat de Nvidia's Maxwell-kaarten wel asyncronous compute ondersteunen. Zie discussie op https://www.reddit.com/r/...s_it_true_nvidia_cant_do/
De bron van Beyond3d die ze daar aanhalen laat niks zien. Alleen dat AMD kaarten geen verschil tonen in latency tussen alleen graphics en in deel 2 van de benchmark graphics + compute. Bij Nvidia zie je duidelijk dat ze het goed doen met alleen graphics, maar zodra daar ook compute bij komt kijken worden ze héél snel trager.

Misschien begrijp ik de resultaten niet goed, maar het komt er bij mij op neer dat indien Maxwell 2.0 het kan, hij het dus absoluut niet goed kan. Het lijkt er eerder op dat de starter van het topic de resultaten verkeerd interpreteerd.

Indien ik fout zit dan merk ik het wel :D.
[...]


Verschil is toen AMD met GCN DX12_1 miste was het meteen moord en brand en een heleboel misinformatie. Ze hebben daar best onder te leiden gehad.
Nu heeft Nvidia volgens hun driver een bepaalde feature (Async Compute) terwijl die eigenlijk niet werkt. Lijkt mij een beter moment om moord en brand te schreeuwen dan voorheen :P.
In welke zin heeft AMD daar te lijden over gehad? Ik tot heden DX12 nog geen rol zien spelen bij de aanschaf van een nieuwe videokaart. Dat het marktaandeel van AMD terug loopt is eerder terug te leiden tot andere zaken waaronder het uitblijven van een echt nieuwe lineup, reputatie op drivergebied (al dan niet terecht) en de achterstand op performance per watt.

Als AMD de gamers die nu zijn overgestapt naar de GTX 970 (Momenteel de nummer 1 kaart in de Steam Hardware survey, een belachelijk aandeel voor een kaart uit die prijsklasse) ooit weer willen verleiden terug naar AMD te stappen dan zullen ze Nvidia niet moeten evenaren maar overtreffen.

Vergeet ook niet dat uit dezelfde test blijkt dat AMD een flinke achterstand heeft op DX11 gebied en de komende tijd het gros van de games nog op DX11 zal draaien. Uiteindelijk zijn er ook slechts in zeer beperkte mate DX10 games uitgekomen.

Ik denk dat we de hele DX12 discussie beter kunnen uitstellen tot 2016 en dan eerst opnieuw bekijken of er al voldoende games uit zijn die het hebben geïmplementeerd.

[Reactie gewijzigd door sdk1985 op 1 september 2015 15:48]

Goed punt, geen idee of het meetbaar is. Zelf denk ik dat een boel mensen die dat nieuws hebben gelezen dit toch in hun achterhoofd hebben meegenomen bij de aankoop van hun volgende videokaart. Als je dit optelt bij de (niet echt terrechte) minder goede reputatie die AMD heeft dan gaan mensen toch over op Nvidia.
Het is alleen te benaderen. Als je kijkt in de Steam Hardware Survey (eventueel aangevuld met het archief van het internet op https://archive.org/web/) dan zie je dat het marktaandeel van de GTX 970 redelijk stabiel aan het toenemen is. Mocht dit nieuws impact hebben dan verwacht je in de maand na dit nieuws een extra grote toename. Volgende maand even kijken dus.

Dit zou je vervolgens moeten afzetten tegen de tegenhanger van AMD (de R9 390) die dan juist minder zou moeten groeien/meer dalen. Helaas is de R9 300 serie niet populair genoeg voor een plaatsje in de top.

De kleinste kaart in de top heeft een marktaandeel van 0.36. De R9 300 serie is pas net uit. Misschien dat hij er Augustus wel in staat. De AMD Radeon R9 200 Series haalt overigens slechts 1.12% marktaandeel (en dat zijn heel wat modellen bij elkaar, 8 aldus de AMD site) dus dat maakt het ook lastiger.

[Reactie gewijzigd door sdk1985 op 1 september 2015 16:02]

voordat er echt een aantal grote dx12 games zijn, zijn we ook als weer 2 generaties gpu's verder...

info over feature levels:
https://en.wikipedia.org/...s_in_Direct3D#Direct3D_12

[Reactie gewijzigd door PeterBezemer op 1 september 2015 14:52]

Aantal games die binnenkort uitkomen met DX12 zijn, degene met onbekende tijd van uitkomst heb ik er even uit gelaten. Zoals je ziet zitten er best wat AAA titels bij. Onderschat de adoptie van DX12 niet, ontwikkelaars vragen al jaren om API's waar ze close to metal kunnen werken. AMD is hier destijds handig op ingesprongen met Mantle en plukt dus nu de vruchten. Windows 10 is ook gratis als upgrade, dus er zullen veel mensen sneller overgaan (blijkt ook uit de cijfers).
  • Ark: Survival Evolved
  • Arma 3 (Tanoa-Erweiterung)
  • Deus Ex: Mankind Divided
  • Fable Legends
  • Hitman
  • Project Cars
  • Gigantic
  • Halo Wars 2
Bron:
http://www.pcgameshardwar...ayZ-Star-Citizen-1164994/
ja goed, vraag is dan: welke feature levels gebruiken ze, in dx 12 zitten ook 11_x feature levels.

en over pcars: "Ian Bell: Calm down guys. We're still investigating if we can do it. It's not off the table." Dus dat is nog even afwachten...
http://forum.projectcarsg...07&viewfull=1#post1037307

http://wccftech.com/proje...improve-performance-3040/
hier wordt wel vermeld wat de winst is, maar niet of ze het gaan doen, zoals ik het lees dan...
Op de Xbox One en PS4 wordt gebruik gemaakt van Async Compute omdat ze daar de mogelijkheid hebben en het een performance winst van 30% kan geven. Het lijkt mij heel zonde als developers deze functionaliteit eruit gaan slopen op een PC poort.

http://gearnuke.com/rise-...ric-lighting-on-xbox-one/
http://gearnuke.com/tomor...evelopment-across-ps4xbo/
http://cdn.wccftech.com/w...s/2015/04/Async_Games.png
Enzovoort.
"Nvidia legde de schuld voor de prestatieproblemen aanvankelijk bij bugs in de msaa-implementatie, maar dat ontkent Oxide." Aangezien Oxide dikke vriendjes met AMD is (mede ontwikkelaar van Mantle) zou ik toch hun niet gelijk op hun blauwe ogen geloven. Het vergt enig geduld , maar laat andere ontwikkelaars eerst dit maar eens reproduceren. Dat zou toch niet zo moeilijk moeten zijn ?

[Reactie gewijzigd door AtariXLfanboy op 1 september 2015 14:40]

Nee Oxide is net zoveel vriendjes met AMD als met Nvidia. Het AMD logo op de website is alleen een overeenkomst tussen de 2 zodat AMD de game voor marketing kan gebruiken. Beide partijen hebben evenveel tijd gekregen om hun stukje code voor de game te controleren en te verbeteren Als je het verhaal leest op overclock.net zie je dat ze zelfs meer met Nvidia hebben samen gewerkt dan met AMD

Certainly I could see how one might see that we are working closer with one hardware vendor then the other, but the numbers don't really bare that out. Since we've started, I think we've had about 3 site visits from NVidia, 3 from AMD, and 2 from Intel ( and 0 from Microsoft, but they never come visit anyone ;(). Nvidia was actually a far more active collaborator over the summer then AMD was, If you judged from email traffic and code-checkins, you'd draw the conclusion we were working closer with Nvidia rather than AMD wink.gif As you've pointed out, there does exist a marketing agreement between Stardock (our publisher) for Ashes with AMD. But this is typical of almost every major PC game I've ever worked on (Civ 5 had a marketing agreement with NVidia, for example). Without getting into the specifics, I believe the primary goal of AMD is to promote D3D12 titles as they have also lined up a few other D3D12 games.

[Reactie gewijzigd door Crp op 1 september 2015 14:52]

Volgens Oxide zelf ? Maar die zijn toch mede ontwikkelaar van Mantle?
Eerst maar eens meerdere benchmarks zien waaruit dit blijkt.

[Reactie gewijzigd door AtariXLfanboy op 1 september 2015 14:59]

Nee ze hebben alleen Mantle geimplementeerd in de tech demo (Star Swarm) in opdracht van AMD. Dit om de peformance van Mantle aan te tonen. Niets meer niets minder.
Maar zijn in het verleden ooit ook door NVIDIA betaald voor bv 'marketing agreements' of het maken van tech demos? Site visits zegt maar weinig over de mate van commerciële belangen die men met een bedrijf heeft. Dat soort dingen maakt mij vooral achterdochtig om op maar één benchmark af te gaan. Uiteraard heeft ook NVIDIA zullen banden met andere bedrijven.
Eigenlijk wordt hier Oxide's verhaal compleet gelooft en NVIDIA niet. Wat is daar de rechtvaardiging van? Als NVIDIA's verhaal niet klopt dan merken we het snel genoeg in andere benchmarks.
Het blijf lastig inderdaad. Wie moet je geloven. Zoals Oxide overkomt op mij zijn ze erg open en eerlijk en lijken ze dingen niet te verdraaien. Ze geven aan dat iedereen gelijke kansen heeft gehad in het optimaliseren van de code. Ze lijken in ieder geval niet deel te nemen aan een specifiek AMD programma zoals Nvidia's Gameworks. Als dat wel het geval was zou het allemaal wel wat verdachter zijn natuurlijk.
Dat lijkt waar en ik twijfel er ook niet aan. Maar gelijk behandelen is niet hetzelfde als gelijke kansen, ze beginnen namelijk niet vanuit dezelfde positie. GPU specifieke implementaties spelen een rol.

Als ik extreem ga multi-threaden in software dan zal ook niet iedere CPU daar gelijk geschikt voor zijn. Met continue een toename van threads zal iedere CPU uiteindelijk langzamer gaan worden. Op welk punt dit gebeurd zal afhangen van de architectuur. En iedere architectuur heeft een optimum van aantallen threads!

Wat Microsoft bij DX12 moet doen is de API laten rapporteren wat voor de aanwezige GPU de optimale capaciteit is. Laten we hopen dat dit bij de volgende minor patch deze optie er wel is. Dat is wel zo future proof!

[Reactie gewijzigd door TheCodeForce op 1 september 2015 16:21]

Het hele doel van DirectX is om een gelijke implentatie te bieden voor elke GPU, zodat ontwikkerlaars geen rekening hoeven te houden met welk kamp zij te maken hebben. Jouw redenering helpt het hele doel van DirectX omzeep. Fabrikanten van GPU's moeten zich gewoon houden aan de implementatie van DirectX...
@TunefulDJ_Mike,

Je begrijpt wat voor rol een API vervult maar half. Ten eerste is DX12 een verzameling afspraken en optionele extensies hierop. Dus niet een heiligheid waar iedereen exact en volledig aan zal voldoen.

En rekening houden met de capaciteit van een GPU doet niets af aan de rol en het nut die de API vervuld. Het is nog steeds een standaard abstractielaag die je afschermt van extreem veel architectuur specifieke implementatie details.

Verder is in software is het heel normaal dat je configuratie parameters hebt. Neem nu de bekende RAR compressie tool. Daar kun je de compressie window size aanpassen. Deze aanpassing veranderd niets aan de werking van her algoritme, maar kan geheugen gebruik laten toenemen of afnemen in ruil voor meer of juist een beetje minder compressie.

Net als software rekening houd met de hoeveelheid geheugen een GPU aan boord heeft en daarnaar optimaliseert, kan dit ook met het aantal concurrent commands/threads.

Het is echt de software die moet weten wat de capaciteit van de onderliggende GPU is om geen domme dingen te toen. 8 GB aan textures gebruiken op een videokaart die slechts 2 GB aan boord heeft zal ook heel slecht presteren, hoe goed de onderliggende architectuur ook is!

Je kan dan niet zeggen, ik gebruik geheugen via de DX11/12 API en het werk wel op de 1 en niet op de ander...dus is het probleem de hardware.

[Reactie gewijzigd door TheCodeForce op 2 september 2015 17:14]

Weet je Netscape vs Microsoft nog? Netscape gaf Microsoft de schuld van de memorymanagement problemen van de browser. Het heeft Microsoft lang gekost om aan te tonen dat het niet het geval is. Het is vaak stuk moeilijker fouten in code vinden dan om code te maken. Gelukkig hoeven zo'n vergelijkbare strijd hier niet af te wachten... Binnen enkele maanden zullen er genoeg benchmarks zijn om een wat rechtvaardiger oordeel over te kunnen maken.
Nu lijken de vele volgers op het net toch wel iets te veel sympathie en geloofwaardigheid aan een klein ontwikkelaar te hechten die ook nog eens een geld verdiend heeft verdiend aan het andere kamp. Die underdog voorliefde is begrijpelijk, zeker aangezien ook NVIDIA regelmatig flatert, maar misschien nog wat voorbarig.
En edit : en aangezien het socket 1151 platform toch nog niet volledige uitgerold is en dus vrij prijzig is een goed idee om nog een paar maanden te wachten?

[Reactie gewijzigd door AtariXLfanboy op 1 september 2015 15:30]

En hoe zit het met keppler kaarten? Ik zit nog op een 780ti. Moet ik mij ook zorgen gaan maken?
Tegen de tijd dat DirectX-12 games gemeengoed zijn geworden, heb je allang een nieuwe DirectX 12-kaart in je PC. Dat je DirectX 11-kaart DX12-compatibel is, is maar ten dele waar. Uiteindelijk moet iedereen voor DX12 games toch nieuwe HW aanschaffen om de nieuwe features/snelheid ten volle te benutten.
Zie mijn post.

Denk dat een boel mensen niet een kaart kopen om er maar een jaar iets mee te doen. Ik doe gemiddelt 2 tot 3 jaar met een (highend) kaart. De volgende kaart die ik ga kopen is waarschijnlijk pas de 2e generatie op 14/16nm (mooie alle bugs uit het productie process :P).

Alleen de meest fanatieke gamers kopen om het jaar een nieuwe kaart. Veel mensen kopen pas tussen de 2-6 jaar een kaart. Het aantal posts wat ik voorbij zie komen in V&B met mensen met oudere kaarten is best substantieel.
Ja... Natuurlijk.. Maar het is fout om juist dat niet te vermelden dat DX12 softwarematig is!! Net als toen met de TV's jaren geleden, HD READY is geen FULL HD !! Sofware matige DX12 is geen native support DX12.

Akkoord, DX11 voert nog wel even de boventoon, Maar beide fabrikanten zijn fout bezig, geen van de beide kaarten ondersteunen het volledige DX12 instructie set.
Inprincipe zijn beide fabrikanten niet fout bezig. AMD geeft netjes toe welke functies op welke kaart wel en niet werken en zij claimen ook niet full DX12 support te hebben. Nvidia daar in tegen loopt de roepen wij hebben dit en wij hebben dat. Of dit waar is moet maar blijken maar op het moment ziet het er niet goed uit.
Dat is wat ik ervan denk!

DX11 zal nog vele jaren hebben en games zullen het blijven supporten voor nog vele jaren.
Ik ben zelf van mening, dat je je videokaart pas moet gaan vervangen als je ontevereden wordt over de prestaties die hij levert.
Hij wordt ook nog niet vervangen hoor. Ben gewoon benieuwd naar de ondersteuning op de kaart voor dx12
Ja... Software matige DX12.
Onzin. Bij een niet ondersteunde functie kan de kaart terug naar of een vorige versie vallen of aangeven in de driver dat deze functie niet gebruikt moet worden. Echter ondersteunen zowel AMD als NVIDIA het grootste deel van DX12 gewoon in hardware, waar AMD zelfs de meeste features al 4 jaar ondersteund, voordat Microsoft DX12 had bedacht.

Een nieuwe DX is meestal de beste nieuwe features in het veld aangevuld met een visie op de toekomst van microsoft. Zo ook DX12. Het zijn voor een groot deel features die al bestonden aangevuld met een aantal dingen die AMD en/of NVIDIA niet ondersteunen.

Er is echter nergens sprake van software emulatie van de features, behalve waar hardware support al grotendeels een oplossing biedt
780Ti komt prima mee en zal ook prima DX12 draaien, alleen sommige (extra)prestatiewinsten zal hij niet mee kunnen pakken. Maar in het algemeen heb jij geen rede om naar een andere kaart te kijken :)
Goed om te horen. Prestaties ook in een nieuwe games. Ben ik inderdaad nog meer dan tevreden over.
Handig om dit even mee te nemen in de best buy guide high end gaming PC config.
Want?

Een klein deel van DX12 wordt wel of niet ondersteund. Er zijn nog geen echte games uit die DX12 gebruiken, en niemand kan echt zeker zeggen hoe groot de perfomance impact is van functie X of Y wel of niet ondersteunen.

Volgens mij ondersteund nog geen enkele GPU echt "alle" onderdelen van DX12. Er zijn verschillende tiers en verschillende feature levels.

Ik dacht dat AMD veel feature levels ondersteunde, maar dat Nvidia weer meer Tiers kon ondersteunen binnen producten.

*Trouwens extreem dom van Microsoft om met verschillende niveau's van support te komen. Iets is volledig DX12 geschikt, of het is het NIET. Geen nut om dingen dan toch DX12 ready te noemen, terwijl ze eigenlijk allemaal wel iets missen. ;(
Die bedoelde ik ja.

Er mist overal wel iets.
Iemand een beter versie daar van? Kan deze nl niet lezen op mn tel.. :|
Die feature levels worden al jaren gebruikt, bijvoorbeeld om een DirectX9 kaart toch DirectX11 te laten draaien. Dat is super handig voor developers.
Ja het klopt je hoefd niet alle features te ondersteunen. Maar hou er wel rekening mee dat de invloed van elke feature ook verschillend kwa impact zijn. Van subtiel tot extreem. Deze kan zeer grote invloed op performance hebben. Sommige features zijn zo optioneel dat de meeste games het niet gebruiken.
Of wordt matig gebruikt en er zijn geen games die die feature bound zijn. Al kan nV dev even 8 voudige last setten in gameworks.
ACE is een feature die juist gericht is op hardware volledig mogelijk te utiliseren. En dus sterk performance gericht. En met DX12 zijn de dev verantwoordelijk om dat goed te implementeren.
Deze RTS devs zijn capable om in synthetische pure CPU bound situatie de CPU 95% 16 tread op 8 core benutten.
Maar wat is ACE.
Maxwel is GFX eenheid en 31 compute eenheden. Als dat ook onder ACE valt dan ondersteunen ze dat ook?
GCN 1.1 en 1.2 ACE is GFX + 8 compute. Maar dan in 8 voud.
AMD ACE is stuk extreem parraleliseerbaar met 8 GFX units.

Wat ik zie is dat je met nV wel tekeer kan gaan met Cuda of OpenCL DX compute. Maar niet met de render pipeline.
Op YouTube van Gamers Nexus word er over gesproken, en woord ook duidelijk gezecht dat het maar een spel is, en dat je daar geen conclusie uit kan trekken en dat iedere spel DX12 op een andere manier gebruikt, en AMD had altijd niet veel winst met DX11 en NVIDIA wel, en dat kan ook een grote reden zijn waarom je in die spel bij AMD meer winst ziet van DX11 naar DX12 en niet bij NVIDIA omdat die all alles uit DX11 gehaald had qua winst, en daarom krijght NVIDIA van DX11 naar DX12 niet veel meer winst.


Meer info HIER.

Gesprek begint op 8:11
AMD had altijd niet veel winst met DX11 en NVIDIA wel, en dat kan ook een grote reden zijn waarom je in die spel bij AMD meer winst ziet van DX11 naar DX12 en niet bij NVIDIA omdat die all alles uit DX11 gehaald had qua winst, en daarom krijght NVIDIA van DX11 naar DX12 niet veel meer winst.
Ehhhm, volgens mij is dit een nogal kromme redenatie. Omdat Nvidia veel performance winst wist te boeken met DX11, hoeft dat nog niet te betekenen dat ze dat (uiteindelijk) niet gaat lukken bij DX12. Same goes for AMD.
Nee bij drawcall bound games in DX11 kan nv wel doorschalen door driver team die nogal wat werk verzet muktithreaded in de driver.
Die games doet nV het beter. Niet alle games zijn drawcall limited. Er zijn ook games die weer anders bound zijn zoals ROP. aMD CPU zijn wat kleiner dus ergens hebben ze altijd iets minder van. Afhankelijk wat voor balans aan units gekozen is.
Gewoon vanuit transistor besteding heeft nV meer ruimte voor rauwe performance. Maar ja achtitectuur nukken geven ergens een grote voordeel en ergens anders een nadeel. Dus nV kan bij sommige DX12 games beter presteren.
Zolang alles nog op DX11 draait niet.
Tegen de tijd dat DX12 gemeengoed wordt dan worden ze vol gestopt met andere effecten waar de huidige kaarten alsnog te traag voor zijn.
Ik denk het niet, het is niet dat nV het minder doet met DX12 maar het profiteerd minder. De nextgen genieten van een extremere die shrink en dat leid tot een grotere performance sprong voor AMD en nV.
Maar de mainstream is niet meteen over. Mainstream blijft nog lange tijd vorige dieshrink. Men richt zich niet op afzet markt die 2x beter presteerd alleen al door veel grotere hoeveelheid transistoren dus units. Want die beginnen van 0.
Terwijl de vorige gen langzaam van af 100% krimpt.
Deze keer kan nieuwe midrange kaart makkelijk vorige gen high- end overtreffen.

Groot contrast.

Maar games kosten grote investeringen die terug verdiend moeten worden met voldoende profits en daarbij is belangrijk dat je grote markt benaderd. Dus niet alleen DX11 blijft lang van belang ook huidige hardware.
En daarmee kan je het best heel lang uithouden. Voor al voor games die op low er nog redelijk uitzien.


VR en 4K en 4K texturepacks is niet de mainstream.
Dat is optioneel voor kleine doelgroep.
Helemaal mee eens en om deze thread dan meteen op verzoekjes te houden..

Misschien een interessante om hier uitgebreider naar te gaan kijken. Welke kaarten kunnen wat en wat levert het visueel als verschil op in DX12? Vooral de laatste alinea maakt het i.m.o. interessant. Beide merken hebben problemen, hoe uiten deze zich dan ;)
Ze hebben geen problemen; ze ondersteunen gewoon niet alle features van DX12. Dat zijn 2 heel verschillende zaken.
En laat dat nou net DE feature zijn waar gigantisch veel performance winst mee te halen valt...

Net zoiets als van single core naar multicore cpus.
Ja en daarmee een groot probleem. nVidia is obsesief gericht om voor prestige de kroon te behalen en daar is performance crusiaal.
R600 HD2900XT werd geen topper dus upper midrange instap high- end.
NV30 FX5800 viel tegen zou leuke betaalbare bang for the buck lager geklokte performance GPU zijn geweest.
Maar moest de topper zijn paar respins voor extreem fab OC poging.
Dit is een groot probleem.
Nou ben ik het eens dat er een verschil is tussen opties die je niet ondersteund en opties die problemen ondervinden, maar:
Nvidia legde de schuld voor de prestatieproblemen aanvankelijk bij bugs in de msaa-implementatie, maar dat ontkent Oxide.

Letterlijk uit het artikel, dus ik denk dat er best over problemen mag worden gesproken in dit geval. Misschien dan niet AMD, maar ik ga nu eerst het artikel via DRaakje lezen ;)
Gaat mij er meer om dat er een kaart voor 750 euro word aangeraden die over een jaar totaal niet meer future proof is.
Nee een 290 alles GCN 1.1+ is nu wel stuk meer future proof samen met de al zwakkere multicore AMD CPU dan wat DX11 laat zien.
Een 8/4 core AMD is door multitreaded drawcall efficentie voldoende voor als DX12 mainstream wordt. En kan Daarmee AMD ook in CPU bound situaties goed of stuk beter mee komen. Minder CPU upgrade druk. DX12 xboxOne ports die ook al van ACE hardware genieten fijn doorschalen op ouwe GCN 1.1 en huidige GCN 1.2 hardware. En Met Maxwell 2 terug valt en met elke oudere architectuur tot fermi zwaarder terug valt.

Als Maxwell 2 ACE niet hardware matig ondersteund dan zijn ze stuk minder future proof. En kan je in DX12 voor sommige games een 290 x tegen TitanX zetten.
Niet alle games zullen zwaar leunen op ACE. Maar zie het maar als een 1 zaak waar het al slecht uitziet. De kans dat deze geval een extreme uitzondering is er wel. Maar kan ook zijn dat we dit vaker tot heel vaker kunnen zien met DX12 titels.

Het verbaast mij ook, dat het beperkte AMD even aan Dice gehoor geeft en even een lowlevel API in mekaar zet. Dit is grote R&D stap. Dit klopt niet. Ik speculeer eerder, dat ik denk dat AMD zich bewust is van hun R&D beperkingen en daarmee rekening houd met nextgen architectuur en niet afhankelijk willen zijn van driver magic. En dus de dev dichter bij de hardware wil hebben. Dan groot eigen aandeel in driver. Dus een lean& mean API is nogal onlastend voor driver support. En ipv leunen op game profiling en shader code re compiling in drivers.
GCN architectuur is daarmee veel meer ontwikkeld met samen werking met multicore CPU. Terwijl nVidia in huidige situatie wil scoren waar driver juist zeer grote invloed heeft.
AMD keuze komt met een groot manco dat je in heden en voor de algehele GCN generatie ACE een handicap is voor DX11 performance.
Ik denk dat GCN1.1 een gen te vroeg gekomen is.
Of die API te laat. De reden dat AMD met Mantle komt. En DX12 grote modificatie op Mantle is en Vulkan wat directere open modificatie is van Mantle. Mij lijkt AMD veel langer bezig met Mantle te zijn dan wij aannemen.
Het kan ook een simpel geval van bewust zijn dat CPU multicore zijn en je GPU hardware daar op richt. En dat API dit volgen. Alleen ging dat voor devs en AMD te langzaam.

En de tweede speculatie. NV kan verrast zijn door mantle. Afhankelijk tot wanneer de Pascal architectuur design final geworden is, of te ver in ontwikkelings fase zijn. Om een grotere nadruk op ACE mogelijkheden te implementeren.
Wat mij wel opvalt bij nV is dat ACE units met elke gen meer worden. Elke gen van Fermi nope tot Maxwell2 gfx + 31 compute is anders. Dus Pascal kan mogelijk wel weer meer bieden. Maar voldoende om AMD nextgen en of huidige te evenaren of overheen te gaan?
Bedankt voor de uitgebreide & duidelijke uitleg. Ik reageerde echter op de vraag waarom de best buy guide hier mee geupdate moet worden; er word een Nvidia kaart van 750 euro aangeraden.
De kern is ook dat ik mijn argument als speculeren aanduid. Ik heb geen glazen bol. Maar dit kan teken aan de wand zijn voor nV. En Pascal is ook een grote variable. De mogelijk nog van voor de API heisa is ontworpen.
Nextgen wordt spannend. Misschien dat het al meegenomen wordt.
Ik snap hem, bedankt :). Alleen zo jammer dat ik voor het eerst in jaren weer mijn gamebak ga vernieuwen, en dan zo'n rot tijd (onduidelijk) qua een van de belangrijkste componenten.

Misschien toch nog maar een paar maandjes wachten, maar het brand wel.
Hmmm, interessant gegeven dit.

Welke studio bevestigt deze geruchten?

Vind het wel vreemd, 1 studio(en zo te zien niet eens een grote) roept wat en mensen duiken er direct op. en gebruiken hun software om dezelfde resultaten te zien. (een Closed Source applicatie, wie weet wat ze ermee doen)
Ook gaat deze studio vrij prat op Mantle en gebruiken ze hun eigen ontwikkelde Engine, wie zegt dat ze daar niets fout hebben gedaan?

Begrijp me niet verkeerd, ik probeer niet Nvidia te verdedigen, maar ik wil wel graag solide berichtgeving zien en niet geruchten als nieuws verkondigd zien worden op basis van meerdere proeven via dezelfde applicatie van 1 maker welke Closed Source is. (Hoe consistent ze ook zijn, het kan dan nog net zo goed aan hun Engine liggen of wat code)
1. Oxide implementeerde Mantle in hun tech demo (Star Swarm) in opdracht van AMD om de performance winst tussen DX11 en Mantle aan te tonen
2. Het mag dan wel closed source zijn. Alle partijen AMD/Nvidia/Intel/Microsoft hebben allemaal gelijke kansen gekregen om hun stukje code door te nemen en aan te passen om zo maximale performance te krijgen. Uiteindelijk had AMD het voordeel met hun implemenatie van asynchronous compute, iets wat Nvidia nog niet ondersteund.
Nogmaals, bovenstaande berichten zijn allemaal gebaseerd op 1 bron(nl de Engine van Oxide) in die bron kan ook een fout zitten die er voor zorgt dat de boel op AMD beter loopt(hoeft uiteraard niet, maar bewijs dat eerst maar met behulp van een losstaande Engine)

Het kan nu dus het geval zijn dat nVidia Asynchronuos Compute WEL ondersteund, maar dat de implementatie zoals door Oxide gedaan is foutief is! Daarom vraag ik om een 2e bron die los staat van Oxide en hun Nitrous Engine.

Totdat dat gebeurt is bovenstaand nieuws niets meer en niets minder dan een gerucht, hoeveel gewaardeerde sites het tegendeel beweren.
Ik zal vanavond even verder zoeken maar ik meende gisteren wel op een forum te zijn geweest waarbij ze een kleine benchmark in elkaar hadden geknutseld hadden die dit aantoonde. Volgens mij maten ze tijden en liepen naarmate de benchmark vorderde de (?frame?)tijden op Nvidia hardware op, en bleven die op AMD hardware gelijk.
Ik edit mn post zodra ik het weer vind.

//edit gevonden
https://forum.beyond3d.co...57188/page-8#post-1868993

Wat de benchmark precies doet weet ik niet, daar hebben ik te weinig kaas van gegeten. :P

[Reactie gewijzigd door Crp op 1 september 2015 15:34]

Yes please :)

Zoals gezegd, het gaat mij niet zozeer over wie er gelijk heeft, maar hoe het nieuws gebracht wordt


Dat gezegd hebbende; ik zou zelf erg zuur zijn met mijn GTX970 als Nvidia idd de boel loopt te flessen.
Gevonden:
https://forum.beyond3d.co...57188/page-8#post-1868993

[Reactie gewijzigd door Crp op 1 september 2015 15:37]

Check! Volgens mij had ik die al langs zien komen in een andere thread :)

Ben bang dat ik met je mee moet in net te weinig kaas gegeten, maar het lijkt er wel op dat er nu heel erg geoptimaliseerd dient/kan worden voor de verschillende hardware kaarten :)

Anyways, laten we hopen dat het iets in die richting is, anders moet ik mijn hooivork gaan opgraven

Dank je voor de link in elk geval!
Kan het niet zo zijn dat Nvidia's implementatie niet klopt?
Zou kunnen maar het zou net zo goed kunnen dat nv inderdaad weet dat dit aan de hand is en dat ze hun kaarten willen uitmelken tot de volgende versie die wat dan wel ondersteunt.

Het is niet de eerste keer dat NVA zoiets doet en het is ik vind hun reactie redelijk raar. Als ze het effectief volop ondersteunen hardwarematig waarom komen ze er niet voor uit, of helpen ze te corrigeren?
Zoals gezegd, dat kan. Maar om deze geruchten klakkeloos over te nemen en geen 2e bron dit laat verifieren(en die is er niet daar ook Ars Technica en Reddit zich op dezelfde Engine beroepen) is dit geen nieuws maar slechts geruchten.

Daar gaat het mij meer om, niet per se of Nvidia nu wel of niet de boel loopt te bedonderen(en dat zou ik zuur vinden met mijn GTX970 ;) )
Het is nieuws want het is controleerbaar en correct voorgesteld.

Een gerucht zou zijn iemand die hetzelfde zegt zonder enige bron of controleerbaarheid.
Waarom dit het geval is: de benchmark, drivers of de hardware zelf is nu de vraag. Ik zie dat de schrijvers van de benchmark nvidia alle kansen gaf om het recht te zetten en daar weinig of geen reactie op kwam...

En ik heb zelf ook een 970 zou het dus heel spijtig vinden moest dit het geval zijn.
Het is controleerbaar, door middel van de Engine van Oxide zelf! En de bron daarvan is gesloten, ergo, dit is net zo controleerbaar als geen bron.
Sure, de resultaten zijn mooi gelijk. Zolang je dezelfde benchmark(== Engine van Oxide) gebruikt.

Dit sluit uiteraard niet uit dat het de hardware kan zijn, echter is dit niet bevestigd!
En als je WC Eend vraagt of hun product te adviseren is kan ik je op een briefje geven wat het antwoord is. Ik verwacht dat of Nvidia ergens volgende week een antwoord formuleert(een benchmark schrijf je niet zomaar even, zeker niet als je wilt zorgen dat alles geheel klopt want de wereld hijgt in je nek) of helemaal zwijgt en andere benchmarks voor zich te laten spreken. (of optie 3: totaal onderschat wat dit teweeg zou brengen en destijds afgedaan als kolder)

Derhalve vindt ik dit geen nieuws, wel een noemenswaardig gerucht, maar het wordt door Tweakers gepresenteerd als de waarheid, terwijl dit nog niet bevestigd is.
Derhalve vindt ik dit geen nieuws, wel een noemenswaardig gerucht, maar het wordt door Tweakers gepresenteerd als de waarheid, terwijl dit nog niet bevestigd is.
Waar maak je dat uit op? Het feit dat wij presenteren is niet 'Maxwell kan geen async comp aan' zoals je zegt, maar 'Oxide beweert dat Maxwell geen async comp aankan'.
Dat dit door de engine van Oxide zelf is maakt niks uit, het is en blijft een nieuwsfeit dat in deze benchamrk nv zwaar onderuit gaat tov AMD.

Je kan zeggen dat er geen zekerheid is omdat er maar 1 bron momenteel is, maar het afdoen als een gerucht is onzin. Het is waarheid dat in deze benchmark nv slecht presteert, of ze hardware matig DX12 zo slecht geimplementeerd is zoals hier word op gehint en gezegd is de vraag.
NV zal misschien reageren maar ik betwijfel het ze winnen hier niks mee buiten als het compleet niet waar is en dan hadden ze al gerageerd .

Btw: dit gaat niet over wc eend, Oxide is geen deel van AMD.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True