Futuremark toont 3DMark voor DirectX 12

Futuremark heeft de eerste beelden getoond van 3DMark voor DirectX 12 waarmee een compleet beeld kan worden gegeven van de prestaties van videokaarten in combinatie met DirectX 12. De nieuwe versie van het programma gaat twee gpu-tests en een cpu-test bevatten.

3DMark voor DirectX 12 moet ervoor zorgen dat het programma een goed beeld kan schetsen van de prestaties van videokaarten die de api ondersteunen. Futuremarks productmanager Pasi Virtanen gaf aan dat de nieuwe versie twee gpu-tests bevat, waaronder één genaamd Time Spy, en één cpu-test.

De huidige versie van 3DMark heeft wel al gedeeltelijke ondersteuning voor DirectX 12, met de API Overhead Feature Test. Deze test vergelijkt de overhead van DirectX 12, DirectX 11 en Mantle. De nieuwe versie van 3DMark is een complete systeemtest met DirectX 12-ondersteuning, waarbij zowel het renderen van graphics als de verwerkingsmogelijkheden van de cpu worden getest.

Virtanen heeft de eerste beelden laten zien van de nieuwe versie van 3DMark tijdens een presentatie in China gedurende het Galax GOC 2015-evenement. Wanneer de nieuwe versie van 3DMark uitkomt is nog niet bekend, maar de benchmarkingtool wordt ergens in 2016 verwacht.

Door Jeroen de Vries

Stagiair

14-12-2015 • 12:56

54

Submitter: CriticalHit_NL

Reacties (54)

54
54
44
3
0
2
Wijzig sortering
Ik hoop dat ze ook wat doen tegen driver-detectie van deze software, en dat het alleen maar om deze test gaat draaien; zodat het ook een beetje een echte representatie wordt van performance... zowel AMD als nVidia hebben een stukkie "benchmark fraude" op hun CV staan, waar de drivers de executable van de benchmark vonden en vervolgens gingen 'tunen' tot zelfs overklokken zonder gebruikerspermissie...
In tegenstelling tot de fraude bij mobiele devices is dat hier niet echt relevant, moderne GPU's kunnen zichzelf overklokken, en doen dit (indien mogelijk) ook in games. Op mobiele devices gebeurt dit normaliter niet waardoor je tijdens benchmarks daadwerkelijk meer performance had dan op andere plekken.

3DMark en andere benchmarks zijn sowieso meer bedoeld om een idee van je performance te krijgen t.o.v. andere GPU's en niet wat voor performance je uiteindelijk gaat halen in games.
We hebben het er over dat in de driver beslist werd om bepaalde vertices niet te renderen, bepaalde shading instructies te negeren, en een beslissing om elk verzoek voor tesselation vanuit de game compleet te negeren. Hoewel je het ook enigszins ziet, is een benchmark niet 100% ontwikkeld voor het zien. Toen bepaalde sites de hele executable hernoemde en de screenshots gingen vergelijken was het verschil redelijk duidelijk en werd ook de 30% betere score met de gewone filename van de executable duidelijk.
Zou het dan ook niet mogelijk zijn dat in sommige games instructies worden uitgevoerd die nooit het beeld bereiken?
Dit om men te laten geloven dat ze snellere hardware nodig hebben....
Nee, een spel ontwikkelaar wilt juist dat het op zoveel mogelijk hardware werkt want dan is er een grotere afzet markt. AMD en Nvidia willen beiden dat hun product beter presteert dan de tegenhanger van het andere kamp.

Je kan er vanuit gaan dat dit niet het geval is omdat bedrijven zichzelf dan benadelen.

Je zou dit wel kunnen verwachten bij de 'vendor specifieke implementaties' onder andere Gameworks, juist om de concurrent er minder goed uit te laten zien (onwijs hoge tesselation bijvoorbeeld).
tja, maar je kunt ook stellen dat dat normaal is, immers worden drivers ook genoeg aangepast aan bepaalde games. Bij elke nieuwe game release zie je weer de zoveelste driver update, en dan gaat het echt niet om patchen van eventuele DX./OpenGL. implementatie bugs..
nee totaal niet, de benchmark fraude werden meerdere dingen niet gerenderd, in een game kan je dat niet doen als je poppetje zich omdraait moet er toch echt nog steeds een wereld zijn.
De fraude haalde dingen weg die wel degelijk gerendered had moeten worden.
hahaha dat is toch ook wel lekker sneu zeg... zou je bijna nog je benchmark beelden moeten gaan lopen vergelijken met een van te voren opgenomen filmpje/screenshots of zo... (en wie zegt dat die screenshots valide zijn.. die moeten ze immers ook op een GFX kaart geproduceerd hebben)...

Dat is een diepe vicieuze cirkel waar we dan in terecht komen tenzei 3Dmark op een of andere manier 100% accurate en betrouwbare beelden kan produceren van hoe de benchmark beelden er onder bepaalde grafische settings uit zou moeten zien.
Ik kan mij herinneren dat in oude 3DMark versies een screenshot functionaliteit zat waarmee je referentie plaatjes kon vergelijken. In dit geval zou dat wel handig zijn, anders weet je inderdaad niet of het beeld er zo uit hoort te zien.
On topic: Ivm DirectX 12, is deze versie dan ook alleen maar te gebruiken onder Windows 10?

Off topic: Vanwege het jou beschreven probleem en het VW schandaal is sjoemelsoftware niet voor niets het woordt van het jaar 2015 :P
Jammer dat uit de video niet 100% op te maken is hoe mooi de Benchmark gaat zijn (en dus hoe nuttig).
Hoewel 3DMark een goede geschiedenis heeft neergezet!

Ondersteunde DX12 kaarten van Nvidia:
http://www.geforce.com/ha...ology/dx12/supported-gpus

En van AMD:
http://www.amd.com/en-us/...re-technologies/directx12 (onder aan de pagina).
Jammer dat uit de video niet 100% op te maken is hoe mooi de Benchmark gaat zijn (en dus hoe nuttig).
Ik denk dat je niet helemaal snapt hoe dit soort benchmarks werken.
Hoe mooit het is heeft helemaal niks te maken met of het een goede benchmark is.
De scenes lijken qua code bijna niet op games en worden vrij synthetisch opgesteld.
De mooie graphics zijn er vooral voor jou zodat je 'ooh' en 'aah' kunt roepen.
En daarmee maken ze zich populair en zullen veel mensen het een keer proberen. En DAT is dan wel weer goed voor een benchmark omdat je dan data van meer gebruikers met elkaar kunt vergelijken.
Ik begrijp het nut van een benchmark heel erg goed Koelpasta :)
Een bijkomend plezier is dat ze er meestal ook verschrikkelijk mooi uit zien.
Dat is wat ik gewend ben van Futuremark.

De manier code is inderdaad verre van identiek aan die van een game.
Games worden geoptimaliseerd voor veel verschillende combinaties hardware, zodat ze goed draaien, waar 3DMark er voor is om het systeem te pushen.

Simpel gezegd.
Een bijkomend plezier is dat ze er meestal ook verschrikkelijk mooi uit zien.
Nou ja, hier boven beweerde je dat de mooie plaatjes een maat zijn voor de nuttigheid van de benchmark. Dat is pertinent onjuist. Het is inderdaad een bijkomend plezier.
Mijn denk patroon:

Nieuwe 3DMark -> nieuwe technieken voor grafische weergave -> mooiere beelden -> zwaardere benchmark / nieuwe maatstaaf voor gamers.

;)
Die "Wij van WC Eend" lijstjes geven niet het complete beeld, helaas. In DirectX 12 zitten features die niet universeel ondersteund worden. In welke mate deze features gelimiteerd zijn door de hardware is opgedeeld in tiers, waar 1 het meest gelimiteerd is en 3 helemaal niet. Resource Binding lijkt het hoofdcriterium te zijn. AMD's GCN heeft dat beter voor elkaar dan Nvidia's Maxwell.

Wikipedia heeft een redelijke opsomming https://en.wikipedia.org/...s_in_Direct3D#Direct3D_12
Zijn er uberhaupt al échte directx12 kaarten in omloop dan? Volgens mij was de 900 serie van Nvidia geen échte directx12...
Dx12 draait meer om de manier van aansturen dan speciale features.
Dit is een soortgelijk iets als Manthel van AMD, correct?

[Reactie gewijzigd door EasyBoarder op 24 juli 2024 15:48]

Ja, de api is de laag tussen het spel en de videokaart driver. Waarbij de lijn api/driver nogal zoek is omdat de driver gigantisch veel taken van de api overnam (anders zou je nooit in je driver kwaliteit instellingen aan kunnen passen).

Mantle is dus een alternatieve vorm van Dx12 (beide zijn veel meer parallel gemaakt ipv serieel zoals Dx11)
DX12 heeft dus wel features, zoals ondersteuning voor andere programmeer commando's. Nvidia schijnt de commando's van asynchronous compute niet naar behoren onderseunt en die emuleert door de CPU te gebruiken, wat weer overhead meebrengt.
Bij Ashes of the Singularity was Nvidia ook boos op de ontwikkelaars omdat ze het hadden gebruikt en drongen aan het uit de benchmark te halen, omdat het minder snel was(wat ironisch is, want het werd juist gebruikt omdat het sneller zou zijn als het juist geïmplementeerd was zoals op AMD's GCN kaarten).
Wat is een échte directx12 kaart? Mijn R9 290 Tri-x OC van Sapphire ondersteunt het wel.
Volgens Robert van AMD ondersteunt geen kaart op de markt DX12. De Nvidia kaarten ondersteunen bijvoorbeeld geen asynchronous compute, wat AMD's GCN kaarten weer wel doen. Wat AMD niet onderseunt is nog niet echt bekend.
Ik zie op de gelinkte website geen D3D12 features staan die niet ondersteund zouden zijn door AMD kaarten.
Dacht je dat ik de ondersteunde kaarten bedoelde? Want die staan daar inderdaad wel.
En NVIDIA kaarten zullen gewoon ansynchronous compute doen via een driverupdate.
http://www.guru3d.com/new...e-via-driver-support.html
Dit kan gewoon een gerucht zijn. Ze kunnen het proberen te emuleren(op de GPU en niet de CPU), maar native support moet later komen op een nieuwe GPU.
volgens mij ondersteunen zowel GCN (amd) als Nvidia alleen 12.1 featureset(?) maar nog niet compleet Dx12. ik denk dat de volgende generatie al meer zal ondersteunen zowel bij AMD als nvidia en zodra iedereen over is op DX12 zullen wel de kaarten komen die (bijna) alle features ondersteunen.

dit is ook zo gegaan bij DX11 eerst een beetje, daarna meer, toen alles.
https://en.wikipedia.org/wiki/Feature_levels_in_Direct3D

2nd generation Maxwell bevat volledige DirectX12 apart van een paar optionele features.

IIRC, mist de Maxwell 2e generatie alleen resource binding tier 3.

[Reactie gewijzigd door MrFax op 24 juli 2024 15:48]

De Pascal generatie (eerste helft 2016) zou feature level 12_1 moeten ondersteunen.
Hangt er vanaf wat je met "echt" bedoeld.
Ze zijn allemaal echt, alleen ondersteunen ze bepaalde onderdelen op een andere manier of in beperkte vorm waarvan het nog steeds moeilijk te zeggen is hoe dat uit gaat pakken in de realiteit (in een game)

https://en.wikipedia.org/wiki/Feature_levels_in_Direct3D#Direct3D_12

Ik geloof dat alleen Intel (Skylake) voorop loopt door vrijwel alles te ondersteunen (Tier 3/ Full Heap). Eigenlijk te bizar voor woorden dat de videokaart specialisten dat (nog) niet doen, alhoewel ik denk dat ze er mee gewacht hebben om weer wat geld uit onze zakken te halen :D

Maar wellicht dat ik de klok wel heb horen luiden maar eigenlijk nog niet zo goed snap waar de klepel hangt :D
DX12 is, in tegenstelling tot DX11, toepasbaar op een selectie van momenteel beschikbare kaarten.
Bij DX11 moest de GFX kaart er nog voor ontwikkeld zijn, bij DX12 hoeft dat niet.
Dat er geen optionele features inzitten betekent nog niet dat DX12 niet ondersteunt word. Zowel AMD(alle GCN kaarten) en Nvidia(Maxwell) ondersteunen DX12/Vulkan

De hele discussie van welke wel of niet DX12 hebben gaat dan ook echt nergens over.
Ziet er goed uit :) Ben benieuwd vanaf welke kaarten (ivm feature level) deze nieuwe benchmark wordt ondersteund. Hopelijk wordt deze test gepatched naar de huidige 3dmark applicatie.
ik kan niet echt zeggen dat het er zo heel goed uitziet, het filmpje ondersteunt maar 360p en de filmkwaliteit is erbarmelijk.
Je kan toch zien dat er een heel ander scene standpunt gekozen is t.o.v versie 11? Een die duidelijk veel meer details en rekenkracht afdwingt.

Zelf op dit slechte filmpje kan ik al inschatten dat de "camera beweging" veel meer rekenkracht vraagt dan de huidige versie die op sommige punten alleen horizontale pans maakt in vrij gedateerd uitziende "simpele" achtergrond. Af een toe wordt er een beetje gebounced en af en toe een snelle pan, maar dat is het dan. Deze is veel meer drone like in een veel grotere setting waar veel meer details lijken te zijn geplaats 8)

Komt zo te zien wat meer in de buurt van de Heaven 8)
Nu eens een keer in een werkende game zien, hoe lang duurt dat nog? Ik hoor wel dat je bij DirectX12 straks minder processorkracht nodig is? Hopelijk zal Pascal straks van nVidia de volledige ondersteuning krijgen voor DirectX12!
https://www.youtube.com/watch?v=6MAWl3YzsTE
Ashes of the Singularity is een DX12 game. Het maakt met name van DX12 gebruik om de massale hoeveelheid units en raketten etc op een goede manier op het scherm te tonen, en niet zo zeer voor de pracht en praal van een 'set piece' moment in een first of third person actie spel, maar het is wel volledig gebouwd voor DX12.
Oh nice die had ik nog niet gezien, geeft een goed SupCom gevoel.
Ik neem aan dat mijn evga gtx680 (kepler gk104) hier dus vrij weinig mee kan?
Maxwell 2 heeft de 12_1 FL maar mist nogal wat tov GCN 1.1 en 1.2. Die twee features mist in die hogere FL.
Maar de oudere nV architecturen lopen een flink stuk achter tov AMD oudjes. Zelfs GCN 1.0 bied al aardig wat. Waar fermi de meest beperkte DX12 capabele GPU is en kepler komt ook niet zo ver.

Ik zou mij er niet zo druk om maken. De praktijk is dat zo een bench tool wild kan gaan met features die pas breed worden toegepast als mainstream gpu dat massaal ondersteunen. Dus alles waarmee architecturen zich onderscheiden in features zal niet snel zo relevant worden. Tenzij de gpu merk dit extreem pushed door highprofile game met unieke feature. Zoals doom 3 shadow tech.
ACE feature is er niet voor mooiere effecten maar voor parraleliseren van de aansturing naar de GPU. De ACE fearure is op architectuur niveau.
Als nV dit in drivers doet is leuk. Maar dit is een feature die resultaat performance verbeteren is.
Iig krijg met de meest minimale ondersteunen dmv DX12 een hardware aansturing die stuk ruimer is kwa drawcall limiet.
Met DX11.3 krijg je ook alle DX12 features maar dan met de oudere API dus drawcall limiet en op oudere OS' en.
Een lage kwaliteit streaming video van een losse pols video opnamen van een beeldscherm waar een filmpje op afgespeeld wordt waaruit moet blijken hoe mooi het allemaal is... ;(
Zeer benieuwd naar de multi-gpu support feature van DX12 (meerdere verschillende GPU's die verschillende delen van de rendering aanpakken ipv simpel framepacen). Hopelijk is dit in deze demo al mogelijk zodat we kunnen zien hoe potent die techniek mogelijk kan zijn in verschillende configuraties.
Not impressed, ook al is het een wazig filmpje. 3Dmark was altijd wel leuk om naar te kijken, vooral de max payne achtige shootout en de nature scene kan ik me nog goed herinneren. Waarom niet remakes van oudere scenes in een nieuw jasje. Al dat donkere is juist super irri voor beoordelen mooie graphics.

[Reactie gewijzigd door FlyEragon op 24 juli 2024 15:48]

bij mij werkt 3dmark 11 niet op mijn MSI GTX 970 gaming 4g, het crashed meteen met een of andere error. Misschien werkt 3dmark 12 wel.
Dan is er toch iets goed mis. Ik heb dezelfde kaart en die werkt gewoon met '11 en Firestrike enz.
Zaterdag is mijn PC gestorven, hij start niet meer op (geen klik of niets) dus naar de winkel gebracht, ik vermoed dat het coolermaster 700w van 2 jaar gestorven is. Ik wacht tot ik het terug hebt en probeer ik nog eens. Zo kunnen als het zwaar belast wordt dat het PSU problemen veroorzaakt. Ik heb geen reserve PSU om te testen.
Erww PC naar de winkel gebracht? Waat gaat het heen met de tweakers :P
Waarom niet gewoon testen, evt. nieuwe voeding scoren en gaan met die banaan.

Sorry voor deze flauwe opmerking, maar het blijft me toch verbazen dat mensen met alle kennis via tweakers.net tot hun beschikking op deze manier met hun computerspulletjes omgaan... en dan wel weer exact weten wat voor voeding je in je pc hebt?, apart :P Maar er bestaat ook nog zoiets als tijd en geld blah blah... ahh nee ik vind het gewoon belabberd van je :D :+
Klopt maar het PSU staat onder guarantie en ik heb geen 2de om te testen en ook geen 2de PC om het erin to doen om te testen, ik kan het wel terug sturen naar coolermasters en een paar weken wachten om te horen dat het PSU ok is. Dus laat ik het winkel alles testen en is het PSU kapot zeg ik welke nieuwe dat erin komt en stuur ik dan de ouwe RMA terug. Misschien is het mobo kapot, kan ook maar denk ik niet.

Tja nu hoor ik dat het moederbord dood is. Dankzij Overdrive gaming systems die hebben het moederbord met 2 van de 6 schroeven vast gezet. Door het plaatsen van het GTX 970 kwam het mobo tegen de kast aan en poof deep fried mobo. Slordig van OGS. Dus nieuwe mobo moet er in en dan kan ik 3dmark 11 nog eens proberen. Roll on 3dmark 12

[Reactie gewijzigd door Optik op 24 juli 2024 15:48]

Ik heb ook wel eens problemen gehad... misschien is het uitzetten van SystemInfo in de opties een overweging waard... Mijn hardware werd ook niet blij van het uitlezen door Systeminfo.. na het uitvinken hiervan geen problemen meer.
Hier geen problemen met een zotac gtx970.
Wellicht een driver of iets in windows wat niet helemaal in orde is?

Op dit item kan niet meer gereageerd worden.