Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 120 reacties
Submitter: r100

Futuremark heeft de DirectX12-benchmark Time Spy aan zijn 3DMark-suite toegevoegd. Het onderdeel is beschikbaar in de gratis Basic Edition of als betaalde update voor de Advanced Edition.

Time Spy is een benchmark voor Windows 10-pc's die gebruikmaakt van DirectX 12 featurelevel 11_0. De test rendert de beelden op 2560x1440 pixels en bestaat uit een demo, graphics-test en cpu-test. Futuremark claimt de DX12-engine van de grond af aan opgebouwd te hebben en eigenschappen als asynchronous compute, explicit multi-adapter en multi-threading te ondersteunen.

AnandTech ging al aan de slag met de test en deze is volgens de site aanzienlijk zwaarder dan Fire Strike, ondanks de lagere renderresolutie. De site publiceert ook enkele benchmarks, waaronder een met Async uitgeschakeld, een mogelijkheid die alleen bij de betaalde Advanced Edition van 3DMark aanwezig is.

Ook PCWorld en Pc Perspective hebben recente videokaarten al aan de DX12-test onderworpen en VideoCardz grijpt dit aan om alle resultaten op een rij te zetten.

3DMark Time Spy

Moderatie-faq Wijzig weergave

Reacties (120)

kan je een benchmark tonen waar dat ook maar enigszins uit zou blijken? want tot nu toe tonen alle benchmarks aan dat nvidia enkel niet langer performance verliest als je async aan zet, maar dat blijft het bij.

edit: ik zie dat videokardz test een kleine winst van 200 laat zien enkel voor de 1070, tegenover 400 voor de rx480 en 600 voor de r9 390x en fury. uitgedrukt in procenten zou nvidia's relative winst nog kleiner zijn. (en het kost de 1070 CPU score om async aan te zetten terwijl de rx 480 daar geen last van heeft, en in beide gevallen de hoogste cpu score neer zet)

nvidia heeft duidelijk extra CPU overhead met async enabled terwijl geen enkele AMD kaart een significant verschil laat zien.

al met al, om dat uit te drukken als 'niet onder doen' is wel heel erg optimistische.

edit: blijkbaar gebruikt 3d mark niet eens echte async! er word niks gelijktijdig verwerk, er word enkel aan context switching gedaan, iets dat nvidia wel kan... in software.

er word dus nauwelijks gebruik gemaakt van de async mogelijkheden van AMD en nog steeds weet nvidia geen competitive winst te laten zien.

[Reactie gewijzigd door Countess op 16 juli 2016 21:15]

Nvidia heeft nog steeds geen echte async compute ondersteuning in de 1070 en 1080. Helaas had ik mij laten verleiden door de mooie "misleidende" marketing termen (improved async compute capabilities) van Nvidia en kwam ik er pas achter na mijn aankoop dat improved niet hetzelfde is als daadwerkelijk ondersteunen. Wel dom van mij gezien ik daarvoor nog op Tweakers schreef dat Nvidia dit met geen mogelijkheid in de 1070/1080 ingebouwd kan hebben gezien dit een behoorlijke overhaul in het chip design voor hun is, wat nooit in een paar weken mogelijk zou zijn. Op een of andere manier was ik even in de veronderstelling dat Nvidia het op magische wijze dan toch gelukt was, maar had wat dat betreft meer moeten vertrouwen op mijn verstand en kennis. Neemt verder niet weg dat de 1080 een beest van een GPU is en daardoor toch wel blij ben met mijn aankoop. Async compute had de kaart alleen net een beetje meer future proof gemaakt. Ach ja je kan niet alles hebben!

Desondanks dat async compute er dus niet in zit hebben ze wel een aantal technieken zoals pre emption toegepast die ervoor zorgen dat er in ieder geval ook geen verlies optreed zoals bij de vorige gpu's. Ook hebben ze een queue priority ge´mplementeerd, welke het mogelijk maakt voor de developer om te kiezen welke berekening eerst door de pipeline heen moet (gezien er dus nog steeds niet meerdere tegelijk kunnen). Dit is dus wel iets specifiek voor deze kaarten en zal dus door developers ge´mplementeerd moeten worden. Wat voor winsten dit kan opleveren zullen we pas weten zodra iemand dat heeft gedaan.

[Reactie gewijzigd door ro8in op 15 juli 2016 11:45]

En je hebt wel by far de snelste single gpu kaart in je systeem zitten, dus ja, ik denk dat hij het wel even redt.
het kost de 1070 CPU score om async aan te zetten
Dat is dus duidelijk pre-emption om ze uit de brand te helpen, en geen async op hardwareniveau.

[Reactie gewijzigd door r100 op 15 juli 2016 08:55]

Ligt het aan mij of lijken alle laatste generatie kaarten het beter te doen met Async enabled?

http://videocardz.com/622...py-benchmarks-hit-the-web (De tabellen bovenaan)

GTX9xx lijkt licht te lijden in score, maar niet heel veel. (10 tot 20 puntjes ofzo)
dat klopt. nvidia heeft blijkbaar geen interesse in het fixens van async op de 9xx series nu er een nieuwe serie kaarten is.
Wat async betreft doen ze wel onder voor die van amd. Maar het uberhaupt hebben van deze feature lijkt meer verschil te maken dan een hele verfijnde implementatie.
De reacties op diverse sites zijn zoals gebruikelijk hilarisch. De vorige generatie afkraken omdat ze features missen die de nieuwe AMD kaarten wel hebben.

Kijken hoe zich dit allemaal vertaald in de eerste games.
De feature level van ook de oudere GCN kaarten zijn al hoog , missen wel wat , maar veel minder dan nV oudjes . Dus met oudjes komt je goed mee in DX12 zover de rauwe shader power toelaat.
Het is vooral reacties op features die de vorige generatie AMD kaarten al had en waar nvidia blijkbaar de mist inging. Veel meer mensen hebben zo'n kaart dan een nieuwe en dus is hoe dit werkt op oudere kaarten veel belangrijker.
Doom, geen DX12 maar Vulkan waar asynchronous compute een grote rol in speelt:
1080GTX => +11.2%, GTX 1070 => +6.8%; GTX 980 +4.7%
RX 480 => +28.7%, R9 Fury X => +39.5%

bron: http://www.eurogamer.net/...hanging-performance-gains

Total War Warhammer: (eerste nummer is gemiddelde dx11, 2de gemiddelde dx12)
R9 Fury X: 70.1 42.5 => 64%
GTX 1080: 61.6 47.7 => 29%
R390: 61.3 34.7 => 76%
GTX 970: 52.3 39.2 => 33%

cijfers zijn van 1920x1080 ultra benchmark
bron: http://www.pcgamer.com/to...ks-strike-fear-into-cpus/

De eerste benchmarks geven AMD duidelijk een veel betere boosts dan NVidia kaarten, afwachten of dit in andere games bevestigd word.
Dan moet je hier eens na kijken https://www.youtube.com/watch?v=lXijkS_qIzA (over doom en vulkan) benchmarks zijn synthetisch wordt gezegd (het zijn geen spellen)
Dat ligt er maar aan hoe de RX480 tov de wsl net iets duurdere 1060 doet. Dat is een wat eerlijkere vergelijking.
Maar van de claims dat ook de 3xx serie veel beter in dx12 zou zijn als ongeveer gelijkwaardige nvidia kaarten uit de 9xx seriee is dus iig weinig meer van over?
Ik heb 5010 gehaald.
Helaas heb ik op dit moment nog geen flauw idee of dit goed of slecht is 8-)
Specs staan in de link.
3327 punten met een 780TI / 4790k.
Je hebt ook direct de nieuwst drivers gebruikt zie ik ;)
ik ben altijd wat terug houdend om direct nieuwe Nvidia drivers erop te zetten.

Dit is meer te wijten aan het feit dat ik de GPU redelijk ver overclock en bij de ene driver dit wel kan afleggen in Game X en bij de nieuwere driver soms niet.
Ik wacht altijd een paar dagen met drivers (kreeg ook een melding dat drivers niet supported zijn). Maargoed mijn resultaat wijkt maar zo'n 50 punten af van Guru3D.
Zowel CPU als GPU overigens stock draaien.

[Reactie gewijzigd door Tortelli op 14 juli 2016 22:13]

De nieuwste drivers? De drivers die hij gebruikte voor deze test stammen uit mei :?
Nvidia: 368.81 July 14, 2016
AMD: Crimson Edition 16.7.2 Hotfix July 9, 2016
http://www.3dmark.com/3dm/13199200 van @stigma

Ik had het over die 10.18.13.6519 een simple google search: v. 365.19

[Reactie gewijzigd door BJ_Berg op 15 juli 2016 17:14]

Ah ja, ik zat me blind te staren op het feit dat de drivers niet "approved" waren.
Je had dus niet de nieuwste drivers ja, ze zijn te oud :P
Best appart, als ze eenmaal waren goedgekeurd vanaf datum X en daar een bechmark aan vast mogen pinnen...waarom zouden zij de drivers status intrekken.
Driver software updates afdwingen?
Dat kan je toch gewoon op het overzicht zien, ervanuit gaande dat je de basic version hebt, waar async niet uit kan zetten valt je GPU score tussen een R9 Fury (OC) en een 1070...
Dat zou dus heel netjes zijn, aangezien de enige 980 die getest is bij hen "slechts" 3674 haalde tegenover de 4894 van jou.
Ik kan helaas nergens terug vinden welke CPU zij hebben gebruikt :'(

Hilbert is inmiddels ook wakker zie ik :)
Die heeft 4374 weten te halen, maar die maakt gebruik van stock clocks en sterker platform.

[Reactie gewijzigd door stigma op 14 juli 2016 22:55]

5053 met TITAN X , 4790K @ 4.4Ghz
http://www.3dmark.com/3dm/13221061?


EDIT :
2de keer 5173 nu met 2400mhz ram en 4.5Ghz cpu
http://www.3dmark.com/3dm/13224332

[Reactie gewijzigd door Technoturk op 15 juli 2016 07:47]

Best wel een lage score voor een TITAN X. Als je ziet dat met een GTX 980 al met gemak boven de 5000 geraakt voor de helft van de prijs...

[Reactie gewijzigd door Boermansjo op 15 juli 2016 15:16]

De TITAN's zijn nooit kaarten die het goed doen in een zin met de worden 'voor de prijs', daar zijn de kaarten niet voor :).
Dank je voor de props _/-\o_ echter, mijn 980 heeft een Volt mod + waterkoeling dus een echte "standaard" OC heeft mijn kaart niet.

[Reactie gewijzigd door stigma op 15 juli 2016 14:43]

Dan zit je nog niet aan het bedrag van zo'n titan X.
Zoals dipje2 aangeeft zijn die kaarten niet zo goed en gewoon overpriced. Of iemand die wil stoefen met 12+ vram die totaal nutteloos zijn.
Ik kan de kaart nog overklokken dit durf ik nog niet aan met de stock koeler
Timespy 6845
graphics 7728
cpu 4156

4790 i7
16gb ram
CF RX 480
Ranger VII mobo

Morgen krijg ik de 1070 binnen ivm overstap naar single gpu. Dan nog eens draaien :)
Of je sluit alles aan want hij heeft support voor multi-adapter, dus dan kan je gebruik maken van 3 kaarten (hoeft niet eens in SLI !) en kijken wat voor score je haalt :P
hoe werkt dat met multi adapter, stel dat ik nu hier nog een GTX 770 zou hebben liggen ofzo, zou dat dan werken naast mijn R9 390, en zou ik daar dan ook profijt uit halen, of wegen de extra kosten/energieverbruik niet op tegen de mogelijke winst?
Zover ik het weet stop je alles in de pc en dan werkt het gewoon (of je moet het "in-game" nog ergens aanzetten) dan gebruikt ie je 770, 480 en dalijk ook je, 1070 tegelijk.
Dat is waar ja, de RX480's gaan vandaag al de post op naar de nieuwe baasjes, dus gaat helaas niet meer lukken :(
Dan kom je eem stukje lager uit denk. En de cpu kan ook nog een bottleneck worden aangezien nvidia softwarematige AC heeft. Dat is natuurlijk allemaal theoretisch, in de praktijk denk ik dat je een goede koop hebt gedaan.
Ja dat denk ik ook. Ik heb toch een voorkeur voor single gpu ivm slechte ervaringen uit het verleden (SLI 980's die maar bleven stotteren), daarnaast draait het ook een stuk zuiniger qua verbruik. Ben ook geen diehard gamer, dus 1070 is voor mij al voldoende power :)

Ik heb ook altijd al een zwak gehad voor de reference koelers van Nvidia gehad, dus ik heb een founders edition gekocht, ook al is deze minder goed over te klokken etc.
0

Ja je leest het goed: NUL!
En volgens Futuremark een Valid Score!
(MSI GTX 750 2GB op Gigabyte GA-970A-UM3 met AMD FX4170)
(Misschien dat het daaraan ligt)
een 750 heeft toch geen DirectX12 support? dus dan is een 0 best logisch (Mind you.. Feature level 12_1 heb ik het dan over..)
Time Spy is een benchmark voor Windows 10-pc's die gebruikmaakt van DirectX 12 featurelevel 11_0
DX 11.2 < DX12.?
Featurelevel is wat anders iets wat in source code gebruikt voor valideren of setten van directx en staat voor groep features waar de hardware minimaal aan moet voldoen .
Houd dus in fiktief voorbeeld.
120 features support
En 90 daarvan allemaal ondersteund worden en onder level A vallen dan voldoet die hardware aan dat level.
Hardware dat 130 features support
Maar 89 van de 90 support van die level voldoet niet .
De developer kan altijd nog expliciet op driver niveau features opvragen . DX12 heeft dus ook 11_ 0 level onder DX12 de laagste DX12 level.
Level 11_0 < 11_1 < 12_0 >< 12_1 .
Ja die 12_ 1 breekt dat de hoge level ook lagere omvat.
Dus DX12 Feature level 11_0 is DX12
Denk dat future mark daarmee groot gedeelte van hardware onder gamers dekt . En de kern van DX12 toepast wat is effectievere multitreadende API . Ipv excotische top features.
Ik begrijp je wel (deze tabel geeft ook een goed overzicht), maar ik doelde op wat er gezegd werd over de GTX750 die de benchmark niet zou kunnen draaien (score van nul), deze kaart heeft gewoon feature level 11_0, dit zou dus wel moeten kunnen.
En begrijp ook even goed dat veel van deze features ZELF ge´mplementeerd zijn in hun kaarten op een andere manier. AMD heeft bewezen dat het niet minder efficient hoeft te zijn.
Mijn 760 werkt prima! (Nou ja, 10 fps)
Ik heb een graphics score van 1742. De 750 is zelfs nieuwer, dus dat zal moeten lukken.
Is er misschien geen Windows 10 gebruikt?
Jawel: Windows 10 Pro x64!
Op de doos van mijn kaart staat GEEN DX12 maar DX11
Misschien heb ik een eerste versie?
Het is geen Ti-model in ieder geval!
Niet naar de doos kijken. Dat is normaal om te laten zien dat het DX11 compatible is. Toen was DX12 nog niet uit...

Hier nog een lijstje met wat uitleg:

http://nvidia.custhelp.co...gpus-will-support-dx12%3F

[Reactie gewijzigd door Nees op 15 juli 2016 12:36]

Thanks... ben een hoop wijzer geworden.
Dan denk ik dat Mobo & CPU de bottleneck zijn.
ik heb ff gechecked.. je hebt gelijk... mijn kaart gaat tot DX11.2
Silly me...
Ik kom niet verder dan 4131 (4133 tot de driverupdate, en 4141 voor ik m'n CPU van 4 naar 4,5Ghz opschroefde 8)7)

Edit. betreft dus 2x GTX 770 + i7 6700K. 2e run 4170 :)

[Reactie gewijzigd door Weemism op 14 juli 2016 23:02]

Je CPU is i.i.g. niet de bottleneck ;)
Op zich geen slechte score voor je setup lijkt me zo!
Dus ik heb de advanced edition en moet bijbetalen? Basic Edition die is gratis? Confused 8)7
De advanced edition heeft meer mogelijkheden vandaar dat ze daar geld voor vragen. Ik eigenlijk alleen verwacht dat beide gratis waren. Alleen de mensen die voor advanced hadden betaald die extra opties gratis hadden gekregen.
Ik heb ook de Advanced Edition. Paar weken geleden via Steam gekocht voor +/- 5 Euro.
Net 3DMark opgestart en kreeg Time Spy als gratis update aangeboden.
Met i7 3770k op stocksnelheid en RX 480 overclocked:

4155 Time Spy
4210 Graphics score
3872 CPU test
Wat is er bij PCPerspective mis gegaan?

Een GTX960 die sneller is dan een RX480 Ún een GTX970?
PcPer heeft toch niet met een 960 getest..?? Of mis ik iets.
Spelfoutje waarschijnlijk. Hoort de 980 te zijn.
5065 met Core i7 920 op 3.46 en een Geforce 1070.
Wauw, als ik jouw en mijn score vergelijk dan is de CPU in deze benchmark vrijwel te negeren.
Nette score
Heeft iemand een linkje naar de download ? Of mag dat niet ?
Gewoon via steam binnenhalen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True