Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Nvidia voegt ondersteuning voor DirectX Raytracing toe aan GTX-videokaarten

Nvidia gaat in april enkele GTX-videokaarten met Pascal- en Turing-gpu's van ondersteuning voor Microsoft DXR voorzien. DXR staat voor DirectX Raytracing en door de driverupdate krijgen de oudere videokaarten basale ondersteuning voor raytracingeffecten.

Nvidia maakte de komst van DXR-ondersteuning bekend tijdens de tiende editie van de GPU Technology Conference. De driver die in april verschijnt, brengt DXR-ondersteuning naar de GTX 1060 6GB en krachtigere kaarten met Pascal-gpu, tot aan de Titan XP. Daarnaast komt de ondersteuning naar de onlangs aangekondigde GTX 1660 Ti en GTX 1660. Deze hebben Turing-gpu's, maar missen de RT-cores voor hardwarematige ondersteuning voor Nvidia's implementatie voor realtime-raytracing. Microsoft heeft DirectX Raytracing voor de DirectX 12-api vorig jaar aangekondigd.

Nvidia benadrukt dan ook dat DXR alleen basale raytracingeffecten met een relatief klein aantal lichtstralen naar de GTX-kaarten brengt. Complexe lichteffecten zijn dan waarschijnlijk niet te verwachten, maar eenvoudigere weergave van bijvoorbeeld schaduwen en reflecties wel. Ondersteuning voor de beeldverbeteringstechniek dlss of deep learning super sampling brengt de driverupdate evenmin.

Nvidia lichtte toe dat een GTX 1080 Ti met alleen fp32-cores aanzienlijk langer doet over het renderen van een raytracingframe bij Metro Exodus dan een Turing-gpu die ook van int32-cores gebruik kan maken en dat een RTX 2080 dankzij zijn RT- en Tensor-cores dit nog een stuk sneller kan. De vraag is dan ook hoe DXR bij games in de praktijk op de oudere videokaarten gaat presteren.

Hoe dan ook gaan de game-engines Unreal Engine, Unity en CryEngine DXR ondersteunen. Overigens voegt Nvidia ook raytracingondersteuning voor de Vulkan--api toe aan zijn videokaarten.

Nvidia DXR slides

Door Olaf van Miltenburg

Nieuwscoördinator

19-03-2019 • 10:36

80 Linkedin Google+

Submitter: mingo

Reacties (80)

Wijzig sortering
Ik blijf erbij dat raytracing een heel mooie ontwikkeling is, die nog baby stapjes aan het zetten is en mature moet worden over de jaren.
Nvidia heeft gewoon zijn kaarten veel te duur aangeprijst en nu de concurrenten met alternatieven komen, kunnen ze niet anders.

Geef het nog een 5-tal jaar, en we gaan mooie resultaten zien.

EDIT: het is mijns inziens belangrijk dat raytracing mainstream wordt. Dit zal de productiekosten van ontwikkelaars naar beneden brengen, wat toch wel nodig is in deze industrie.

[Reactie gewijzigd door IamPeacock op 19 maart 2019 12:14]

Ik denk dat AMD hier wel is heel groot kan worden, want AMD is nooit een ster geweest in rasterization (nV is gewoon aanzienlijk efficiënter en kan met minder kracht meer fps tonen) Maar qua brute kracht en binnen de compute wereld is AMD gewoon sterk.
Theoretische performance in Gflops van een vega 64 vs een 2080TI is gewoon indrukwekkend (zeker kijkend naar fp64, FP64 op een vega64 is dubbel die van de 2080ti) maar zoals iedereen hier weet (ik heb de vega64 Oc edition) vertaald dat zich niet naar realworld performance in games. (FP64 op een vega64 is dubbel die van de 2080ti)
FP64 is niet nodig in de gaming wereld met rasterization maar wel in de compute wereld, laat raytracing nou iets zijn waar dat wel van toepassing is :)
NV heeft RTX gehaast op de markt gebracht omdat zij ook weten waar AMD tot instaat is in dat opzicht, en ze hebben nu (slim gespeeld) als eerste de markt betreden (ondanks de overduidelijke negatieve gevolgen).

Als je nog twijfelt aan deze statements: waarom gebruikt crytek een vega 56? :+

Ik verwacht het ook niet in 5 jaar maar eerder bij de volgende console generatie (de aankomende dus) en met AMD navi, want machine learning speelt een belangrijke rol bij raytracing (denoising o.a.) en de ontwikkelingen gaan ongelooflijk hard op het moment.

Laatste edit :+ Consoles zijn prime target voor Raytracing (path tracing) aangezien dit het ontwikkelings- proces (voor games) veel sneller en goedkoper maakt. Dus de eerste die er mee komt heeft een aanzienlijk voordeel (MS pusht dx12 raytracing, en heeft een agenda, AMD werkt aan Navi voor de Playstation).

[Reactie gewijzigd door D0gtag op 19 maart 2019 14:05]

Ik blijf erbij dat raytracing een heel mooie ontwikkeling is, die nog baby stapjes aan het zetten is en mature moet worden over de jaren.
Ahum, we vergeten even dat raytracing al een heel oude techniek is, zeg zo rond 1968 bedacht?
Raytracing anzich staat niet in de kinderschoenen. Al een hele hoop optimalisaties zijn ook al bekend.
Is het fundumentele verschil niet dat er bij DXR vanuit first person wordt gerenderd ( path tracing ), en bij bestaande RT technieken ( disney ) vanuit het object ( real object tracing ) ? Dat zou wel een significant verschil maken.
Juist bij het klassieke raytracing wordt er getraced vanuit het oogpunt, vandaar dat je per scene en hele hoop berekeningen moet maken.
Wellicht ben je in de war met ..... (ben ff de naam vergeten, ik zoek het op als je het echt weten wilt) waar van uit gerenderd wordt vanuit de lichtbron. Het grote voordeel is dat je een map kunt maken van de omgeving en deze voor je volende frame bewaren.
Met welke alternative komt men dan ?

Er is geen enkele andere kaart die realtime raytracing kan op de zelfde kwaliteit. Daarvoor blijf je nog wel paar jaar dedicated chip nodig hebben.

Een kaart die de gpu gebruikt heeft dan geen tijd om de gpu zaken te doen waar bij rt en tensor cores de gpu vrij blihft. Dus pas als de concurent een kaart uitbrengt die pak hem beet 30% sneller is dan een 2080 kan men hem meschien net bij benen en dan nogsteeds heeft ie minder kwaliteit.
Ik neem aan dat je raytracing support bij (game) videokaarten bedoelt, want raytracing zelf is nog ouder dan de weg naar rome, pas later kwamen de eenvoudigere 3D technieken en shaders.

Het is wel vet als dat over 5 jaar min of meer mainstream geworden is. 3D pakketten worden dan ineens ook weer interessant om te gebruiken voor Jan Modaal :9
Gooit Nvidia nu niet zijn eigen glazen in?

Zover ik begrijp zijn de RTX kaarten niet heel goed aangeslagen en zal de enkeling die twijfelde om een RTX kaart te halen nu misschien niet een nieuwe RTX kaart aanschaffen aangezien een enkele GTX kaart dit nu ook gedeeltelijk zal doen?
Ik denk meer dat dit de gedacht is van Nvidia: Mensen gaan de pracht en praal zien, en dat er meer power nodig is en dat de GTX'en eigenlijk net te zwak zijn. Dus hopen op meer overstappers naar de nieuwere RTX'en. Denk best een slimme zet, nu gebleken is dat RTX'en niet echt hard gaan.

Edit: Ik ben het eens met onderstaande reacties, meer developers die raytracing implementeren zal het hele gebeuren ook aanwakkeren en dat is op het moment gewoon echt nodig wil het geen stille dood sterven. Zo zie je maar weer hoe belangrijk het is om iets nieuws goed op de markt te zetten met de juiste voorwaarden. Het is niet geworden wat men had gehoopt, en nu komen er allerlei oplossingen om het toch een duwtje te geven. Tijd zal leren of het too little too late is, ik denk het wel eerlijk gezegd. Zolang de prijzen nog torenhoog zijn zal men niet zo snel upgraden. Wellicht dat eind volgend jaar een grote boost komt vanwege implementatie op de next gen consoles. Ik hoop toch wel dat er daarna weer een stroomversnelling komt wat betreft price/performance.

[Reactie gewijzigd door FlyEragon op 19 maart 2019 11:24]

En ik denk dat ook de gedachte er achter is dat in plaats van alleen mensen met een 20xx kaart nu opeens veel meer mensen raytracing kunnen gebruiken en dus een stuk meer developers hun producten daar geschikt voor zullen maken. Wat ook weer bij de consument de interesse in RT zal vergroten en dus de verkoop cijfers van de 20xx kaarten zullen verbeteren.

Wanneer 5-10% van de doelgroep RT kan gebruiken en je als bedrijf al een tijd bezig bent met het ontwikkelen van een nieuw spel is het niet zo interessant om alles om te gooien om hier ondersteuning voor in te gaan bouwen. Als 90% of meer van de doelgroep RT heeft dan is er opeens veel meer reden om het te overwegen.
Niet 5-10%, maar 1,11%! Dus één op de 90 gebruikers.

Source: https://store.steampowered.com/hwsurvey/videocard/

EDIT: Percentages gecorrigeerd.

[Reactie gewijzigd door lordawesome op 19 maart 2019 11:32]

Niet 5-10%, maar 1,11%! Dus één op de 90 gebruikers.

Source: https://store.steampowered.com/hwsurvey/videocard/

EDIT: Percentages gecorrigeerd.
Let er wel op dat die cijfers cumulatief zijn. Heb je overigens ook gezien hoeveel gamers op steam een Vega in hun systeem hebben zitten? Dat is 0.16%. AMD kan dus zelfs op de slechte RTX cijfers jaloers zijn. De RX580 loopt eindelijk wel goed, die is sinds Oktober van 0.5% naar naar 0.94% gestegen. Valt natuurlijk nog altijd in het niets bij de 15.88% van de GTX 1060.

Dat maakt het lastig om te beoordelen wat hier nu aan de hand is. Is de markt voor GPU's daadwerkelijk momenteel minder? Of zijn de RTX kaarten inderdaad te duur? Persoonlijk denk ik het laatste, de GTX 1070 had in de 2e maand op de steam survey al meer dan 0.70% te pakken. Dat was in 2016 nog voor de mining hype.

Wie weet dat de RTX 2060 nog wat verandering kan brengen. De 1660 Ti is uitgekomen en iedereen die hoopte dat die kaart meer performance voor minder geld zou brengen kan dat nu uit zijn hoofd zetten en alsnog die 2060 kopen, of wachten op Navi eind van het jaar.

[Reactie gewijzigd door sdk1985 op 19 maart 2019 14:22]

0.5% had een 2070, 0.4% een 2080, en 0.21% een 2080 Ti, dus totaal 1.11% volgens die pagina (in Februari).

Daarentegen zullen de meeste gamers niet heel erg veeleisende spellen spelen. Bij een nieuwe versie van Minesweeper zal Raytracing support nou niet echt van belang zijn. Mijn 5-10% zal zowieso wat aan de hoge kant zijn, maar voor een bedrijf wat bijvoorbeeld momenteel werkt aan Battlefield 6 oid zal de doelgroep niet een Intel onboard videokaart hebben bijvoorbeeld. Dus die kaarten kan je dan zowieso negeren.
Hoe lees je dat dan? Ik zie 3 kaarten met RTX chip op 0,50% 0,40% en 0,21%. Nog steeds geen ruk natuurlijk, maar je noemt zo specifiek 0,32% dat ik me afvraag of ik het helemaal verkeerd lees.
Niet enkel dat, hun eigen raytracing is bij introductie geflopt, RTX 2080 verkoop valt dik tegen waardoor het voor ontwikkelaars niet intressant is om het te implementeren. En iedere keer games sponseren op voorwaarde dat ze hun eigen raytracing implementeren terwijl je geen verkoop hebt krijg je ook niet verkocht aan je aandeelhouders.
DXR zal sowiezo veel beter ondersteund worden door games, deze techniek niet ondersteunen is dus uitgesloten. Wat je ook zelf aanhaald is dat het sowiezo intressant is om raytracing naar het brede publiek te brengen, het is dusdanig zwaar dat zelfs de high end kaarten er met moeite mee overweg kunnen wat gamers aan gaat zetten om niet enkel de RTX 2080 maar ook de opvolgers te kopen.

Een stille dood van raytracing omdat niemand het ondersteund en/of geen kaarten zijn die er deftig mee overweg kunnen is een streep door hun RT- en Tensor-cores wat ook een voordeel tegenover de concurent onderuit zou halen. Nvidia heeft dus alle belang bij het doorbreken van raytracing en hun eigen raytracing heeft de boot gemist.

Dat DXR geen complexe lichteffecten gaat hebben zal meer te maken hebben dat ontwikkelaars de raytracing naar beneden gaan schroeven om de performance acceptabel te houden, dat Nvidia er een draai aan geeft dat laat uitschijnen dat hun raytracing meer kan lijkt mij meer een marketingsverhaal. Dat hun complexere raytracing met moeite draait op hun high end kaart zeggen ze er uiteraard niet bij.

[Reactie gewijzigd door sprankel op 19 maart 2019 11:08]

Een stille dood dat is zoon dood doener. Het kost game makers gemiddeld 4 tot 5 jaar een game te bouwen . Unreal ondersteund het net een jaar als een van de eerste. Dus komende jaren komen de games met ondersteuning.

Een early adaptor, first gen product heeft altijd duur en weinig advantage in het begin.

Kijk maar naar physics, msaa, hyperthreading, introductie van de gforce 256, hek zelfs de introductie van de voodoo kaarten destijds
Dat zou inderdaad best wel de gedachte erachter kunnen zijn, maar ik gok dat er nog steeds meer dan genoeg mensen zijn die er het geld simpelweg niet voor (over) hebben. Vraag me dus af of ze dit (erg) zullen gaan merken in de verkopen op korte termijn.

Ik bedoel, ik heb die raytracing demo van futuremark gezien en ja, mijn mond viel open vam hoe mooi die reflecties zijn, maar dan kijk ik naar de prijs van een 2080 of ti en dan denk ik, mooi maar .... laat maar even zitten :P
Het is een kip/ei verhaal.
nVidia kan z'n RTX kaarten alleen verkopen als er games zijn die raytracing ondersteunen, als er nauwelijks hardware is gaat geen enkele ontwikkelaar er veel tijd in steken.
Als DXR aanslaat bij de ontwikkelaars én een snelheidsvoordeel heeft op een RTX kaart, dan zal nVidia binnen een paar jaar alleen nog RTX kaarten verkopen. De prijzen zullen ook dalen als raytracing standaard wordt.
Tja, de mensen die een 1080ti draaiden en toen de hoofdprijs hebben betaald, zijn misschien deels ook wel gevoelig voor het feit dat ze dezelfde DXR-graphics op een speelbare framerate kunnen krijgen, hetzij voor een nog iets grotere hoofdprijs. Bij release van deze kaarten was het nog wat minder breed ondersteund, maar als het via DXR 'gewoon' benaderbaar wordt, is dat voor veel first-gen instappers toch wel iets dat ze over de streep kan trekken.
Vergeet niet dat AMD ook met een raytracing oplossing gaat komen. Ze hebben al raytracing op een Vega 56 laten zien (dus gelijkaardig aan wat nVidia nu doet met de driver update voor GTX). En er gaat ook hardwarematige ondersteuning komen op AMD's nieuwe kaarten. Dus gaat een blijvertje worden.
Apple is ook bezig met Raytracing voor iOS m.b.v. Metal Performance Shaders; heb verder nog geen andere voorbeelden hiervan gezien in games.

https://developer.apple.com/videos/play/wwdc2018/606/
Ik denk eerder dat dit een poging is om de ontwikkelaars van spellen meer naar raytracing over te krijgen omdat er een veel grotere markt is die daar gebruik van kan maken.

Er zijn nu vrijwel geen spellen die er gebruik van maken dus is er ook geen reden om een RTX kaart te kopen.
Ik denk eerder dat een boel mensen de functionaliteit (tenminste ik hoop dat dat kan) uit gaan zetten als blijkt dat het ten koste gaat van je FPS (Is een aanname, je kaart is immers meer berekeningen aan het doen?). Mensen die echt veel om de looks geven en de games spelen die gebruik kunnen maken van raytracing zullen vast wel extra sparen voor een RTX kaartje.
Mwaa Crytek heeft laten zien dat men met Raw horsepower gewoon kan raytracen. Tensor core's zijn dan ook helemaal niet nodig. De vega 64 kon ook gedeeltelijk raytracing in BF V (zonder driver support, of extra hardware) dus zo bijzonder is de RTX lijn helemaal niet. Ik denk dat Nvidia dat ook besefte, dus hebben ze weer een marketing zet gedaan om zo weer de aandacht naar zich toe te trekken.

Nvidia is van een GPU maker naar Datacenter/AI hardware leverancier gegaan, dat zie je steeds meer in hun quarterly earnings call waar men steeds meer en meer gaat. Ook de overname van Mellanox laat zien waar ze naar toe zullen navigeren in de toekomst.
Als er meer spellen zijn die RTX ondersteunen, kan het ook best de moeite zijn. Alleen voor 1 enkel maf schietspel ga ik geen duizend euro uitgeven.
Ja want voor de rest is die kaart onbruikbaar. |:(
Mijn systeem met een 2060 doet tegen de 100 fps in BFV met raytracing aan (in 1080p) en kost toch echt geen 1000 euro.
Het is jammer dat de eerste data zo blijft hangen bij de mensen en dat de tech sites niet een keer updaten.
Gisteren een kort filmpje gezien over het verschil tussen de GTX en RTX kaart met betrekking tot DXR. Ja het werkt op een GTX kaart maar de performance hit is zeer groot, zie het als een soort van demo die mensen over moet halen om naar RTX te gaan.
Interessant, van wat ik mij kan herinneren was in BFV de ray tracing performance hit ook vrij groot is op RTX kaarten. Als in 1080P 60hz is mogelijk maar daarboven wordt het lastig. Dus jij zegt dat de DXR hit nóg groter is op GTX kaarten dan de RTX hit op RTX kaarten?
Ja de hit is substantieel vooral toen het net uitgebracht was. Vervolgens met wat extra driver en game updates was het direct al een stuk minder zwaar.
Het is nieuwe technologie die snel zal ontwikkelen beide door betere software en betere hardware over de komende jaren.
Ik neem echter wel aan dat op de GTX kaarten de performance een stuk slechter zullen zijn en tegen de tijd dat het softwarematig (drivers, graphics APIs en implementatie in de render engines) een stuk meer gefinetuned is een heel aantal mensen toch al wel een nieuwe GPU willen halen.

Eén voordeel is wel dat ray tracing voorlopig niet verplicht is, alle games die ermee uitkomen hebben ook opties om het niet te gebruiken.
Wat ik begreep was dat de frame time ~4x zo lang duurt op een GTX kaart (GTX 1080ti vs RTX 2080). Dus 10fps moet haalbaar zijn :P
Ja, logischerwijs wel ja. Echter is dat met full RTX raytracing aan, kan me voorstellen dat Basic raytracing wél te doen is, maar simpelweg het gros van de eyecandy/features van DXR uitschakelt ( zoals simpelere lighting en minder rays ).
De performance hit op een RTX kaart is ook nog heel groot. 4k60 met RTX in Metro kan niet met de huidige kaarten.
Raytracing zou al niet dé reden mogen zijn om een RTX20x0 in huis te halen. De RTX20x0 kaarten presteren al niet bijster goed wanneer raytracing geactiveerd wordt, de fps neemt een flinke duik. Nvidia blaast het hele aspect op tot een marketingverhaal maar veel meer is het momenteel nog niet. De volgende generatie zal raytracing pas echt naar de massa brengen. Ik verwacht van deze update voor de GTX1060 en hoger ook geen efficiënte verwerking van raytracing.
Is maar de vraag, Raytracing kan ook door middel van compute cores gedaan worden als engines het maar ondersteunen. Het kan dus zijn dat developers sturen naar een open source implementatie en de RTX cores gewoon niet gaan gebruiken.

Een realtime demo met raytracing in Cryengine op een Vega 56 is hier te bekijken https://www.youtube.com/watch?v=1nqhkDm2_Tw
Wow. En die Vega 56 doet dit op 4k! 30fps weliswaar, maar toch. Heel netjes!
Dit/Zoiets lijkt me voor iedereen een beter alternatief dan een Nvidia only zoals hairworks.
Somewhat off topic, maar ik snap het toch niet helemaal goed.
De RTX kaarten zouden het volgens wat ik ook gehoord heb inderdaad niet bijster goed doen. Maar toch ben ik straks al 3 weken aan 't wachten op de levering van mijn 2080 Ti. Je zou denken dat wanneer de kaarten het niet zo goed doen dat er een surplus is aan voorraad, toch?
Misschien dat webwinkels ook geen grote voorraad willen hebben aangezien niet veel mensen het willen?
Of de kaarten zijn zo populair dat ze niet aan te slepen zijn.
Zeer gedeeltelijk op lage resoluties. Een GTX1660ti draait 1080p lekker, maar met Raytracing zal dat wel veel minder worden. Een koper van een RTX2080 speelt niet op 1080p hoop ik (ik in elk geval niet)
Ik heb zelf een 1070 TI gehaald om op 1080p te spelen. Alleswaar wel 21:9 ipv 16:9.
Nu ben ik overgegaan naar 1440p ook op 21:9 en kom geregeld tegen dat m'n videokaart het toch net niet helemaal trekt om op high + native te runnen.

Voor de top of the line games en die nog uit gaan komen kan ik opzich wel inzien dat iemand een 2080 voor 1080p haalt.
Vooral als je 144+ hz monitoren gebruikt en ook die of richting die fps wil.
En op deze manier kunnen de kleine ontwikkelaars al een beetje ervaring opdoen met het gebruik ervan.
Misschien wil nVidia mensen laten proeven aan raytracing om ze zo over te halen een RTX aan te schaffen of iets dergelijks.
Ik denk dat het ook een enorme installed base voor raytracing creeert. Er is nu ineens een rede om raytracing in je game te stoppen.
Het grote probleem van RTX is de enorme performance hit die het activeren tot gevolg heeft. Als je vervolgens een videokaart koopt om de hoogste frames te behalen bij 4K of 1440P is het aanzetten van Ray-Tracing geen optie. Dat maakt het voor een heel groot segment van de doelgroep volledig nutteloos op die enkele keer na om het te laten zien aan vrienden.

Dus ik zou zelfs willen stellen dat Nvidia zijn eigen glazen al ingegooid heeft met de RTX-kaarten die duurder zijn dan de Pascal tegenhanger zonder RTX met dezelfde prestaties. Het lijkt mij evident dat Nvidia terug naar de tekentafel mag voor de volgende generatie videokaarten en haar launch strategie zal gaan aanpassen.
OP GN zeiden ze juist dat als je dit ineens ziet in je games, maar het loopt voor geen meter, dat je dan iets meer geprikkeld zult zijn een RTX kaart te kopen.
Wil je fatsoenlijk raytracing in je game, dan ben je toch echt beter af met die RTX kaart, zeker als je op wat hogere resolutie of hoger aan fps wilt spelen.
Mooi, hoop dat er ook ondersteuning voor sli komt. Ben benieuwd wat dit doet op mijn 2xgtx1080.
Het zou wel eens kunnen werken maar ik zou er niet veel hoop op vestigen, Anandtech gaat wat dieper op de materie in:

Now, as you might expect, raytracing performance on these cards is going to be much (much) slower than it is on NVIDIA's RTX series cards, all of which have hardware raytracing support via NVIDIA's RTX backend. NVIDIA's official numbers are that the RTX cards are 2-3x faster than the GTX cards, however this is going to be workload-dependent.
SLI is toch een dood paard? Wordt daar überhaupt nog voor ontwikkeld dan? :o
Nee, SLi en Crossfire ondersteuning wordt steeds minder. Het heeft weinig zin om hier in ieder geval voor nieuwe games in te investeren. Ik ben na meerdere Crossfire builds achtereen gehad te hebben inmiddels ook weer naar een single GPU gegaan.
Ik begin toch langzaam het gevoel te krijgen dat ik met mijn RTX 2080ti een beetje een miskoop heb gedaan. Wat heb ik nou aan die speciale cores als raytracing etc gewoon op normale GPU's ook werkt? Volgens mij wordt deze hardware in de toekomst ongebruikt gelaten en heb ik gewoon een veel te dure opvolger van de GTX 1080 gekocht.

[Reactie gewijzigd door ro8in op 19 maart 2019 12:10]

De meeste games werken zowel op een RTX 2080TI als op een GTX 1060TI. Maar toch heb je dan een heel andere performance en grafische kwaliteit. Alle niet RTX kaarten hebben geeen speciale hardware om een deel van het werk te doen maar draaien alle instructies op hun compute cores. Ik las hierboven dat daardoor een GTX 1080TI 4x zo langzaam is als een RTX 2080TI bij het gebruik van ray tracing.

Dus je hebt een 4x zo snelle kaart gekocht voor deze casus, dat is toch fijn :).
Maar in het geval van dx12 raytracing gebruikt deze dan nog steeds de rtx cores?
Ja zeker, RTX is Nvidia's implementatie van DXR (Direct X 12 Ray Tracing).
Ja had inmiddels al een beetje ingelezen erover. DirectX12 doet gewoon raytracing zoals het dat doet en het is verder aan de GPU leverancier hoe hun driver dat dan oppikt en verder verwerkt op de GPU zelf.
Wat heb ik nou aan die speciale cores als raytracing etc gewoon op normale GPU's ook werkt?
Alle GPU's kunnen in principe compleet door de CPU worden vervangen.
Wel met een groot nadeel: snelheid.
Hoewel de techniek er mooi uitziet, valt het bij mij in het niet met de ‘wow-fsctor’ die ik kreeg bij het zien van Testellation (Crisis 2 demo) en Physics (Mafia II demo). Doordat mijn 1080Ti al deze technieken ondersteunt, en de meeste games op Ultra@4K kan draaien, voel ik mij niet genoodzaakt een 2080Ti aan te schaffen alleen voor raytracing. De tijd waar ik ‘maar’ 3 jaar met een videokaart deed, is voor mij voorbij. De 1080Ti kan nog prima een of twee jaar vooruit.
Klopt. In Battlefield valt raytracing niet op en in Metro is het vooral een beetje anders. Soms beter, soms slechter.

Metro RTX non-marketing video: https://www.youtube.com/watch?v=yPySV5C1i24

[Reactie gewijzigd door lordawesome op 19 maart 2019 11:13]

Dat komt vooral omdat game makers inmiddels heel goed zijn geworden in het neppen van licht. Daardoor ziet het er met raytracing niet automatisch beter uit. Wat wel zo is is dat als straks met raytracing dit allemaal vanzelf gaat de developers minder tijd hoeven te steken in het nabootsen van het licht en meer tijd over houden voor andere dingen. Dan moet de game natuurlijk niet hybride zijn, maar enkel alleen met raytracing aan werken.
1080TI is nog steeds de beste kaart als je naar het gehele plaatje kijkt. Jammer dat de RTX niet goed ontvangen is.
En ook nog steeds een van de duurste.
nVidia doet vreemde dingen. Ray tracing was bedoeld voor RTX Only ik lees wel dat GTX 10 generatie niet het zelfde Ray tracing doet als op de RTX generatie.
Zie mijn reactie hieronder (ik lees nu die van jou pas). Ik zie het als marketing, ze hebben het aan hun high-end kaarten gehangen. Nu ineens iemand anders (crytec/cry engine) met raytracing komt kunnen ze het ineens wel op andere kaarten
Sure maar het is 30-50% op RTX cores en als kwaliteit niet zwaar omlaag geschroeft wordt van de raytracing zal het meer een 75-90% performance drop zijn op de non RTX core versies.
Of ze willen mensen laten proeven aan RTX, of ze willen simpelweg developers stimuleren om DRX te implementeren. De afzetmarkt wordt hierdoor een stuk groter ( al is t maar voor basic shader raytracing ), maar het kan genoeg zijn om er resources in te steken.

Meer games die DXR gebruiken, betekent meer RTX sales ( huidige danwel volgende generatie ). Hoe dan ook een slimme maar vooral noodzakelijke zet ( we wisten immers al lang dat DXR natuurlijk ook, met een beetje modding, op andere hardware zoals de Titan werkt ).
Jammer dat de GTX 1050ti buiten de boot valt.
Grappig... Dat is wel iets dat ik zou willen proberen. Ik heb net een 1080Ti gekocht (tweedehands) en 2x Metro Exodus uitgespeeld op 4K. Maar ik vraag me nog steeds af hoe dit er met RTX uit zou zien aangezien dit nogal een verschil schijnt te maken.

Ik snap dat het niet helemaal efficient is op een GTX kaart maar op 1080p zou op zich wel moeten lukken lijkt me.


Om te kunnen reageren moet je ingelogd zijn


OnePlus 7 Microsoft Xbox One S All-Digital Edition LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Sony PlayStation 5

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True