Nvidia GTX-videokaarten krijgen met update ondersteuning voor raytracing

Nvidia heeft met een update van zijn Geforce-drivers raytracing mogelijk gemaakt op videokaarten die daarvoor geen specifieke hardware aan boord hebben. In de praktijk betekent dat dat Pascal-kaarten inmiddels ook realtime-raytracingondersteuning krijgen.

Onder meer de GTX 1080 zou games met realtimeraytracing kunnen weergeven, zegt Nvidia. Kaarten met raytracingcores aan boord, vooralsnog alle RTX-kaarten dus, konden dat al. Met de driver kunnen Pascal- en Turing-kaarten uit de GTX-serie overweg met DXR, de raytracingimplementatie in DirectX. De driver maakt DXR op kaarten vanaf de GTX 1060 6GB mogelijk; langzamere kaarten zijn niet krachtig genoeg. Dlss, een techniek die net als raytracing door daarvoor ontwikkelde cores op RTX-kaarten wordt uitgevoerd, komt niet naar GTX-kaarten. Die zouden door het ontbreken van de speciale Tensor-cores te traag worden voor dlss.

Nvidia demonstreert de DXR-ondersteuning op GTX-kaarten door middel van gedeelde benchmarkresultaten, waaruit blijkt dat de GTX 1660 Ti op ongeveer hetzelfde niveau presteert in games met onderstuning voor raytracing als de GTX 1080. De prestaties zijn afhankelijk van de raytracingimplementatie. In games die voornamelijk eenvoudige reflecties met raytracing berekenen, scoren de GTX-kaarten met DXR nog redelijk. Zodra de complexiteit van reflecties toeneemt of veel zogeheten global illumination wordt berekend, is het gat tussen RTX- en GTX-kaarten veel groter.

Ray tracing met oudere videokaartenRay tracing met oudere videokaartenRay tracing met oudere videokaartenRay tracing met oudere videokaarten

Om de effecten van diverse raytracingtechnieken als ambient occlusion, shadows, reflections en global illumination te illustreren, heeft Nvidia naast games die van die technieken gebruikmaken, ook drie nieuwe demo's vrijgegeven. De bekende demo van Storm Troopers is vrijgegeven onder de naam Reflections. Daarnaast zijn twee demo's die de videokaartfabrikant Justice en Atomic Heart noemt, beschikbaar gekomen. Zoals de naam al aangeeft, is Reflections vooral een demo voor raytracing van complexe reflecties, net als Atomic Heart, terwijl het eerder door Futuremark uitgebrachte Port Royal uit 3DMark en de nieuwe Justice-demo naast complexe reflecties ook schaduwen met raytracing berekenen.

Door Willem de Moor

Redacteur

11-04-2019 • 15:15

115

Lees meer

Reacties (115)

115
111
45
4
0
49
Wijzig sortering
Oké, dus nvidia komt met RTX kaarten met de zogenaamde nieuwe technologie genaamd "Raytracing" enkel voor deze nieuwe kaarten. oude GTX kaarten ondersteunen dit niet.

Je concurrent brengt een softwareupdate uit waarbij het "plotseling" toch wel kan.

En vervolgens in het nieuws "NVIDIA brengt raytracing update uit voor GTX kaarten" nu kan het ineens wel.

Doei marketing!!! :D

Volgens mij belazer je dan gewoon de boel.....

Dus we mogen AMD bedanken voor raytracing op de GTX serie videokaarten? :?
Op RTX2080(Ti) is raytracing op ultra voor je 1300(!!!!!) euro videokaart ook om te janken.

Dus stof je 1080 af met raytracing op medium en koop voor de vrouw wat leuks voor +/- 650 euro O-) O-) O-) :D

Doet me wat denken aan de tegenwoordig quad core I3's

Concurrentie O+

Kunnen ze ook zoiets doen bij het ziekenfonds? :P
mooi gezegd ik had het niet beter kunnen zegen.

nvidia slaat de plank goed mis

[Reactie gewijzigd door Roywilmer op 23 juli 2024 04:12]

Wow, eerst keihard een gimmick promoten om de nieuwe kaarten te verkopen, en dan zeggen dat het toch mogelijk is tot een gtx1060. Vind dit niet netjes t.o.v. de early adapters.
Ik denk dat je niet helemaal begrijpt wat de RTX 20X0 serie heeft dat realtime ray tracing haalbaar maakt. Ray tracing zelf is al veel langer mogelijk op de verschillende programmeerbare GPU architecturen. Alleen de hoeveelheid rekenkracht die je nodig hebt was zo groot dat het realtime aspect niet haalbaar was (als je realtime op minstens 30 fps zet). Dit komt omdat het uitrekenen van de benodigde rays veel tijd in beslag nam.

Wat de RTX series kaarten aan boord hebben met de RT units is een component die het gemakkelijker maakt om de hoeveelheid ray berekeningen die gedaan moet worden te verkleinen. Dat zijn de RT units. Een van de belangrijkste features die deze units in zich hebben is dat ze Bounding Volume Hierarchy operaties kunnen versnellen. Hiermee kan het aantal benodigde rays om een scene correct te renderen aanzienlijk verkleint worden en daarmee dus ook de benodigde rekencapaciteit. Daarnaast helpen de Tensor units ook nog eens doordat ze ingezet kunnen worden om een ruiserige render met sparse ray populatie te kunnen filter zodat hiermee het resultaat van een minder sparse ray populatie kan worden behaald.

Zonder deze twee extra functie blokken moeten deze acties door shaders achteraf gedaan worden op de GTX kaarten, wat de frametijd negatief beïnvloed.

Dus het enige wat helpt om op GTX kaarten real time ray tracing op een bruikbare manier mogelijk te maken is om op een lagere resolutie te werken (zowel in formaat als in ray tracing dichtheid/opties). En dat is dan ook meteen te zien in de performance overzichten die bij het artikel geplaatst zijn.
Laat ik daar op inhaken dat de enige manier op dit moment is om bruikbare performance te merken de samplerates nog een aardig stukje lager gezet moeten worden dan elders in raytracing zou worden aangemerkt als "preview-quality". Een kwaliteitsniveau (of gebrek daaraan) wat je een end product niet aan zou moeten willen doen... zolang het zo sparse moet dat die term zacht uitgedrukt is vind ik het gewoon onbruikbaar.

Je kan zogauw je met daadwerkelijk fatsoen raytracing wilt toepassen dat gewoon nog niet in realtime.

Andere trucs zijn delen van de pipeline niet raytracen... maar waarom zou je dan al niet terug stappen naar forward-shaded met raytraced reflections... oh wacht dat, is precies hoe het tot dusver toegepast wordt. Maar dan is het eigenlijk al geen raytracing meer.

Mij verbaast het hoofdzakelijk dat NVID zo hard heeft ingezet op "RTX" in plaats van Live-GI+AO... dat is wél al goed toe te passen met de huidige performance en wss zonder zo aggresief resoluties te moeten verlagen; in 2160p of 1440p tegenover 1080p-sparse-interpolated-rtx verlies je gewoon absurd veel fidelity...
Ik denk dat NVIDIA zich bewust is van de beperkingen van de huidige real-time raytracing implementaties. Echter het introduceren van nieuwe technologieën is altijd een kip-ei verhaal. Zonder hardware ondersteuning geen software die er gebruik van maakt en zonder software heeft het uitbrengen van de hardware geen zin.

Door te kiezen voor een hybride oplossing waarbij de eerste stappen voor real-time raytracing geïntegreerd zijn met een nog steeds leading klassieke oplossing voor traditionele GPU rendering probeert NVIDIA dit dilemma te doorbreken.

De volgende generatie zal krachtiger zijn voor RT RT en dan zijn de ontwikkelaars al een beetje gewent aan wat er nodig is om RT RT te implementeren in hun engines. Waarschijnlijk zijn dan ook AMD en Intel zover om hun RT RT oplossingen uit te brengen en kan de switch echt beginnen naar RT RT als primair rendering pad.
Het is nog belangrijker dat dat verschil niet door de marketing zou verwateren, maar het is zacht gezegd misrepresentatie wat in de marketing naar voren wordt gebracht, en dat is gewoon stijlloos áls ze inderdaad weet van de beperkingen; dus of ze geeft niet om het correct informeren van de klant of ze weet dat niet, beiden zijn even slecht/not-done imho.

En op deze manier is het eigenlijk niet verdomd moeilijk om te stellen dat ProRender alleen maar niet hoeft te liegen om verder te zijn; zo heel veel "heeft" NVIDIA nog niet daadwerkelijk werkzaam zogauw het meest prominente marketingwoordje (realtime) wordt weggelaten. Iig de adoption rate van de RTX kaarten is nog zo bedroevend laag dat je dat niet serieus hoeft te vergelijken tegenover een open en agnostische techniek.

NVIDIA heeft zo haarzelf een beetje in de voet geschoten met het startschot van de race, tenminste, zo zie ik het voor nu. Of het zo blijkt mag de tijd nog uitwijzen, maar voor een gemiddelde developer is het al snel aantrekkelijker om voor 100% van de end-users te ontwikkelen als zelfs 70% (uit de lucht gegrepen getal voor aandeel NVIDIA gpu's momenteel bij gamers) dus ik denk dat het vooral de vraag is hoe snel ProRender bij game-engines ondersteund kan worden; tot zover zijn de resultaten bij Render Engines behoorlijk indrukwekkend.
Ach die hebben echte hardware raytracing, dat blijft toch wel een groter e-penis gehalte. Die 10xx noobs zitten het softwarematig te emuleren :P
Het is vooral om mensen over de streep te trekken om toch een zwaardere videokaart te gaan kopen zoals de RTX serie.

Zelf wacht ik ook minimaal tot een serie verder, early adopter zijn nah, dat is bij elke techniek nog zo geweest de eerste serie,s met een "nieuwe" techniek loopt het allemaal nog niet zo lekker.

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 04:12]

Ik zou eerder iemand die zonder blikken of blozen een non-performante techniek zomaar koopt zonder enig daadwerkelijk bewijs van team green's marketing/grootspraak eerder een noob noemen dan iemand die dat blijkbaar wél realiseert en alsnog wenst te experimenteren...

Ook helpt deze stap gezien nu het aantal mensen dat mogelijk met de techniek in de weer kan gaan (ook buiten realtime en dus makkelijker binnen bijv. development) groter is het mogelijk interessanter/makkelijker te verantwoorden er als dev tijd in te steken. (dat is bij een groep van 5% natuurlijk al veel makkelijker als bij krap 1%; meer is gewoon beter).
Ja de GTX kan het. Maarkijk eens naar de SS. Een 2060 is nog sneller met RT aan als een gtx-1080ti.

Hier in zie je al dat het er niet voor gemaakt is. Maar om je te laten zien hoe mooi het kan zijn zodat je een RTX kaart koopt.
Vorige week hoorde\was dat ook de conclusie van een reviewer op een technische youtube kanaal (kan hem even niet zo snel vinden). Deze reviewer liet ook al weten dat de ondersteuning toegevoegd ging worden aan de de GTX reeks.

Zijn conclusie was dat de update er zou zijn om juist de verkoop van duurdere kaarten te stimuleren\promoten. Want het werkt wel maar niet zo goed.

Vind dit een goede manier om een demo van de nieuwe techniek op je eigen pc thuis te krijgen.
Zodat je kan een klein beetje kan inzien wat voor veranderingen een upgrade je zal geven.

Zelf heb ik een GTX-970 en zie echt nog niet in waarom ik moet upgraden.
De kans is veel groter dat ik sneller zou gaan overwegen om weer is een upgrade te doen na deze driver update.
Dan wekt dat tegen gezien RTX kaarten het er ook maar moeilijk mee hebben. Op 7nm misschien dat ik dan weer een kijk bij Nvidia
Kijk eens naar de framerates :)
Raytracing is geen gimmick (in dat opzicht zou elke verbetering van grafische weergave een gimmick zijn, dingen als bumpmaps om zelfs maar gouradshading).
Ze laten hier juist nu zien dat het op oudere hardware gewoonweg bij lange na niet zo goed loopt als op de nieuwe hardware. dus het laat je JUIST zien waarom je beter af bent met die nieuwere kaarten..
Dus als early adapter heb je gewoon nog steeds een groot voordeel.
Deze technieken hebben de games grafisch écht naar een hoger niveau getild, en hebben geen aparte chip nodig...die ze eerst pushen alsof het écht nodig is, en dan omdat AMD niet meegaat, laten zij zien dat het softwarematig ook kan. Dan opeens oja, wij kunnen het ook. Dit is precies weer hetzelfde als bij G-SYNC. Eerst beweren dat het alleen hardwarematig kan, puur het misleiden van consumenten.
En wij trappen er massaal in, helaas.
AMD móet écht wat gaan doen aan de stroomconsumptie want dat is het enige gebied waar zij nog achter lopen.
Het driver verhaal dat AMD achterloopt is inmiddels achterhaald.
Quote:'To give credit where credit is due, the Radeon R9 290 is also extremely impressive in 2019.
We’re completely attributing the R9 290’s comeback to AMD’s driver development and not anything to do with the partitioned VRAM buffer or Nvidia neglecting driver support. The 'fine wine' here is all about AMD getting on top of driver optimization over the past few years'
https://www.techspot.com/...gtx-970-vs-radeon-r9-290/
Qua architectuur zit het ook wel goed bij AMD, ze zijn concurrerend. Nu nog extra marktaandeel zodat Nvidia meer de consument gaat waarderen.
Je vergeet even dat die technieken wel degelijk betere hardware nodig hadden, en zo speciaal zijn die extra cores ook niet, ze zijn alleen geoptimaliseerd om de berekeningen die nodig zijn om raytracing te doen sneller uit te kunnen voeren, ofwel zoals een hoop opties in GPU's tot stond komen..
En raytracing tilt een game grafisch toch echt naar een hoger niveau, net zoals bumpmapping ooit deed (en bumpmapping werkte vroeger ook niet lekker op oudere kaarten, die haalde de performance ook naar beneden).
En G-SYNC ansich is wel echt anders dan free-sync en heeft ook daadwerkelijk voordelen hierop.
En het is niet zozeer dat AMD niet meer zou gaan (er is nog niets bekend over hun navi GPU op dit gebied). Softwarematig kan het zelfs op een hele oude videokaart, je krijgt er alleen dan geen zinvolle framerates uit.
Het is zeker niet netjes. Maar dat is zo'n beetje heel Nvidia's repertoire. Iets anders verwachten is een beetje ezel > 3000 stenen.
Hoezo niet netjes? Op een kaart zonder hardwarematige raytrace ondersteuning zal je raytracing berekening ten koste gaan van andere grafische pracht OF van je FPS. Dus tenzij de rest van de graphics niet veel voorstellen zal een RTX kaart zwaar in het voordeel zijn.

Ik vind het echter een hele goeie zet want het zal raytracing veel sneller mainstream maken, wat mij niet snel genoeg kan gebeuren. Ik zit dan ook met smart op de 30xx serie te wachten.
Nvidia komt er nu mee omdat AMD er mee kwam en redelijke resultaten neer wist te zetten.

Eerst iedereen pushen met unieke feature > niet al te netjes
Dan die feature op je hele platform uitbrengen enkel omdat je concurrent dat doet en niet van "Hè, we hebben een manier gevonden hier aub", ook niet netjes.

Ik vind dat als klant geen nette techniek van zaken doen. En dit is op een enorme geschiedenis van Nvidia besluiten waarbij de klant op alles behalve de eerste plaats staat.

[Reactie gewijzigd door batjes op 23 juli 2024 04:12]

Niemand/niks wordt gepushed. RTX zonder raytracing cores is gewoon sub-optimaal. Ik ga het zeker proberen(Shadow of the Tombraider), maar ik weet zeker dat zelfs met mijn 1080ti de framerates zo ver zakken dat ik het niet leuk meer vind. Zeker aangezien ik die met 2550p(of 3840) in stereoscopisch 3D speel. Ik zit nu al op het randje. Wellicht is het zo mooi dat ik een heleboel andere dingen wat lager kan zetten(object detail is voor mij minder belangrijk dan de belichting, dus die komt als eerste), maar alsnog verwacht ik een teleurstelling en deste meer reden om de opvolger van de 2080ti te kopen. Of natuurlijk een AMD variant, maar dan moet ie wel( eindelijk weer) echte power gaan leveren(voor niet teveel Watts).

Ik kan overigens ook wel een lijstje van dingen opnoemen waar ik minder blij mee ben/was van Nvidia(waaronder beslissingen op het gebied van ondersteuning van Stereoscopisch 3D), maar juist dit kan ik best begrijpen. Heb ook niet het gevoel dat ik wat gemist heb door het niet in de drivers tot nu toe gehad te hebben.

[Reactie gewijzigd door MN-Power op 23 juli 2024 04:12]

RTX met raytracing cores is ook suboptimaal... :/

Maar op de kaartjes waar AMD Nvidia mee beconcurreerd, voegen ze raytracing onderstuening ook toe. Als AMD die stap niet gezet had, hadden de niet RTX kaartjes nooit de ondersteuning gekregen.
Tja, die kaartjes kunnen het al helemaal niet aan.....
Dit was ook mijn eerste gedachte..
Wat je ook mag vinden van de zin van raytracing, dlss lijkt in elk geval wel een mooie toevoeging te zijn. Niet alleen in de grafiekjes hier maar de video's van DigitalFoundry laten toch ook wel zien dat het echt flink performance kan opleveren met in veel gevallen dezelfde of betere image quality als andere AA technieken.

In Anthem was het in elk geval een behoorlijke performance boost.

Edit:
@Gamebuster
Nee, maar het was misschien niet helemaal duidelijk. Het Tweakers verhaal gaat over raytracing, maar ik stip alleen DLSS aan.

@Jeroenneman
Het is Deep Learning Super Sampling, en SS is een AA techniek. Zie ook de vele vergelijkingen tussen games met verschillende AA technieken en DLSS. Vandaar dat ook de performance een belangrijk aspect is.

@lordawesome
Ik baseer mijn verhaal op dat van Digital Foundry

[Reactie gewijzigd door LOTG op 23 juli 2024 04:12]

Dus jij baseert je op wat Nvidia je vordert? Als Nvidia zegt "we noemen het DLMS" , dan is het opeens MegaSampling oid?

Supersampling zou een betere beeldkwaliteit moeten geven. DLSS geeft een wazige vaseline filter.
Ik heb geen idee waar jij je op baseert maar je bent van alles aan het claimen wat gewoon niet waar is maar wat jou onderbuik gevoel is wat een bepaalde techniek doet. Super sampling is een AA techniek en die moet kartel randjes tegen gaan. En ja dat doet hij door op een hogere resolutie te renderen. Wat Nvidia doet is dat deels vervangen door machine learning die dat dan probeert te interpoleren en het resultaat is vergelijkbaar met temporal AA. Dat het niet vergelijkbaar is met native resolutie is wat anders. Maar het doet precies wat SS ook doet alleen anders: hogere resolutie renderen en AA.
Bullshit.

De beeldkwaliteit met DLSS wordt niet beter, alleen maar slechter ten opzichte van native renderen. Lees de reviews maar eens van reputabele reviewsites: DLSS geeft vergelijkbare of zelfs slechtere beeldkwaliteit dan 80% resolution scale.

Dat noem ik geen verbetering.
Wat nVidia doet is eigenlijk gewoon een soort upscaling met hinting. Supersampling is inderdaad op een hogere resolutie renderen voor (veel) betere anti-aliasing.

Maar wat nVidia doet is juist op een lagere resolutie renderen en dan upscalen met hinting door de deep learning. De supersampling wordt eigenlijk vooraf gedaan op een zware cloudfarm, en de
'hints' die daaruit komen worden naar de gebruiker gestuurd zodat de kaart die toe kan passen. Die cloud farm rendert de hele game heel veel keer in verschillende resoluties waardoor hij (in theorie) bij een lage resolutie al weet hoe het er op een veel hogere resolutie uit zou zien.

Die hints komen neer op: "Dat vage blauw/groene blokje hebben we ook al eens gezien tijdens onze renderfarming, en dat zou er eigenlijk zo uit moeten zien als je het op hoge resolutie rendert: <blob>". Je eigen kaart vervangt dat dan in het beeld door de gepre-renderde versie (simpel gezegd).

Maar met echte lokale supersampling heeft het weinig te maken. Zoals gezegd zijn de resultaten inderdaad niet bepaald om over naar huis te schrijven :P Maar dat kan ook aan de uitwerking liggen. Op zich heeft de techniek wel potentieel denk ik.

[Reactie gewijzigd door GekkePrutser op 23 juli 2024 04:12]

Maar het doet precies wat SS ook doet alleen anders: hogere resolutie renderen en AA.
DLSS heeft niet precies dezelfde visuele kwaliteit als Super Sampling, enige voordeel is dat het sneller is. Het rendert niet op een hogere resolutie, anders zou het niet hoeven interpoleren.

Het voornaamste nut van DLSS is ruis wegwerken die ontstaat door sparse raytraycing (wat RTX is), en dan vaak maar gedeeltelijk.
Fout, de resolutie wordt verlaagd en het absoluut kromme is dat de term DLSS in haar huidige werking impliceert dat upscaling hetzelfde kan zijn als supersampling en dat is zelfs omgekeerd...

Je zou het al door mogen krijgen door te merken dat DLSS hogere framerates geeft dan geen-enkele AA... een duidelijker teken dat het geen hogere samplerate kan zijn dan dat is er werkelijkwaar niet.
Ik krijg in BFV DLSS alleen aan als ik ook RT aanzet. Ik heb een RTX2080 kaart. Is dat normaal?
Ja. Dlss werkt alleen icm raytracing
Dezelfde of mindere kwaliteit, DLSS voegt nog 0,0 toe in games in mijn ogen.

https://youtu.be/3DOGA2_GETQ

https://youtu.be/lKaifAffhZw
je haalt DRX en DLSS door elkaar denk ik
DLSS heeft weinig te maken met AA. Het is gewoon downsampling met wat AI erachteraan.

Gebruikers met een non-RTX kaart kunnen de resolution scale op 80% zetten, dan krijg je ongeveer hetzelfde resultaat. Zowel qua performance als qua beeldkwaliteit.
DLSS is waardeloos. Je krijgt dezelfde performance boost maar beter beeld als je zelf de resolutie wat lager zet. Vergelijk Anthem even: https://cdn.knightlab.com...00-11e9-8106-0edaf8f81e27
Ik weet niet eens of ik er gebruik van zou maken maar ik werd blij toen ik dit las tot ik de regel 'vanaf de GTX 1060' las. Net een 1050ti gehaald.. :D :D
Och ja, gamen met 6-12 fps is toch niet zinnig.

Mooie update van NVIDIA om mensen over de streep te trekken voor RTX kaart, kijk ons eens moeite doen om raytracing te implementeren op oude kaarten, werkt wel niet echt dus misschien moet je toch maar eens nieuwe upgrade halen.
https://www.patreon.com/sonicether/posts

Raytracing/Pathtracing in Minecraft. Of Nvidia het ondersteund of niet, het werkt. Werkt namelijk ook op AMD kaarten.
Lijkt mij ook inderdaad gewoon een marketing strategie, niets meer.

(De wijze waarop het in deze minecraft mod wordt geimplementeerd is wel software matig.
Wordt op zijn patreon ook aangeduid als path tracing, niet ray tracing, maar desondanks ziet het er naar mijn idee gelijk uit als het effect in Quake 2 (Q2VKPT))

[Reactie gewijzigd door TheHeavySoldier op 23 juli 2024 04:12]

Ben verder niet bekend met het project, maar op de gelinkte Patreon pagina staat dat AMD kaarten niet ondersteund worden..
"SEUS PTGI will not currently run on AMD graphics cards."
Waar zie jij dat staan als ik vragen mag?

De laatste update heb ik geen toegang toe maar die van 1 april spreekt over: "So, first of all, SEUS PTGI (short for Path Traced Global Illumination) is a shaderpack for Minecraft powered by the mod called OptiFine. It doesn't require any special hardware or an RTX card, just a modern GPU with decent horsepower! The ray tracing under the hood powering this shaderpack is software-based and unable to take advantage of RTX RT cores for acceleration. Utilizing RT cores is, for the time being, not possible with OptiFine."



Oh, ben niet bekend genoeg met patreon. Zie dat er een ander tablad is hah.
Staat het inderdaad op. Mijn fout!

[Reactie gewijzigd door TheHeavySoldier op 23 juli 2024 04:12]

Ja, raytracing bestaat al veel langer dan de RTX kaart. Het grootte voordeel van een RTX kaart is dan ook dat het raytracing hardwarematig kan doen ipv via software, waardoor je op eens veel betere framerates krijgt als je raytracing wilt gebruiken. Dat is dan ook de kracht van de RTX kaarten die nu eens te meer duidelijk wordt als je kijkt naar FPS van de GTX 1080 TI met raytracing versus de RTX2080.

Ik heb zelf een RTX2080 maar ik gebruik dat raytracing verder niet. Heb het wel eens aan gezet in Battlefield, het ziet er prachtig uit, maar ik speel competitief dus ik wil een zo'n hoog mogelijke framerate hebben.
Naja, als je naar de fps data kijk lijkt me met een 1060 niet echt te doen. 10 fps op 1440p. denk niet dat je de 60 haalt op 1080p
Niet iedereen is een die hard gamer waarbij minimaal 60 fps smooth vereist is. Sommoge zijn al blij met 30 fps op medium en dat zou een 1050ti gewoon moeten halen.

Mss komen er gemodde drivers uit. Wie weet.
Anoniem: 159816 @rickboy33311 april 2019 15:44
Als je op medium wilt spelen....waarom wil je dan ray tracing?
Zelfs (of juist) spellen met 'ultra low' textures zien er met ray tracing belachelijk veel mooier uit. Zie Quake 2 met ray tracing aan en uit vergeleken. https://www.youtube.com/watch?v=0YYJwwSrwtg.
Ik hoef zelf ook niet op al te hoge resolutie/texture/hairworks/wat dan ook te spelen, maar een beetje ray tracing kan al veel verschil maken.
Anoniem: 159816 @[Floris]12 april 2019 11:37
Je wint veel meer door eerst de rest op een hoger niveau te renderen.
Ik betwijfel het echt zeer of een 1060 (waar het hier over gaat) 30 fps haalt. Vooral bij reflections of global lighting.
Huh maar dat betekent dat je het niet krijgt toch?
"De driver maakt DXR op kaarten vanaf de GTX 1060 6GB mogelijk; langzamere kaarten zijn niet krachtig genoeg"
Hij was dan ook blij tot hij de bewuste regel tekst las. ;)
Dat is ook wat hij bedoeld ;)
Is het niet zo dat raytracing aardig veel vram neemt in praktijk en daardoor kaarten met minder dan 6GB zoals de GTX1050ti niet in aanmerking komen.
Maar die 1050ti zal je wel met een bepaalde reden hebben gehaald? Ik kan me niet voorstellen dat je nu plotseling minder plezier van de 1050ti gaat hebben.
De vraag is natuurlijk ook of raytracing op een 1060 genoeg framerates geeft om er ook daadwerkelijk plezier van te kunnen hebben. Volgens de benchmarks in het artikel niet echt volgens mij.

[Reactie gewijzigd door ruftman op 23 juli 2024 04:12]

Maar die 1050ti zal je wel met een bepaalde reden hebben gehaald? Ik kan me niet voorstellen dat je nu plotseling minder plezier van de 1050ti gaat hebben.
De vraag is natuurlijk ook of raytracing op een 1060 genoeg framerates geeft om er ook daadwerkelijk plezier van te kunnen hebben. Volgens de benchmarks in het artikel niet echt volgens mij.
Ja hoor, ben zeer tevreden met die 1050Ti maar werd extra enthousiast toen ik in dit artikel ' In de praktijk betekent dat dat Pascal-kaarten inmiddels ook realtime-raytracingondersteuning krijgen.' las om daarna te lezen dat het vanaf de 1060 6gb pas mogelijk was.

Zo ook met Freesync ondersteuning toen ik erachter kwam dat mijn scherm dat heeft, maar geen DP aansluiting heeft. Oh well....
Klopt, maar als je een 1050ti haalt ga ik er ook van uit dat je niet zó zware spellen speelt waar je raytracing voor nodig hebt ;)
Ik vraag mij of of mijn 1060 max q ook ondersteund wordt...
Toch fijn dat Nvidia deze update ook uitrolt voor de Pascal-generatie. Natuurlijk zal de performance niet zo 'best' zijn als met de nieuwe 2000-serie, maar als je het bekijkt vanuit een ondersteunings-perspectief vind ik het erg netjes van ze. Ik was al blij toen ze Freesync ondersteunde en ik in combinatie met mijn Iiyama monitor gebruik kon maken van Adaptive G-Sync. Top!
De Pascal architectuur stamt uit 2016. Het is natuurlijk jammer dat die niet meer ondersteund wordt, maar het is eigenlijk wel begrijpelijk. 2 jaar support is toch een beetje de industry standard.
Volgens mij is het alleen maar een "tease": Kijk hoe mooi het eruit ziet! Wil je meer dan 20fps? Koop maar een RTX20X0 dan :D
Wellicht maar ik blijf nog steeds van mening dat het netjes is van ze. Ze hadden het ook niet kunnen doen net als de Freesync ondersteuning. Het maakt de Pascal-serie meer interessant.
Ja, en? Is toch altijd zo geweest in het verleden. Wilde je mooiere beelden dan moest je maar nieuwere hardware kopen. Heb in het verleden al zo vaak demo's gezien die alleen op nieuwere hardware fatsoenlijk draaide en uitzagen, maar op mijn dan nieuw gekochte midrange kaart er bij lange na niet zo uitzagen..
Waren ze te duur voor je? Mijn RTX2080 doet t nog! Nvidia kaarten gaan iedere nieuwe release stuk :) Iedere release hetzelfde
Klopt maar wij kregen zoveel 2080tis terug. Dat zou je niet verwachten bij een nieuwe kaart. Ze hadden allemaal de zelfde klacht zowat, alleen maar artifacts.

[Reactie gewijzigd door RoffaboyS op 23 juli 2024 04:12]

Erg jammer dat dit niet mogelijk word met de 980ti. ;(
Ik betwijfel hoe nuttig het is op de 10xx kaarten gezien de framerate. Kaarten van een generatie ouder zullen een nog zwaarder FPS hit krijgen.

Als je het van de positieve kant bekijkt is dit een uitstekende rede om je videokaart te upgraden ;)
Een 980ti op 1.5ghz zit rond de 1070ti 1080. Dus lijkt mij dat een 980ti het ook zou kunnen draaien. :)
Ik denk dat de geavanceerdere instructie set juist het grote verschil maakt, maar misschien gaat het om puur kloksnelheid. Het is voor ons giswerk ...
Conclusie, leuk dat het mogelijk gaat zijn, maar heel veel heb je er niet aan.
Ik heb ook een 1080ti 11gb versie en vind raytracing echt niet nodig op dit moment, vooral niet nu crytek heeft laten zien dat het softwarematig ook opgelost kan worden.
Dit zie ik puur van Nvidia als een goede methode om te laten zien dat er wel degelijk verschil is, aangezien dit niet echt het geval was op de games die ten tijde van het uitkomen van de 2000 serie uitgebracht waren.
Men kan gewoon rustig wachten tot de volgende generatie die laten we hopen wel een groter verschil laat zien.
Tevens vraag ik me af wat het zou laten zien op 1080p in de benchmarks.
Crytek heeft met die demo nog helemaal niets echt laten zien dat het softwarematig ook opgelost kan worden, dat kunnen we pas zien wanneer crytek exact dezelfde demo's gebruikt met hun techniek als nu worden gebruikt bij deze nvidia benchmarks.. Echt heel speciaal is de hardware van de nieuwe nvidia kaarten ook niet, alleen deze cores zijn geoptimaliseerd in maken van de berekeningen die nodig zijn voor raytracing.
En omdat je een 1080ti hebt, zul je sowieso niet zo snel overstappen naar de 20x0 generatie en logisch dat je dan zegt dat je wel wacht op de volgende generatie..
Het heeft ook nog te maken, met wat de game makers gaan doen bij het optimaliseren van spellen.

Maar ik ga inderdaad nog niet overstappen bij zo een kleine wisseling.
Heb net een GTX 1060 6gb aangeschaft en toen ik hoorde dat raytracing ook naar de gtx 1000 serie zou komen was ik best wel blij, maar zoals nvidia zelf ook al zegt; verwacht er niet teveel van. Want raytracing werkt natuurlijk het best op de rtx serie.
Vraag me af waarom je nu nog een GTX 1060/6gb zou aanschaffen terwijl je beter af bent met een GTX1660 welke amper duurder is maar wel een stuk sneller.. Maargoed, ieder zo zijn eigen redenen daarvoor.
Ik heb de kaart tweedehands kunnen aanschaffen voor 150 euro :*) Anders zou ik ook voor een andere versie hebben gekozen hoor.
Wat een gezeur toch over het niet ondersteunen van Raytracing op die GTX serie. Nu wordt het ondersteund en zeikt iedereen weer dat het te traag is. Ja DUH, het is bizar rekenintensief!

Het kon in de jaren 90 al op een supertrage processor, het is niet iets nieuws ofzo, het is gewoon enorm intensief.

RTX is hardware versnelde DXR, en dit is dan de "software" versie van DXR. Logisch dat specifieke hardware, de RTX cores, hier beter op scoort. Niets geen marketing, gewoon logisch denken. Waarom denkt iedereen toch dat ze alle toeters en bellen moeten kunnen aanzetten op de mid-range kaartje ?

Op dit item kan niet meer gereageerd worden.