Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Nvidia kondigt RTX voor realtime raytracing aan

Nvidia heeft tijdens de Game Developers Conference RTX aangekondigd, dat realtime raytracing mogelijk maakt op Volta-gpu's. De techniek werkt in combinatie met DXR, een door Microsoft ontwikkelde uitbreiding op DirectX 12.

Nvidia's RTX-techniek werkt alleen op Volta en toekomstige gpu's en maakt realtime raytracing mogelijk met behulp van Microsofts DirectX Raytracing-api. Daarbij kan de Volta-gpu onder andere gebruik maken van zijn tensor cores, die bijvoorbeeld getraind kunnen worden voor denoising, waardoor er met minder rays een vergelijkbaar resultaat gehaald kan worden. Nvidia breidt zijn Gameworks-toolkit voor ontwikkelaars uit met ray-traced area shadows, ray-traced glossy reflections en ray-traced ambient occlusion.

Nvidia heeft nog niets bekendgemaakt over de prestaties van RTX op de Volta-gpu. Wel is duidelijk dat de Unreal-, Unity- en Frostbite-engines ondersteuning voor RTX zullen krijgen.

Door

Redacteur laptops en componenten

87 Linkedin Google+

Reacties (87)

Wijzig sortering
Hm. In 2012 kon NVIDIA al real-time raytracing doen met de Kepler:
https://www.youtube.com/watch?v=h5mRRElXy-w

En nu 6 jaar later kan het alleen op de nieuwe Volta chips?
Begrijp het wel, je moet een killer feature hebben om je nieuwe chips te kunnen verkopen.
Dat is allemaal afhankelijk van wat jij verstaat onder realtime en wat nVidia verstaat onder realtime. Realtime wil alleen zeggen dat het resultaat binnen een bepaalde time constraint wordt behaald. In dat opzicht kan de 8 jaar oude Geforce GT 330 in mijn HTPC dat ook behalen zolang die time contraint maar ver genoeg in de toekomst ligt.

Daarnaast zeggen ze niet dat realtime raytracing nieuw is, ze zeggen alleen dat er een verfijnde techniek is, die TXR heet en die samen met Microsoft DXR werkt.
In het nieuwsbericht wordt er gesproken over tensor cores die getrained kunnen worden in real time om noise te verlagen. Daardoor kan het raytracen gebeuren met minder rays dan voorheen. Ik vermoed dat dat de reden is dat dit alleen op volta gpu's kan. Nvidia had ook liever deze techniek beschikbaar gemaakt op alle current-gen GPU's om hun omzet te verhogen denk ik.
Nou als je die demo vergelijkt met die hierboven ergens staat, dan zie je dat de nieuwe toch een stuk uitgebreider is.
Als ik een wilde gok mag wagen zeg ik dat ze een hardware accelerated versie van dit hebben geimplementeerd: Real-Time Noise Filtering For Light Simulations

Er zijn sinds 2012 weinig innovaties op het gebied van raytracing gedaan maar machine learning groeit exponentieel.
Ik heb in 1996 al real-time raytracing gezien op een SGi Onyx. Niet zo geweldig mooi tegen huidige standaarden, maar 320x240 x 25 Hz is ook real-time.

Raytracing is nooit doorgebroken omdat je met dezelfde hoeveelheid transistoren mooiere beelden kreeg door de conventionele Transform&Lighting rendering. Het wordt nu relevant omdat NVidia iets moet met al die extra transistoren, en 8K is niet echt meer een verbetering over 4K schermen. Daarom is ray-traced 4K voor het eerst echt interessant.
Kan iemand mij in iets meer Jip en Janneke taal uitleggen wat dit is en de voordelen?

Edit: Allen dank voor de uitleg!

[Reactie gewijzigd door no_way_today op 19 maart 2018 20:40]

Raytracing is een veel geavanceerdere manier van rendering zoals videokaarten dit nu doen. Bij raytracing wordt de baan van elke lichtstraal (ray) gevolgd (tracing) terwijl deze over objecten stuitert. De materialen van die objecten geven er dan een effect aan en dat wordt meegenomen. De huidige kaarten zijn heel beperkt in dat soort dingen: reflecties, rookeffecten, schaduwen en andere lichtval enz worden benaderd. Dat wordt met mooie textures een beetje verborgen maar het blijft een benadering en dat zie je. Het blijft er altijd een beetje "cartoonish" uitzien.

Met raytracing krijg je veel realistischere glans, reflecties en lichtval. Het ziet er veel echter uit. Daarom wordt voor special effects in films (vooral waar gemengd wordt met echte beelden) ook raytracing gebruikt.

Nadeel is dat het gewoon ontzettend zwaar is. Uren renderen voor 1 frame met een complete serverfarm is niet ongewoon. En 0,0001 FPS is niet fijn met gaming :) Dus ik denk dat het wel even duurt voor je volledige raytracing in games terugziet maar dit is wel een interessant begin.

[Reactie gewijzigd door GekkePrutser op 19 maart 2018 18:39]

Als uitbreiding hierop:
In de film industrie wordt path tracing gebruikt.
Hierbij worden rays vanuit de camera "geschoten" en kaatsen ze af tegen alle oppervlakken (of in volumes zoals rook of wolken) die ze raken.
De bedoeling is om op deze manier te integreren over de "image contribution function": die functie van al het inkomende licht in een pixel.

Bij Whitted Style ray tracing samplen we directe belichting (check voor alle lampen of het object in de schaduw ligt of niet) behalve bij spiegel oppervlakken waar lichtstralen in 1 richting afkaatsen.
Hierdoor mis je dus indirecte belichting (tenzij je scene gemaakt is van alleen maar spiegels): alles wat niet direct door een lamp gezien kan worden ligt in de schaduw.

Als je naar de video van nzweers kijkt zie je ruis in de glimmende oppervlakken.
Dit geeft aan dat RTX niet Whitted Style raytracing gebruikt maar doet aan distributed ray tracing.
Hierdoor worden ook oppervlakken die niet perfecte spiegels zijn ondersteund.
Voor die oppervlakken moet de gehele integraal van inkomend licht worden gesampled, wat een monte carlo process is (vandaar de ruis).
In vergelijking met path tracing zit hier echter geen volledige recursie in: net zoals bij Whitted Style ray tracing stopt de recursie nadat een mat (niet glimmend) oppervlakte is geraakt.
Als uitbreiding hierop:
In de film industrie wordt path tracing gebruikt.
Ik denk eerlijk gezegd dat dit met games ook gaat zijn.
Raytracing is vergeleken met pathtracing veel inefficienter en zeker met dynamische scenes is het zonde om raytracing te gebruiken omdat je daarmee altijd stukken wereld belicht die de kijker niet ziet op dat moment.
Die informatie zou eventueel soms handig zijn voor de global illumination, maar meestal dragen ook de secundaire (en verdere) reflecties niet genoeg bij om het qua rekenkracht te veroorloven.

Over dat filmpje, ik denk dat die ruis gewoon wat fijne bumpmapping is die niet goed wordt ge-anti-aliassed.
Gladde oppervlakten hebben die ruis niet en je zou met tracing eerder ruis verwachten in donkere gebieden, maar daar blijft het weg.
Ik denk dat de raytracing vooral voor reflecties wordt gebruikt en dat de rest (GI, ambient occlusion, dat soort dingen) redelijk gefaked wordt.
Er zijn ook voorbeelden/demos waar wel echt alleen getraced wordt en die hebben in real time bakken met ruis in de schaduwen.

(voor de mensen die het niet weten, als je licht gaat traceren dan gaat het statistisch heel lang duren voordat een virtueel lichtstraaltje een donkere hoek weet te vinden. Dat is ook waarom die hoek zo donker is, er komen daar simpelweg minder lichtstralen terecht. Maar dat betekent vervolgens ook dat je met tracen bakken met rays daar terecht moet laten komen om het enigzins egaal op te vullen (ook al is het er redelijk donker) en dat kost me toch een partij rekenkracht.)
Ik denk niet dat de ruis veroorzaakt wordt door bumpmapping van perfect spiegelende materialen.
Neem bijvoorbeeld het witte kopje op ~0:33 seconden in de video.
Dat is duidelijk niet een perfecte spiegel en fijne bumpmapping lijkt me ook onwaarschijnlijk want het kopje hoort glad te zijn.
Volgens mij is dit een gevolg van distributed ray tracing: ze samplen de integraal van al het inkomende licht wat ruis veroorzaakt.
Nog een keer het filmpje bekeken en je hebt helemaal gelijk,.,. bakken met ruis. ;(
Je haalt raytracing en path tracing door elkaar. Path tracing is juist de techniek waarbij licht rond blijft reflecteren en echte global illumination mogelijk is. Het is ook niet waar dat je stukken wereld belicht die door de kijker niet zichtbaar is. Je zal namelijk vrijwel altijd vanuit de camera achteruit een lichtstraal schieten, dus je berekent alleen de belichting van oppervlaktes die daadwerkelijk in beeld zijn. Uiteraard zullen die oppervlaktes wel beinvloed worden door objecten die mogelijk buiten beeld liggen, maar dat is bij ray tracing ook zo.
Bah, ik haal inderdaad nogal wat nomenclatuur door elkaar...
Vanuit de camera 'schieten' heet reverse (omgekeerde) raytracing, maar dat word inderdaad vrijwel altijd gedaan. Er is meestal weinig reden om pixels te berekenen die je niet ziet.
Als je kijkt naar deze andere demo van RTX dan wordt global illumination gesimuleerd:

https://youtu.be/LXo0WdlELJk?t=54

Het is dus in principe mogelijk om ook de volledige path tracing kant op te gaan waar de bounces bij matte oppervlakten verder gaat.
Hopelijk dan ooit gedaan met die super fake reflecties in bvb total war warhammer op de units.. Wat is me dat voor een raar geglinster.. Of zoek ik bij het verkeerde voorbeeld :)?
Het probleem met ray tracing is dat het proces niet opdeelbaar is in een multicore gpu omgeving omdat je de ray effectief eerst moet uit-tracen (x-aantal bounces) alvorens het totale aantal licht te weten te komen.

Geometrie uitrekenen is 100% opdeelbaar met duizenden kleine cores omdat core1 het resultaat van core374 niet kan beinvloeden.

Een oplossing zou zijn dat een 1snelle core op de cpu de lichtmap/traces van een scene kan berekenen op het mopent dat de basisgeometrie (low res) uitgerekend is zodat de gpu daarna deze lichtinformatie kan toepassen op de textures. Mss gebeurt dat nu al op de cpu?
Weet je dit zeker?
Ik zou juist zeggen dat je elke ray parallel ten opzichte van de anderen kunt uitrekenen.
Waarbij elke ray een pixel op je scherm zou moeten zijn.
Het probleem waar ik vroeger juist tegenaan liep ( hobby project ) is dat het geheugen absoluut niet snel genoeg was om heel veel rays tegelijk te kunnen handelen. maar zowel CPU's als GPU's hebben nu sneller geheugen dan toen, en ook de caches zijn een stuk groter, dus geen idee wat nu de status is.
Rays bounced meerdere keren. Als je een realistische schaduw wil moet je een lichtstraal laten bounchen, je moet het licht dus volgen om te weten waar het tegen gaat botsen, het kan alle kanten uitschieten.

Licht door een raam van de zon bounched overal naartoe en vervolgens op de vaas in uw woonkamer die op zijn beurt het tv-toestel indirect belicht enz. Dus je kan de belichting op de vaas niet berekenen als je eerst het raam, vensterbank, plafond, tafel, luster etc hebt berekend. Parallel is per definitie onmogelijk. Een glad witte oppervlak weerkaast meer licht dan een zwart oppvervlak met textuur. Erger nog. Al je veel rode objecten in uw ruimte hebt zal de ruimte er roder uitzien.

9/10 kan je met software de aantal bounces wel reduceren tot 2 en deze lichtmap heel ruw maken. Pakweg 640x420pixels voor het algemene beeld en dan een hd model voor objecten specifiek. En om het in een multicore omgeving te laten werken zullen er wel methoden zijn om zones te bepalen of trayces te groeperen volgens invloedrijkheid en ze op te splitsen in deelprocessen en nadien de licht maps in overlay te plaatsen zodat een gpu nog efficient kan werken.
Ik denk dat je de stralen de verkeerde kant op volgt.
je volgt niet de stralen van de lichtbronnen, je volgt de stralen welke vanaf je camera/fov naar je rear-fov worden gestraalt, en volgt ze tot een lichtbron. hierbij is elke straal een pixel op je scherm

Volgens jou beredenering zou je de eerste pixel niet kunnen uitrekenen zonder de laatste. en de laatste niet zonder de eerste. Dat lijkt mij moeilijk beginnen.

Anders een vraag: Waarom denk je dat er een zeer parallele GPU nodig is voor RTR?

[Reactie gewijzigd door Fiander_work op 20 maart 2018 10:23]

Stracing is tracing. Of je ze nu van A naar B volgt of van B naar A, het pad en rekenkundig model blijft het zelfde. Achterwaards tracen is enkel efficienter maar is niet perfect.

Gpu is er gekomen om geometrie sneller uit te rekenen. Bijv om uit 4 coordinaten een vierkant te tekenen en dat te laten roteren zodat een 3d 3effect ontstaat. = 3d kaart. De 4punten bewegen onafhankelijk van elkaar op het scherm en het resultaat is 100% voorpelbaar met als gevolg dat de berekende waarde direct op uw beeldscherm kan getoond worden.

Bij realistische ray tracing is alles afhankelijk van elkaar op het moment dat je meer dan 1 weerkaatsing toelaat want je kan nooit de kleur en intensiteit van de pixel op uw scherm individueel bepalen als je het resultaat van de andere traces niet kent. Je moet dus uw resultaat bijhouden, en pixel/trace per pixel/trace vergelijken en indien nodig waarden optellen om dan tot een finaal oordeel te komen. = veel gepraat tussen geheugen en gpu. Want je moet het resultaat van de eerste pixel kennen alvorens de laatste te kunnen berekenen ( maar zoals ik al zei kan je mss al pixels op uw virtuele camera uitschakelen omdat die een beperkt effect hebben in de scene)

Aangezien gpu’s sneller geheugen hebben dan een cpu zal uw gpu hier ongetwijfeld sneller in zijn. Maar de snelheidswinst door alles op te splitsen is beperkt tot het snellere geheugen en niet omdat uw gpu rechtstreeks uw beeldscherm kan aansturen zonder naar het geheugen te gaan zoals bij geometrie wel het geval is.

De grootste vijand is tijd. Een paar miljoen pixels berekenen in 1/60van een seconde is heel snel. Dat is 16miliseconden rekentijd per frame. Dus veel tijd om iets weg te scrhijven heb je niet :)
@Fiander_work heeft helemaal gelijk. Nee, je kan de belichting van jouw vaas niet berekenen, maar de essentie van ray-tracing is nu juist dat je dat niet hoeft te doen. Die ruimte met veel rode voorwerpen ziet er roder uit, omdat veel van de gecaste rays via tenminste 1 rood voorwerp stuiteren. Dat blijft het geval als de ene core de ene ray heeft berekend, en de andere core de andere ray.

De complexiteit van ray tracing zit 'm veel meer in het feit dat niet elke ray evenveel werk is, dus het is veel meer een uitdaging om 10 miljoen rays over 1000 CPU cores te verdelen
Raytracing is meer computer intensievere correctere manier van renderen van reflexes en verstrooiing. Maar is enorm zwaar vooral als diepe reflexen stappen toepast. rasterriser methode is eigen lijk een cheat wat op zich niet zo slecht is. Als in veel games nogal mat is kwa meest voorkomende materialen en spiegels en raam reflexes niet prominent in beeld komen of te weinig game time voorkomen om zulke resource aan te slijten. Dus de value voor gameplay en game experience is vaak te subtiel. Waar enkele games er veel gebruik van kunnen maken maar andere weer niet.
showdown in spiegel room. Zoals in die Bruce Lee film.
Een D-day invasie heeft er dus geen ruk aan.

Je kan zo zien men past een short cut toe voor goede benadering . Nu kunnen beperkt deels de correctere maar computer intensieve manier er meer in mixen.
Ja, het is een wat summier artikel. Ik vond deze heel verhelderend:
https://arstechnica.com/g...phics-directx-raytracing/
Mooie link. Zeer informatief inderdaad.
Dat er een flinke stap gezet is naar meer visueel realisme in spellen dmv -bijvoorbeeld- nauwkeurig berekende complexe lichtsimaties die veel rekenkracht vragen.
(even kort door de bocht)

De zon werkt via stralen licht, die aan de hand van wat ze raken veranderen (denk aan een straal licht raakt een spiegel dus gaat bijna geheel een nieuwe kant op, raakt een prisma dus breekt op in kleuren en gaat meerdere kanten op, raakt een gekleurd object dus neemt wat van die kleur mee, etc) en dat is wat dit 'raytracing' ook doet, het is een tech die al minstens 15-20 jaar bestaat, waarvan we weten dat je behoorlijk fotorealistische resultaten kan leveren, maar tot nu toe was dit iets wat je in bijvoorbeeld 3dsmax (een 3d programma) deed, en een uurtje wachten op de render van een (complex) stilstaand beeld is in zo'n programma niet vreemd. Komt nu dus Nvidia om de hoek met (toegegeven een iets versimpelde vorm van) raytracing die LIVE werkt, dus niet 1 uur per frame, maar slechts een x aantal miliseconden, dus gewoon met 60fps ofzo mogelijk.

Resultaat, met zo'n nieuwe GPU (al dan niet van AMD want die zal vast niet achter blijven) en DX12 kun je dus halverwege 2018 begin 2019 echt fotorealistisch gamen, dat je je bij screenshots af gaat vragen of je kijkt naar een gephotoshopte foto, of een screenshot van een game.

Edit: Hier een leuk (willekeurig) voorbeeldje, dit is Unreal Engine 4, waar bijv ook Fortnite (dat battle royale cartoony gebeuren) op draait, en dit is dus ZONDER die raytracing tech van Nvidia (ze hebben wel een eigen vorm daarvan hieraan toegevoegd, maar toch, het word dus met dat Nvidia spul nog moeilijker om te zien dat het 'niet echt' is)

Edit2: Nog even een beetje verder in verdiept, blijkt dus dat die Unreal Demo's de hier besproken Nvidia's tech gebruiken, maar dan software matig aangestuurd (en dat merk je ook wel als je ze zelf download en probeert, even snel de camera draaien kan gewoon niet/dan zie je wel ruis) RTX is feitelijk de doorontwikkeling van de tech achter bovenstaand filmpje, nu dus op hardware niveau (wat prestaties alleen maar ten goede komt natuurlijk)

[Reactie gewijzigd door olivierh op 19 maart 2018 19:39]

Nou op 720p zou dat in 2019 mogelijk kunnen met 7nm high-end GPU. Met voldoende complexiteit
Prisma en verstoring en tot n refexies gaan kan men het nog wat correcter maken maar de last hangt ook sterk af van hoe complex de scene is.
Naast de prima uitleg die hier verder staat vind ik een plaatje altijd erg verhelderend:

http://www.lilysoft.org/CGI/SR/Spectral%20Render.htm

Als je hier naar de glazen kijkt zie je zowel reflecties op de glazen en refractie door de glazen heen en schaduwen in en door het glas heen. Dit kan doordat vanuit de lichtbronnen vele licht staaltjes gevolgd worden en dus ook interactie hebben met de materialen waar ze op kaatsen of door gebroken worden, dit principe heet raytracing. Hoogwaardige raytracing plaatjes kunnen soms zo echt lijken dat je ze voor foto vergist en het is dus een interessante techniek om fotorealisme te halen, ik ben alleen bang dat het nog wel even duurt voordat we videokaarten hebben die realtime fotorealistische renders maken.
Hmm ik ben positief sceptisch. Begrijp me niet verkeerd, real-time Ray-tracing zou fantastisch gaaf zijn... mijn sceptische pet vraagt zich alleen af: wat krijgen we dan?

Voor dingen zoals grote hoeveelheden light-sources, water, glas en reflectie zie ik meteen de meerwaarde.

Ik geloof ook meteen dat als je er genoeg rekenkracht tegenaan gooit het real-time kan (Intel heeft dat een tijd geleden al laten zien met Wolvenstein, een laptop en een rack servers ernaast ;) ). En ook met een Altera FPGA hebben ze een leuke demo.

Punt is alleen dat naarmate de scene complexer wordt, dit ook zijn weerslag heeft op de snelheid van de ray-tracer. Vooral de gave features waar ray-tracing m.i. om bekend zijn, zoals halo's, radiosity, mist, caustics, etc maken een scene veel lastiger, omdat je daarmee ineens je rays opsplitst in meerdere rays die je afzonderlijk moet ray-tracen. Op dit moment worden dit soort dingen op je GPU gedaan met shaders.

Ray-tracing is ook niet altijd nodig. Ik kan me prima voorstellen dat je het kan combineren met een soort occlusion culling, zodat alleen bepaalde dingen zoals glas worden ge-raytraced (en de rest gewoon met standaard GPU technieken)... de ellende daarmee is alleen weer dat je dan denk ik gelimiteerd wordt aan de 'standaard GPU' kant voor de dingen die nu met shaders worden opgelost.

Kortom, eerst wil ik wel een keer een serieuze demo zien. Ik ben benieuwd naar het vervolg van NVidia!
Het zal ook echt niet zijn dat alles word ge-ray-traced, dat zal zelf met die volta gpu's nog een brug te ver zijn, maar juist dingen als reflecties en kleur opnemen (schijn een wit licht op een oranje bal en je krijgt oranje gereflecteerd licht) zullen nu wel een stuk realistischer worden.
... schijn een wit licht op een oranje bal en je krijgt oranje gereflecteerd licht ...
Dat schets je simpeler dan het is. :)

Het ligt heel erg aan wat voor materiaal je het hier over hebt. Met ray-tracing heb je de weliswaar mogelijkheid om mooie scenes te kunnen renderen, maar in werkelijkheid wordt er nog steeds een hoop getruukt met o.a. ambient (maw: ze zenden zelf light uit). Juist diffuse materials (maw: dat doen ze niet) die in de meeste gevallen dof zijn of korrelig, geven levensechte effecten.

Het verschil is echt enorm. Op deze link wordt het goed uitgelegd. (Ik weet niet of hij nu broken is of niet, maar hoop het niet want lightsys is geweldig...)

Punt is alleen weer dat je voor dit soort materialen en light source karakteristieken de scenes enorm veel complexer maakt - wederom, omdat je je rays in meerdere sub-rays splitst.

@SG hieronder schetst het correct. Chromy stuff is relatief simpel.
Grote titles richten zich op consoles dus er moet flink door nV bij gamework studio partners gepushed worden om DXR toe te voegen in PC port. Zal eerst gimmick zijn. en er tech demo komen of games met sterke techdemo draai eraan.

Houd in dat in de Art concept en omgeving men sterke drang of sterke push voor chromy stuf.
Wat helemaal out of art style zijn.

Wat nV zou kunnen doen is Studio financieren die IP van BSG binnen harkt en Chrome FPS games Centurions knallen met rode laser guns.
Blijkbaar genoeg gamers die kikken op raytracing.
Waar is de presentatie dan? Dit is al 3 dagen geleden online verschenen.

EDIT: Voorbeeldje ingame raytracing met RTX: https://www.youtube.com/watch?v=jkhBlmKtEAk

[Reactie gewijzigd door nzweers op 19 maart 2018 18:27]

dan gaat het denk ik nog lang duren, als alleen volta en nieuwere gpu's ondersteund gaan worden.

voor games volledig gabasseerd op raytracing, hebben we 100x sterkere gpu's nodig, willen we op dezelfde visuals als waar we nu mee gamen. wel een goede ontwikkeling.
Met een beetje pathtracing, denoising en spatial temporal filtering komen we al heel ver.
Een beetje wat we deden met culling op de z-buffer voor het bepalen van welke polygonen al dan niet te renderen.
Maar dan met beeld zelf als input en komt nu uit als hardware stukje.
Deze techniek word al langer gebruikt bij ingesting van (oudere) video's bij profesionele bedrijven waarbij het verschil zit dat die video verder geen info over paths oid hebben
Ah dat wist ik niet. Werkt het voor games hetzelfde of worden er nog andere technieken gebruikt ?
Het werkt in games van vandaag de dag op zich hetzelfde, maar dat is dan wel een stuk versimpeld, bij de meeste games nu heb je wel al een vorm van raytracing, maar dan zijn die lichtstralen wel echt vuist dik (in het echt nog geen 100ste milimeter) en word er her en der 'vals gespeeld' (denk aan een camera in het level gooien die 360' fotos schieten, kan je vervolgens die fotos gebruiken om dingen heel 'goedkoop' reflecties te geven, je plakt gewoon die foto over de texture heen, ipv dat je per pixel gaat bekijken wat er gereflecteerd zou moeten worden)
Maar dat is dan dus geen raytracing :). De kenmerkende eigenschap van raytracing is het nalopen van de stralen door het uitrekenen van intersecties met oppervlaktes. Rasterization, daarentegen, gaat om het tekenen van primitieven op een raster. Beide technieken kun je gebruiken om dingen als reflecties te modelleren, al is sat bin raytracing natuurlijk gewoon natuurgetrouw en geen kunstje.

Je hebt wel gelijk dat er aan raytracing verwante technieken gebruikt worden, meestal in de vorm van ray marching. Denk aan volumetric lighting en fogging effects, waarbij er niet zozeer gezocht wordt naar een snijpunt met een oppervlakte maar waar er samples op verschillende punten in de "lucht" worden genomen om te kijken of die sample in de schaduw valt.
Met een beetje pathtracing, denoising en spatial temporal filtering komen we al heel ver.
Ben bang dat denoising flink wat artefacten gaat opleveren. Wat er niet is kun je alleen maar uit je duim zuigen.
Het hoeft ook niet volledig te zijn he. Het kan gewoon in combinatie wat we nu al hebben. Ray tracing is heel goed voor dingen die heel precies moeten kloppen, maar dat is lang niet altijd nodig.
Sterker nog, uit de demo van remedy maak ik op dat het een hybride techniek wordt waarbij er een deel getraced wordt en een deel gefaked.
Eigenlijk dus meer een evolutionaire stap dan revolutionair.
Ik lees 'tensor cores', en ik gok even dat die te maken hebben met machine learning berekeningen. Je ziet al veel voorbeelden van het verbeteren van afbeeldingen en video met behulp van deep neural networks. Is het dan een mogelijkheid dat de GPUs dit soort technieken op den duur in real-time kunnen gebruiken om betere beelden te genereren bij games/video? Dat is best een interessante gedachte.

[Reactie gewijzigd door Jeroen op 19 maart 2018 18:05]

Wat vind je van de gedachten dat met machine learning er bijna oneindig extra detail bijkomt naarmate je inzoomt?

Dat vind ik interessant :)

[Reactie gewijzigd door Mic2000 op 19 maart 2018 18:09]

Dat valt eerder onder procedureel. En dan een complexere algoritme waar je detail kwa LOD dieper maakt.
Ik herinner me hoe we op een Commedore 64 een glazen bol op een schaakbord lieten uitrekenen, duurde meer dan een dag en we waren sprakeloos.... Ik word oud.
Als ray tracing zoals in het filmpje gepost door @nzweers eruit ziet, dan staan we - naar mijn idee - aan de vooravond van een grote revolutie. Voor mij is het ongeveer hetzelfde moment dat ik van 2d spelletjes met sprites/tiles naar '3d'-spellen zoals Wolfenstein of Doom ging in 1992-1994. En hetzelfde moment dat ik voor het eerst een echte 3d-acceleratiekaart in mijn computer stopte (of Voodoo-graphics zag bij anderen) zo rond 1998/1999, dat was revolutionair. Daarna zijn de videokaarten wel beter en sneller geworden qua mogelijkheden, maar het basisprincipe is volgens mij altijd hetzelfde gebleven met polygonen tekenen op je scherm. Realtime raytracing zie ik ook als een begin/stap naar misschien wel de meest realistische manier om bewegende beelden op te wekken. Worden leuke jaren om te volgen hoe zich dit gaat ontwikkelen.
Niet dat ik eerder van RTX gehoord heb maar wordt dit hetzelfde liedje als met Tesselation?
Niet dat ik begrijp wat dat RTX inhoud. maar ik kan me nog zoiets herinneren met Tesselation op nvidia kaarten. games als crysis 2 zouden daar net even iets te overdreven gebruik van te hebben gemaakt omdat AMD's dat tesselation niet echt leuk vonden. als je de optie in graphics settings uitzette dan merkte je nauwelijks verschil maar de benchmarks worden gewoon onder max gedraaid (dus met tesselation aan)

Een truukje om nvidia's beter te laten lijken in de benchmarks zeg maar. Kan me herrinneren dat daar commotie over bestond. Moest ik aan denken zegmaar. waarschijnlijk sta ik echt uit mijn nek te kletsen maar dat gevoel kreeg ik toen ik het bericht las.
Dat klopt, hier is een video van toen er idd commotie was over dat belachelijk overdreven tessellation:
https://www.youtube.com/watch?v=IYL07c74Jr4
Precies. En eigenlijk vind ik dat jammer omdat AMD dan op de benchmark benadeeld wordt. terwijl het prima kaarten zijn. (ben geen fanboy hoor dus ik ga niet allemaal boze dingen roepen verder)

Heb een MSI R9 290 die op 1920-1080 alles prima aankan. en ik heb dat ding al 4 jaar. vind het ook jammer dat AMD geen concurrentie meer heeft in het segment waar de GTX 1080 etc zit. als dat nu eens een realiteit zou worden en de miners potten die dingen niet meer massaal op dan hebben we gewoon weer een mooie stabiele markt met schappelijke prijzen. (en is het weer de moeite waard om een nieuwe pc te maken)
Idd. Het ziet eruit alsof nVidia AMD voorgoed uit de weg wil hebben of zo. Mag dat wel? Voor Intel zal het wel nadelig zijn.

Hier een GTX780 en ook 4 jaar en dat is wel erg knap voor deze 2 beestjes. Draait nog goed. Ik heb wel willen upgraden maar dankzij dat idiote mining gekte moet ik het maar uitstellen en ben bang dat we het moeten blijven uitstellen want er komt maar geen verandering.
Vind het ook jammer dat AMD geen GPU heeft dat GTX1080(TI) kan verslaan en dan bedoel ik op gebied van DX11.

Ik ben trouwens bang dat nVidia en eventueel winkeliers zo gewend zijn aan hun exorbitant hoge prijzen dat ze de prijzen liever niet willen hebben in de staat toen het was v'ůůr de mining gekte populair was ;( Dus next-gen GPU's die niet goed zijn met minen, worden alsnog te duur.
95% van de gamers kopen kaarten van het type RX560/570/580 GTX 1050Ti/1060, dus waarom zou AMD hier speciaal kaarten voor moeten hebben?
(Ze gaan wel weer met de top mee doen met navi, maar het zou niet perse hoeven)
Nja, dat weet ik niet en ieder kiest voor zich. Maar zou het niet zo kunnen zijn dat als AMD bijvoorbeeld hun kaarten bepaalde features niet ondersteunt, dat anderen dan gaan afhaken? Voor mijzelf is tessellation onbelangrijk, staat toch uit in games zoals GTAV en heb ik nog 4 jaar oude GTX780.
Zou het niet kunnen dat mensen vandaag gedwongen worden om een RX580/GTX1060 te kopen omdat alles hoger exorbitant duur is. Zelf koop ik altijd een klasse hoger(Vega64/GTX1070 maar hallo, die prijzen zijn vandaag onbetaalbaar geworden dus je kan niet anders dan een klasse lager gaan tenzij je geruÔneerd wil worden. Net nog even gekeken bij Alternate. Mijn GTX1070Ti kost daar nu §749 terwijl ik hem in november vorig jaar voor §480 gekocht heb wat ik toen al veel vond. Die prijzen zijn niet normaal meer.
Houd in dat G-kaarten duur blijven ook zonder "crypto bubbel" als er geen concurrentie is. En gezien nV zich een A status wilt aanmeten gaat dat dus geld kosten voor de consument.

Die kans wordt dus steeds reŽler.
Game works werkt zo nV bereidt game voor release voor dat zij op dat moment top performance hebben. En aMD nog moet beginnen. Dus win bij early release reviews ALs AMD bij is maand of twee verder is doet het er niet toe de reviews laten lang grote achterstand zien van AMD.

nV heeft dus de early reviews al binnen als win. De massa volgt de soap niet zo dus dat blijft lang hangen.
Dat klopt en daar ben ik ook bang voor.
Maar AMD heeft toch ook zoiets als Gaming Evolved. Ik vind dat ze dat programma verder moeten uitwerken en ook meer functies instoppen(zoals bijv. TressFX voor haar maar dus ook nog andere functies) zoals Nvidia nu doet met RTX voor Gameworks. Dan gaan ze veel beter kunnen concurreren met Nvidia.
Idd ik heb net nog even de prijs van mijn MSI 1070Ti gaming bekeken op Alternate.be en die kost daar nu §749!!!! Ik heb ze in november vorig jaar gekocht tijdens Black Friday sales aan §480 en vond dat toen al veel. Vind iemand die prijzen eigenlijk nog normaal?
Ach ik kocht mijn 1080ti voor een 650 euro, deze nu verkocht kan worden voor een 850 euro.
Is pas half jaar oud.
Dus als de nieuwe komt, kan ik die vast en zeker voor een 250 euro meer kopen, komt goed.

Nee maar even serieus, het is echt te belachelijk voor woorden deze prijzen. 1 grafische kaart daar koop je 3 playstations voor.
Of zegt dit dan meer over de consoles.
Ik vind eigenlijk wel dat het iets toevoegt. Althans, wat ik in deze video zie is wel een heel stuk beter dan de normale blokkendozenconstructies die je meestal in games zag.

Het lijkt inderdaad wel alsof er erg hard getesselate wordt, maar het heeft wel effect.
Dat wel idd. Echter voegt tessellation weinig toe in donkere scenes zoals je in de video ziet maar dat is slechts mijn mening. Waar tessellation echt goed van pas komt zijn: voertuigen. Eventueel ook voor foliage, bomen, heggen en kleding.

Maar ik deel wel je mening dat het alsof er erg hard getesselate wordt. Nee, niet alsof, het is.
Echter voegt tessellation weinig toe in donkere scenes zoals je in de video ziet maar dat is slechts mijn mening.
Donker zal ook wel uitmaken, maar dit was dan een lage kwaliteit filmpje met donkere scene waar sowiso al een zooi detail door de codec wordt weggegumd. Zo'n youtube filmpje is dus eigenlijk het minst ideale voorbeeld van wat die techniek kan brengen.
Zeer opvallende complexe objecten en dan vooral ook van ver opvallend complex.
Een boom waar de kruin en leaves interact met de wind.

Zou die Predator jungle trailer van crysis 1 van toen eigenlijk eens in game willen meemaken.
Ik weet niet waar RTX precies voor staat, maar ray tracing op zich houd in dat je echt lichtstralen en hun weerkaatsingen van objecten volledig doorrekent zodat je hele precieze reflecties, schaduwen, e.d. krijgt.

Ja, nvidia zat toen inderdaad heel erg te hameren op tesselation omdat ze veel van die units hadden en dus meer tesselation konden toepassen dan AMD. Het is niet dat AMD tesselation niet leuk vond, die hadden dat ook al jaren. Maar AMD had een realistischer houding naar hoeveel tesselation nou eigenlijk nuttig is. Je zag dan ook wel af aan die nvidia games dat ze gewoon te veel tesselation gebruikten. En ik geloof dat de tesselation van AMD eerst niet door DirectX ondersteund werd (het zat op zich al wel in de kaarten).

Natuurlijk grote kans dat nvidia dit ook weer vet gaat marketen, het ligt maar net aan de game developers hoe realistisch ze zijn in de bruikbaarheid en nut (en waarschijnlijk aan hoe stevig nvidia invloed op ze heeft om het expres te gebruiken).
RTX = Real Time Raytracing... en ik neem aan dat je al wel langer gehoord hebt van raytracing, wat tot nu toe eigenlijk amper tot niet mogelijk was om dat (fatsoenlijk) in realtime te doen.
Ik verwacht dan wel een volta consumer kaart aankondiging in de komende week..
of de opvolger daarvan natuurlijk :P

[Reactie gewijzigd door jwal op 19 maart 2018 18:24]

ik ben benieuwd wat AMD brengt gok op midrange performance klasse ding.
Maar vind de stilte zorgwekkend.
https://youtu.be/70W2aFr5-Xk Video van remedy die deze tech gebruikt.

Op dit item kan niet meer gereageerd worden.


Call of Duty: Black Ops 4 HTC U12+ dual sim LG W7 Google Pixel 3 XL OnePlus 6 Battlefield V Samsung Galaxy S9 Dual Sim Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V. © 1998 - 2018 Hosting door True

*