Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Nieuwe ontwikkelaarsversie van Unreal Engine bevat ondersteuning voor raytracing

Epic Games heeft de Preview 1-versie van Unreal Engine 4.22 beschikbaar gesteld voor ontwikkelaars. Deze versie, die voorafgaand aan de release van de definitieve versie wordt uitgebracht, bevat ondersteuning voor realtime-raytracing.

Epic laat bij monde van medewerker Victor Lerp weten dat de previewversie ondersteuning heeft voor een 'early access'-versie van realtime-raytracing en pathtracing. De toevoeging van raytracing vormt het belangrijkste onderdeel van de renderingupdates van de nieuwe Unreal Engine-versie.

De implementatie van raytracing wordt gevormd door twee componenten: een 'laag niveau' van realtime-raytracing in de vorm van een laag die boven op de DirectX 12-implementatie in de engine komt, waarmee raytracingshaders en raytracingeffecten kunnen worden gebruikt of toegevoegd. In de beschrijving van de update staat daarnaast dat ook een 'hoog niveau' van raytracing is toegevoegd, waardoor onder meer zachte schaduwen, reflecties en real time global illumination mogelijk zijn.

Met deze ondersteuning voor raytracing speelt Epic in op de mogelijkheden die Nvidia biedt met de RTX-videokaarten. Deze kaarten kenmerken zich door speciale RT-cores voor raytracing. Nvidia heeft verschillende video's uitgebracht waarin de capaciteiten van raytracing worden getoond in scènes die draaien op de Unreal Engine 4. Er zijn dus versies van de engine die al over ondersteuning voor raytracing beschikken, maar nu komt dat ook beschikbaar voor een veel bredere groep ontwikkelaars.

Deze ondersteuning van raytracing is niet exclusief voor de Unreal Engine. Ontwikkelaar Dice maakt het met een recente versie van zijn Frostbite-engine mogelijk om Battlefield 5 inclusief raytracing te spelen. Nvidia toonde in augustus vorig jaar zijn raytracingtechnologie in de game Shadow of the Tomb Raider, maar een update die ondersteuning hiervoor voor spelers introduceert, laat nog op zich wachten.

Door Joris Jansen

Nieuwsredacteur

13-02-2019 • 15:12

73 Linkedin Google+

Reacties (73)

Wijzig sortering
Wat is de adoption rate van RTX? belachelijk laag als je naar enkel RTX2070/2080 kijkt...

Wat zegt dat over de adoption rate van RayTracing op die techniek gebaseerd? niet hoger dan het eerdere percentage... zeker wanneer mensen zo'n berg FPS en resolutie in moeten leveren voor iets wat qua verschil realtime niet goed te zien is.
Het is niet specifiek op rtx gebaseerd. Rtx van Nvidia is in zichzelf weer gebaseerd op de Ray tracking API van dx12.
Nvidia heeft er alleen dedicated cores voor in him gpu's gestopt en een mooi naampje gegeven.
Er staat AMD technisch niets in de weg ook dedicated dx12 Ray tracing cores in hun gpu's te stoppen.
"Wat is de adoption rate van RTX? belachelijk laag als je naar enkel RTX2070/2080 kijkt...

Wat zegt dat over de adoption rate van RayTracing op die techniek gebaseerd?"


Wat dat zegt, is dat nVidia de RTX 2080 slecht getimed heeft, marketing-wise. Ze hadden die kaart (-serie) uit moeten brengen tegelijkertijd met een goed spel (met bijv. de nieuwe Unreal Engine, dus), dat ook daadwerkelijk van de raytracing gebruikt maakt. In plaats daarvan hebben ze nu snel de RTX 2060 op de markt gegooid (zonder raytracing, dus), eigenlijk toegevende dat de timing van de RTX 2080 niet helemaal in orde was.
Techniek loopt altijd wat voor op spellen. Toen DX11 uitgebracht werd waren er ook niet meteen veel goede games die daar gebruik van maakten, zelfde met DX12 of met tesselation.

Klagen dat er nog niet veel spellen zijn met raytracing is super naïef. Maar het is op dit moment hip om over nvidia te zeuren en tech nerds zijn in dat opzicht vaak schapen.
Fair enough, maar ik durf het net-zo naief te noemen om de RayTracing-techniek in engines te implementeren voordat de juiste resources daarvoor beschikbaar zijn (momenteel enkel RTX-kaarten die gewoon nog te weinig gebruikt worden voor dit doel).

Buiten de RTX2070/RTX2080 productcategorie is er momenteel gewoon geen gpu die de techniek in bruikbare mate zal kunnen toepassen en dat maakt het tot niet minder dan een reëel vermoeden dat het meer zin lijkt te hebben als een breder segment GPU's de techniek kan toepassen op een performant niveau of als het een beperkte serie producten is de adoption rate daarvan alsnog hoog is; dat is niet zo.

Op dit moment is het aannemelijk dat het aantal Multi-GPU gebruikers zelfs groter is dan het aantal mensen dat RTX kan toepassen; en dat wordt ook al niet (meer) ondersteund in noemenswaardige mate.
Maar ipv gamers honderden euro's meer te laten betalen voor RT op de ''gewone'' enthousiast lijn van Nvidia hadden ze ook RT alleen kunnen uitbrengen voor de Titan of voor de 2080TI.

Nu hebben alle high(er) end kaarten RT cores waar de gamer de prijs voor betaald en waar bijna geen games voor uitzijn. Zoals ik tot nu toe begrepen heb zijn dus alleen Battlefield 5 en Quake 2 speelbaar op met RT.
Klagen dat er nog niet veel spellen zijn met raytracing is super naïef
Minder naïef wanneer je een nieuwe kaart aan 't overwegen was en er plots veel meer voor moet betalen omdat er nieuwe, niet-gebruikte chips / technieken in zitten.
De 2060 heeft gewoon raytracing.

Daar ko t bij dat een release met BattlefieldV de bedoeling was maar de game vertraags werd. Daar kan nvidia niks aan dien.
misschien ook veroorzaakt door de prijs en het snelheidswinst van 1070 vs 2070 en 1080 vs 2080 zonder RTX
Ik weet niet of dit recentelijk nieuws was.Ik had op www.ut99.org ook al gepost dat de unreal engine daar al rekening mee gehouden had.Dit is een post van enkele weken geleden.
Het betrefd deze post:

https://ut99.org/viewtopic.php?f=12&t=13157
Ik ben rjmno1

[Reactie gewijzigd door rjmno1 op 13 februari 2019 19:17]

Wat is de adoption rate van RTX? belachelijk laag als je naar enkel RTX2070/2080 kijkt...

Wat zegt dat over de adoption rate van RayTracing op die techniek gebaseerd? niet hoger dan het eerdere percentage... zeker wanneer mensen zo'n berg FPS en resolutie in moeten leveren voor iets wat qua verschil realtime niet goed te zien is.
Bij iedere technologische vooruitgang zijn er weer mensen die zeggen dat het niet nodig was. Doet me denken aan m’n zusje die bleef zeggen dat ze geen mobiele telefoon nodig had omdat ze ook de huistelefoon kon gebruiken.

Uiteraard gaat deze technologie nog doorontwikkeld worden, dit soort dingen gaan in stappen. Dat je het in de praktijk niet kan zien, tja dat zei men ook van het eerste model iPhone met ‘retina’ display. Inmiddels zitten zo’n beetje alle telefoons op hogere ppi.
Als de technologie niet doorontwikkeld zou worden had het per-definitie nutteloos geweest... dat maakt het alsnog geen argument om het nu vast te doen.

Het achterblijven aan adoptie van diezelfde RTX2080/RTX2070 suggereert m.i. vrij duidelijk dat gezien hoe experimenteel de technologie is, mensen er niet genoeg in geinteresseerd zijn om puur daarvoor de marge te betalen; genoeg maten die hun 9xx hebben in mogen ruilen voor een 1080 of 1080ti afgelopen tijd gezien dat voor 1080p genoeg is; ironisch genoeg de resolutie die hoogst bruikbaar is voor RTX. Ik kan in ieder geval onmogelijk aannemen dat het gros van de mensen de kaarten voor RTX heeft gekocht ipv dat het de nieuwste/snelste serie is.

Het maakt het tot een eigenlijk belachelijk dure techniek om nu al mee te kunnen experimenteren.
Ik vraag mij af of een physx-kaart achtige oplossing meer tractie had kunnen krijgen voor een early-adoption (weet ook niet of dat mogelijk had geweest; maar wil het ook niet uitsluiten); het laat in dat geval de keuze een stuk flexibeler voor de mensen die er wel mee aan de slag wíllen; je hebt het nu dan over genoeg investering dat een kleinere ontwikkelaar daar zeker niet snel (mede wederom vanwege adoptionrate) in kan investeren op dit moment; zelfs al gebruikt hij de Unreal-Engine; testen kan toch niet zonder RTX 2070 of 2080 en je wil eigenlijk niet testen op maar een enkele GPU in huis...

In het totaalbeeld levert de huidige situatie (imho) gewoon te veel haken en ogen om als developer het risico nu al te moeten willen nemen; wie weet vinden we een andere benadering dan via de huidige DX12 implementatie die veel beter aanslaat, mogelijk wel omdat die bijvoorbeeld veel beter schaalbaar is via dochterkaarten.

Pur sec gaat het nu gewoon om een 1200 euro investering in plaats van bijvoorbeeld 300-500 die een dochterkaart misschien wel had kunnen kosten; een veelvoud voor experimentele techniek. 8)7

[Reactie gewijzigd door Annihlator op 14 februari 2019 13:06]

De eerste schapen zijn over de dam. Genoeg voor de definitieve doorbraak?
Het is leuk dat het in de engines gebruikt kan worden, maar voordat het echt doorbreekt moet de hardware nog wat verder komen. Bij BFV heb ik benchmarks gezien waarbij de framerate door de helft ging, maar je er niet per se noemenswaardige veranderingen voor terug kreeg. Nvidia zal dus echt meer RTX cores op een kaart moeten plaatsen op kaarten, en moet het echt wijdverspreid gaan worden dan zullen die kaarten ook betaalbaar moeten zijn. Daarnaast zal AMD het ook moeten gaan ondersteunen.
Bij launch wel. Later is er een update gekomen die dat aanzienlijk verbeterde. Maar ben het met je eens dat we nog wel een generatie of 2 geduld moeten hebben qua rt power.
Genoeg voor de aanschaf van een nieuwe video-kaart.
Het komt er gewoon aan dat weet je de seconde dat je een side by side voorbeeld ziet.
Nu nog betaalbaar voor Jan met de pet.
Ik hoop het wel. Er zijn nog maar vrij weinig titels die er gebruik van maken en ik verwacht niet dat de wat oudere titels van de afgelopen 2 tot 3 jaar nog een RTX update krijgen . . .
Alsof de Unreal Engine nog niet is doorgebroken.

Maar Epic is eerder bezig de volledige PC-gamer community tegen zich te krijgen als ze met nog zo'n in- en intrieste exclusive naar die abominabele store van ze komen. Dan zal er een punt komen dat naast een boycot voor de store, een boycot voor alles waar Epic aan verbonden is volgt.
Mwua, de store is misschien niet overal even handig, maar dat is steam ook niet. Verder vind ik het opzich wel goed dat er nu eindelijk een online game/app store is die eens minder rekent dan de standaard 30%. Verder zijn de games die ze elke 2 week weggeven tot nu toe ook wel prima geweest. Het enige wat tot nu toe jammer is, naar mijn mening, is dat ze ook bezig zijn om bepaalde titels binnen te halen als store exclusives.
Vooral jammer dat ze dat ook doen met titels die al elders te koop zijn.
Laat ik het duidelijker verwoorden; compleet not-done.
Het hangt er wat mij betreft in dit soort gevallen erg vanaf wie de beslissing heeft genomen, waarom en hoe dat word afgehandeld.

Als epic een dikke zak geld schuift naar een uitgever omdat ze het als exclusive willen, dan vind ik dat niet per se een goede zaak, hoewel je dat ook gewoon onder marktwerking kan gooien. Maar als een uitgever uit zichzelf beslist om naar Epic te gaan vanwege het 18% (!) verschil in kosten dan snap ik dat helemaal en dan snap ik ook wel dat je niet in andere stores wilt staan omdat dat relatief gezien te veel geld kost.

Ik had laatst een bericht gelezen waarin Metro Exodus van store is geswitched, maar dat alle mensen die het op steam hadden gekocht het daar ook konden houden, downloaden en spelen.
Eigenlijk maakt het niet veel uit;

Als Epic erop heeft aangedrongen is het misschien makkelijker te begrijpen omdat zij zichzelf in een competerende situatie aan Steam zal zien, maar dat maakt het alsnog niet chiquer als dat Deep Silver daar zelf op had aangedrongen; de laatste zal toch oorspronkelijk een overeenkomst met steam zijn aangegaan en had dat of nog niet willen doen, of die overeenkomst ook door laten lopen.

Op het moment dat de game nog niet te koop had geweest dat de beslissing (feitelijk) aangepast werd, had het een stuk minder uitgemaakt. Ook "wie" de beslissing had gemaakt.

Ik denk dat de meest neutrale verwoording lijkt te zijn dat de keuze om via steam uit te geven misschien wat voorbarig is gebleken; maar dat vind ik alleen maar een zwak excuus als niet de hand in de borst gestoken kan worden wat resulteert in het verspreiden via twee uitgevers...

Als bijvoorbeeld Epic de game voor 35 euro zou aanbieden tegenover 50 op steam zou ik nog serieus hebben overwogen de game via Epic aan te schaffen, ondanks de extra functionaliteit die Steam (ook al voor een langere tijd dan Epic) biedt. Maar gezien de volgorde waarin het gebeurd is zou ik daar niet eens over nadenken; al willen ze maar een tientje zal ik de game zelf niet kopen alvoor die beschikbaar is via Steam zelf. Steam heeft haar strepen bij mij nou eenmaal allang verdient en ondanks dat Epic bij mij persoonlijk een goede naam heeft qua games heeft haar store-platform haarzelf nou eenmaal nog wel tegenover mij te bewijzen; als je dan niet-chique business practices hanteert sta je in mijn ogen dan altijd al een punt in de min; zeker gezien hoe weinig er openlijk gecommuniceerd is over het hele gebeuren en dat steam een tegenovergesteld standpunt heeft met het oog op exclusiviteit, dat speelt er al helemaal in mee.

Als er nou vanaf het moment zelf een persbericht was dat ook maar vrij generaal had uitgelegd waarom; prima. Maar zelfs daarover is geen totale duidelijkheid.
Als een partij zo makkelijk overeenkomsten breek als-met Steam; wat voor reden heb ik dan om te vermoeden dat ze mij als kleine klant beter behandelen? Geen.

[Reactie gewijzigd door Annihlator op 13 februari 2019 19:38]

Het heeft ook te maken met een beetje concurrentie, de epic store versus steam store.
De mensen gaan toch nog altijd waar het goedkoopste is.Misschien komen ze bijde in een prijs oorlog terecht en wij als consument profiteren daarvan.Wat ook nog speelt bij steam is een stukje exclusief-tijd en soms ook net zoals epic store een stukje alleen recht (denk aan de hoeveelheid spellen wat op de unreal engine draaien).samen hoeven ze niet door een deur te gaan, want spel x is goedkoper bij steam of bij epic, en daar gaat het allemaal om.
Mwua, de store is misschien niet overal even handig, maar dat is steam ook niet. Verder vind ik het opzich wel goed dat er nu eindelijk een online game/app store is die eens minder rekent dan de standaard 30%. Verder zijn de games die ze elke 2 week weggeven tot nu toe ook wel prima geweest. Het enige wat tot nu toe jammer is, naar mijn mening, is dat ze ook bezig zijn om bepaalde titels binnen te halen als store exclusives.
Ow wat is er onhandig aan Steam dan, hij werkt juist heel goed, als ik bij iemand anders mij games wil installeren en spellen en inlog op Steam programma is dat klaar met alleen inloggen en de spel installeren, en je spel mee nemen op een harde schijf of USB stick werkt ook gewoon goed.

Hoor eerlijk gezegd niemand van me familie klagen over Steam.
Er zijn verschillende zaken aan verschillende kanten. Van techniek tot support.

Load balancing is niet goed opgezet. Hoe vaak ik wel niet hogere downloadsnelheid heb gehaald door van regio te switchen... In plaats van een goede handoff te doen, moet je zelf maar een nieuwe regio kiezen en de client restarten.

Preloaden was vroeger, heb al tijden niet meer gepreload (als je verbinding snel genoeg was) niet per se voordeliger, omdat alles versleuteld op je PC stond. Dit had niet per se gehoeven maar het gevolg was wel dat je alles moest ontsleutelen wat best lang kan duren.

De UI is niet echt met z'n tijd mee gegaan. De store view is gewoon een browservenster, inclusief laadtijden. Er word niet mega veel gecached waardoor het trager kan zijn dan een tab in chrome of firefox.

Customer support is ongeveer non-existent. Geen probleem als je geen probleem hebt, maar als je wel een probleem hebt wat uniek is of aan van jou account afhankelijk (licentie problemen om maar wat te noemen) dan kun je erg lang wachten op antwoord.

Bij crashes/opstartproblemen van games krijg je lang niet altijd genoeg data terug om het op te kunnen lossen. Hoewel dit voor een deel ook bij de developer ligt, zou het wel netjes zijn als er via steam ook een errormessage beschikbaar is.

Dan hebben we het nog niet over de brakke Nederlandse vertalingen die er vaak in hebben gezeten waardoor hij nu standaard in het Engels staat.

Misschien niet allemaal veel gebruikte features, maar zeker wel dingen waar het beter op kan. Plus dan nog dat ik liever wat meer geld aan de developers gun dan aan Valve of Epic.
Geen een van wat je net zij heb ik last van gehad, niet de laatste jaren.

De UI vind ik juist goed werken, en is heel simpel, vooral Big Picture mode, kinderen in mijn familie hebben geen enkel probleem daar mee, en de taal heb ik ook nooit problemen mee gehad, en wat heeft geld aan de developers te maken met Steam, de developers game bedrijven zelf zetten het toch op Steam, Steam verplicht hun niet om hun diensten te gebruiken.
De UI vind ik juist goed werken, en is heel simpel, vooral Big Picture mode
Ik zeg nergens dat de UI niet goed werkt, ik zeg alleen dat deze niet modern oogt en qua technologie niet echt op en top is.
de taal heb ik ook nooit problemen mee gehad
Taal vind jij geen probleem, ik persoonlijk ook niet, maar ik heb toch zeker een paar jaar tegen uitgang aangekeken ipv afsluiten.
en wat heeft geld aan de developers te maken met Steam, de developers game bedrijven zelf zetten het toch op Steam, Steam verplicht hun niet om hun diensten te gebruiken.
Geld aan developers heeft alles te maken met steam. Steam is een winkel en het heeft besloten 30% voor zichzelf te houden. Epic gaat nu de concurrentie aan, oa op het geld. Developers hebben daardoor juist keuze.
Denk je dat nu werkelijk? Een hoop spellen worden inmiddels met de UnrealEngine gemaakt en mensen gaan die echt niet links laten liggen om zo'n onbenullig iets als een aparte store met enkele exclusives (net zoals Steam ook nog steeds games heeft die nergens anders te krijgen zijn).
Ik denk dat de meeste gameontwikkelaars het wel willen opnemen maar zolang het nog te veel ten koste van je framerate gaat zullen ze het nog niet zo snel implementeren. Want zeg nou zelf, je gaat geen kaart van 1500 euro kopen om vervolgens een AAA game te spelen op 20-30 fps.
Ik denk dat je vanaf nu nog 2 GPU generaties verder bent voordat het echt mainstream word.
Als de PS5 en Xbox 2 het ondersteunt sure, anders kun je lang wachten.
gaaf ik kan niet wachten als raytracing 4k gaat halen.
inderdaad, daar kan je ook niet op wachten, tegen de tijd dat raytracing zonder trucjes op native 4K kan draaien is er niemand meer levend die RTX kan herinneren :P
Ik denk dat je de vooruitgang wat odnerschat: 10 jaar terug was dit een goede grafische kaart.

Als je dus even kijkt naar hoe veel sneller games nu draaien (hogere resolutie EN hogere framerate), dan kan ik niet anders dan concluderen dat we over 10 jaar zeker wel raytracing games op 4k hebben.
Zonder trucjes? Nee. Realtime raytracing is niet eens mogelijk met de gigantische supercomputers die wij nu hebben, en de rekenkracht van deze machines zijn wellicht pas over een paar decennia te behalen voor consumenten computers. Daarbij lopen we straks tegen het probleem aan dat alles onder de 5 nanometer last heeft van 'quantum tunneling', waardoor het verkleinen van een transistor een lastig karwei gaat worden.
Dit is niet helemaal relevant. Super comuters en andere manieren om te raytracen gebruiken momenteel GPU's die gemaakt zijn voor rasterization; niet voor raytracing. Wat NVidia hier dus doet is een grote vooruitgang, ze maken namelijk nu hardware specifiek voor raytracing. Deze kaarten zijn qua raytracing performance net zo goed als een CPU farm die voorheen voor dit soort doeleinden werd gebruikt.
Bekijk deze video voor meer toelichting: https://youtu.be/BRCAfdBMe2Y?t=115
Je heb nu al real-time ray-tracing hoor, games zijn natuurlijk altijd real-time. :+ Maar het zijn inderdaad nog maar bepaalde effecten. Wat jij bedoelt is dat de gehele game met ray-tracing wordt berekend en dat kan inderdaad nog wel even gaan duren.
Gezien de rekenkracht die daarvoor nodig is verwacht ik dat we een technologische doorbraak nodig hebben die voorbij de huidige produktiemethoden gaat. Dus alles op een moleculair niveau met hele nieuwe materialen en snelheden.
Windows zelf is niet eens realtime maar een 'best effort' OS, dus een game al helemaal niet xD

Het is maar net welke definitie je aan 'Realtime' geeft. Input lag e.d. is nog altijd een ding :-)
Realtime heeft een vrij duidelijke definitie. Dat een taak een voorspelbare eindtijd heeft.
Heeft niets te maken met dat iets 'nu' gebeurt, maar dat het mappen is aan echte tijd doordat een realtime scheduler niet zelf met de prioriteiten van slices gaat lopen goochelen.
Ik heb het idee dat er nog heel wat zaken hier door elkaar gehaald worden. Raytracing bestaat al veel langer, het probleem is echter dat het nauwkeurig bereken van de “rays’ erg veel rekenkracht kost. De huidige manier van raytracing in games zijn wel real time maar er worden wel concessies gedaan. Het aantal Rays (stralen) wat men gebruikt is veel minder en men gebruikt bij games als BF5 ook nog eens boundry boxes om ervoor te zorgen dat de Rays niet overal op weerkaatsen, maar alleen de belangrijke elementen en niet eindeloos door gaan.

Raytracing zien we binnen nu en paar jaar in alle games verschijnen. De kaarten zullen snel genoeg zijn om van deze techniek te gebruiken, enkel ligt het aan de engines hoe ze met de huidige beperkingen omgaan. De oplossingen die men bij BF5 gebruikt zijn goed genoeg voor een realistischere weergave, maar heeft ook zo zijn beperkingen. Het is echter aan de engines en ontwikkelaars om te kijken hoeveel Rays men kan gebruiken om het realistisch te laten ogen zonder te veel prestatiewinst te moeten inleveren.

Bovenstaande geldt trouwens voor alle technieken, of dit nu met texturen, materiaal, reflecties, aantal polygonen of wat dan ook te maken heeft. Men heeft nu eenmaal beperkingen en al jaren lang zoeken ontwikkelaars hier oplossingen voor.
Is dat zo? 60k$ voor een DGX station en dan 24fps halen. Ik denk dat we het nog wel gaan zien al is het maar omdat rasterization ook zo zijn beperkingen heeft en er meer en meer r&d naar raytracing zal gaan.
Ben ik het niet mee eens, real-time raytracing is een kwestie van meer ray-tracing cores, meer tensor cores voor denoising, en je bent een heel eind. Super computers afhankelijk van hoe deze zijn ingericht voor beeld verwerking kunnen vast en zeker wel realtime raytracing aan.
Super computers afhankelijk van hoe deze zijn ingericht voor beeld verwerking kunnen vast en zeker wel realtime raytracing aan.
Nee, dat kunnen ze niet. Ik zeg niets over hoe lang het gaat duren, heb ik de expertise niet voor, maar we zijn veeeeeeeeeeeer weg.

Quote:

>Pixar has a huge "render farm," which is basically a supercomputer composed of 2000 machines, and 24,000 cores.

Doe een gokje hoe lang Pixar bezig is met een frame (waar wij er graag 60+ van in een seconde zien) renderen. Nou zijn renderers zeker aan het veranderen. GPU renderen vliegt vooruit, maar toch.

Raytracen zoals in huidige games is "waar is dit ding, vergeleken met dit ding". Werkt prachtig voor spiegels waar de informatie om het "ding" wat we vinden weer te geven toch al in het spel zit. Gewoon plaatje omdraaien klaar (iets moeilijker, maar je begrijpt). RTX sampled niets. Leuk dat NVIDIA gamers zover gekregen heeft dat ze denken dat BFV """"raytracen"""" en raytraced renders hetzelfde zijn, maar nee. Zijn alleen maar rays. Daar zit het gewicht van raytracen helemaal niet, en zelfs DAT kost je 20+FPS. Shaders/textures met 100% raytracing? op 60+ FPS? OP 4k!? Mijn piemel krimpt als ik denk aan de rekenkracht.

Dan moet je niet vergeten dat game designers vaak ontiegelijk goed zijn in doen alsof, en over 10 jaar zijn ze NOG beter. Ik denk dat veel spelen die nu gespeeld worden zo adembenemend mooi zijn, en zo knap in elkaar gezet, dat ik serieus twijfel of 100% raytraced shaders/60FPS/4k er zoveel aan toe zou voegen.

Raytracen is geen "zo, nu is alles levensecht" knop. Maar zelfs als we over 15 jaar alles ge-raytraced hebben, zie ik het op zijn meest als een bonusje. Na 10 min spelen is het allemaal weer normaal, en wat overblijft is design, kunst, verhaal, gameplay, en geluid.
man man, wat kan jij mooi praten ;)
Raytracen zoals in huidige games is "waar is dit ding, vergeleken met dit ding". Werkt prachtig voor spiegels waar de informatie om het "ding" wat we vinden weer te geven toch al in het spel zit. Gewoon plaatje omdraaien klaar (iets moeilijker, maar je begrijpt)
Nee ik begrijp nie ;). Maar dat maakt niet uit, ik heb zelf Gamedesign and Development gestudeerd op HBO niveau, ik weet waar ik over praat.

Ja je hebt gelijk, met grote renderfarms en de hoge kwaliteit instellingen die ze bij Pixar of Dreamwork films willen... duurt het idd lang. Het blijft uiteindelijk afhankelijk van de hardware en hoe de software hier mee omgaat. Gamedevelopers faken altijd grafisch prul, met het minimale het maximale proberen neer te zetten.

Mijn punt was dat met cuda-cores je veel meer performance hebt dan met een CPU, zie filmpje:

https://www.youtube.com/watch?v=Zjh4oBZi00g

Ik ben van mening, afhankelijk van wat je render instellingen zijn, afhankelijk van hoe de software is geschreven voor cuda-cores ipv cpu's, er enorme performance boost behaald kan worden. Omdat het vooral gaat om massa parallel berekeningen. Ik geloof als je het aantal cuda-cores flink kan opschroeven je wel degelijk real-time raytracing kan hebben.

En battlefield V is natuurlijk ook een aanfluiting, aan het einde van de developer's cycle even snel een feature toevoegen om Nvidia tevreden te houden en mogelijk nog wat meer klanten te lokken. Het is alleen maar reflecties toevoegen, nee daar ga je niemand blij mee maken.

Een ander interessante video is waar GPU rendering nu in staat toe is:
https://www.youtube.com/watch?v=pwMluHRGVNM

Conclusie: in de nabije toekomst kunnen GPU's ingezet worden ipv CPU's voor rendering incl raytracing. En met genoeg raytracing cores (of cuda cores) zou dat uiteindelijk realtime moeten lukken.

[Reactie gewijzigd door Mic2000 op 13 februari 2019 18:32]

In 2006 dacht ik idd ook dat het nog een lange tijd duurde voordat het realtime kon, echter nu denk ik dat het zeker mogelijk is omdat cuda-cores or ray-tracing cores dit mogelijk maakt. Nvidia gaat dit natuurlijk financieel uitbuiten en de volwassenheid van RTX uitsmeren over de komende 10 jaar.

Ik kan nu weer tegen je in gaan over 'kan hebben', maar heb daar geen zin in, als je wil winnen in dit gesprek, be my guest :). Jij ziet het jouw manier, ik zie het mijn manier.

Groeten
Waar jij op doelt is als ze processors kleiner maken en uiteindelijk de architectuur qua nanometer te klein is en dit fouten gaat opleveren?

Ik zie geen probleem in gewoon meer tensor cores op een groter oppervlakte van de printplaat plaatsen... Niet alles hoeft kleiner. Daarnaast kunnen ook geheugen lagen gestapeld worden, dus waarom zou dat niet bij cpu / shaders kunnen in de toekomst.

Al met al denk ik dat er vast wel een oplossing komt.
De snelheid van computers zijn juist gelimititeerd door de snelheid van het licht (en electronen uiteraard). Hoe kleiner (en dus ook de transistoren), hoe sneller. Door meer cores toe te voegen creëer je meer snelheid, maar op ten duur zal dit er alleen maar voor zorgen dat de algemene performance afneemt.

Zie:
https://education.jlab.org/qa/electron_01.html
https://www.scientificame...omputers-are-becoming-fa/

[Reactie gewijzigd door Medabi3 op 13 februari 2019 16:32]

Hier ga je vanuit dat de ontwerp van de chip niet veranderd, wat natuurlijk onzin is. Sterker nog, de algoritmes veranderen ook mee met de architectuur... dus de limitatie is alleen waar een geest het toelaat.
In dit geval maakt het niet zoveel uit, omdat raytracing echt verschrikkelijk parallel is. Dus dit kun je ook makkelijk uitsmeren over meerdere dies of GPU add-in kaarten. Of zelfs meerdere systemen.
AI zal dat process dan nog wel eens goed versnellen. Het is zoals Elon Musk zegt als we kijken wat we voor verwachtingen we hadden over hoe lang het zou duren voor een AI het spel Go zou winnen. Nou dat hebben ze dus gigantisch onderschat.
Een groot voordeel van raytracing is, is dat wanneer je de resolutie vergroot je hoeveelheid calculaties linear omhoog loopt, dit betekent dat het niet heel veel meer computing power vereist op het moment dat je van 1080P naar 4K gaat.
Dat zal wel mee vallen hoor, als dit net als physics een ding word dat game makers gebruiken om zich te onderscheiden van de rest dan is het een kwestie van een paar jaar en 4k ray tracing is een ding.
Op dit moment is het nog lang niet zo ver maar nu het duveltje eenmaal uit het doosje is lijkt het slechts een kwestie van tijd voor het gewoon word voor alle games met een moderne 3D engine.

Ik hoop heel erg dat AMD met een vergelijkbare techniek gaat komen zodat het voor alle engines nuttig wordt om dit mogelijk te maken. Het lijkt me dat zij vast wel een team hebben dat hier mee bezig is zeker nu steeds meer engines ondersteuning bieden hiervoor kon het wel eens een belangrijke reden worden voor mensen om te kiezen voor nVidia in plaats van AMD en dat zullen ze vast willen voorkomen.
Het gaat om de complexiteit van de scene. Je kunt vast nu al Wolfenstein 3D met wat raytracing in 4K halen. Maar is dat wat je wilt? :+
Oh wat zou ik graag een remaster van de eerste Unreal willen zien! Wat een magisch spel is dat, ik speel het nog steeds elk jaar minimaal 1 keertje helemaal uit. Het blijft betoverend. Wat een magie is het toch als je uit het wrak stapt, die waterval ziet, de horizon schitterd op je scherm en de muziek begint te spelen.

Gewoon precies dat met de nieuwste graphics. Ik zit nu steeds kwijlend te kijken naar 2 modders waarvan 1 het in UE2 en een ander team het in UE4 maakt. Maar een mooie tech demo zou het toch zijn van Epic Games zelf voor een nieuwe engine ofzo om het echt aan te pakken.
U heeft gelijk :) blijft inderdaad magisch en geweldig. Ze hebben met Unreal echt de spijker op z'n kop getikt, zeker in die tijd. De hele intro (Castle flight) is al om te kwijlen, met super goede muziek. intens sfeervol.
Ik zie dat ik niet de enige ben die het hele raytracing gedoe een behoorlijk hoog 'meh' gehalte vindt hebben.
Van wat ik in de suffe demo's zag kunnen de 'verbeterde' graphics makkelijk gesimuleerd worden door een pretend-raytracing algoritme, zonder een belachelijk hoge investering in nieuwe hardware. En dan laat ik maar achterwege dat ik eigenlijk niet zit te wachten op 3% 'shinier' graphics.

Kortom, net zo nuttig en wenselijk als 3d-TV en ongetwijfeld om dezelfde reden door fabrikanten op de markt gezet...geld.

[/zeurpost] ;)
Voor jou mogelijk niet zo nuttig, voor mij wel. Ik ben zo uitgekeken op rasterization. Het voelt allemaal zo onecht aan. Terwijl met raytracing komt alles zoveel dichterbij de werkelijkheiod qua kleur, schaduwen en licht. Echter met de huidige demo's van RTX is dat nog moeilijk te zien, maar ik weet zeker met de volgende generatie of de generatie RTX kaarten daarop, dat NVIDIA een heel eind kan zijn op het pad van raytracing.

Waar ik zelf meer zorgen over maak is dat de volgende generatie consoles niet raytracing gaan ondersteunen... dat zou ik jammer vinden.
M.b.t. waarom Raytracing belangrijk is voor de game industrie:
https://www.youtube.com/watch?v=SrF4k6wJ-do

M.b.t. hoe Raytracing er realistisch uit kan zien (Hiermee bedoel ik: belichting, reflecties & schaduwen):
https://www.youtube.com/watch?v=nXalJe_3BZg
In multiplayer kan het nog wel een daadwerkelijk voordeel gaan geven, maar het is inderdaad momenteel nog vooral een visueel detail, die vooral naar voren komt als je footage gaat vergelijken van zonder en met raytracing aan.
Tweakers testte BF5 en zeiden je mist het niet totdat je het 1x aan het gezet en dan ziet alles zonder RT er ineens nep uit
Dus blijkbaar merk je het wel
Toch is raytracing echt een super belangrijke stap vooruit. Het maakt het voor game designers een stuk gemakkelijker om echt mooie effecten te maken. Nu zijn het allemaal foefjes op foefjes die heel veel tijd kosten om uit te zoeken en te fine tunen. Met raytracing zijn al die berekeningen al voor je gedaan en is het veel makkelijker finetunen.

Bekijk dit filmpje maar eens, hier wordt haarfijn uitgelegd met welke problemen game designers tegen komen met de oude manier van renderen en wat de voordelen zijn van raytracing.
https://youtu.be/Q8e3rFkLZUg

Ik vind het zelf wel erg grappig dat iedereen zo voor 4k is en nog meer resolutie en nog meer beelden per seconden, terwijl dat niks te maken heeft met fotorealisme. We keken ook film op SD kwaliteit en dat ziet er veel mooier uit dan 4k pacmen.

Het mooie aan raytracing is ook dat de videokaart een stuk simpeler ontworpen kan worden, ipv allemaal verschillende instructie sets kun je nu focussen op 1 raytracing set.

Dus het is nu even door de zure appel bijten maar uiteindelijk gaan we hele grote sprongen maken zomenteen. En zo zuur is die appel al niet, vroeger... was je al blij als je 30 fps haalde en dan speelde je ook nog competitief in clan verband online. Dus dat je nu 50 a 60 fps haalt ipv 130...

check de benchmark van mijn eerste videokaart "Monster 3d kaart 2" http://dansdata.com/M3D2.htm
Dat waren pas tijden joh! Ik word oud!
Het is zeer nuttig en voegd wel wat toe het probleem is alleen dat het behoorlijk onbetaalbaar is zoals altijd in de early adoption.
En 3D tv is tevoeg afgeschaft want pas met de komst van 4k waren de panelen er klaar voor qua resolutie.
Bijna elke film in de bios is nog in 3d te zien dus geflopt wil ik 3d niet noemen. Er is alleen een domme keuze gemaakt om 3d af te schaffen voor zijn piek en hdr voor te trekken zonder dat er ook maar hdr content is.
Ik zou grqag 3d in mijn tv willeh als ik een 4k tv ga kopen maar die keuze is me ontnomen door slechte keuzes. Net als dat ik rtx zou ovrrwegen als ik het zou kunnen betalen.
En een 3dtv vind ik dus hardtikke nuttig en wenselijk.
"Lerp" Naam bij je beroep. :)
Raytracing een gimmick?
Leg eens uit?
Want volgens mij is raytracing het ultieme dat er met CGI valt te halen.
En dit is het begin ervan.
Je vergeet radiosity

Radiosity, een global illumination algoritme, is een manier van renderen die de interactie van licht met de omgeving veel preciezer benadert dan technieken die alleen gebruikmaken van direct illumination, zoals raytracing volgens Wikipedia
Bij radiosity worden er geloof ik nog steeds ray getraced.
Je vergeet radiosity
... technieken die alleen gebruikmaken van direct illumination, zoals raytracing volgens Wikipedia
Het is eerder andersom: radiosity kan niet direct illumination doen, maar raytracing kan wel degelijk ook indirecte (diffuse) verlichting berekenen - zie RTX Global Illumination. Gewoon een kwestie van de rays lang genoeg volgen zodat die ook weerkaatsingen op meerdere oppervlakten mee nemen.

Maar om GI realtime te kunnen doen wordt het vereenvoudigd en is dus niet zo realistisch als (niet-realtime) radiosity. Om radiosity real time te doen zou andere gespecialiseerde hardware naast RTX moeten worden ontwikkeld.
Gimmick in de zin van het heeft weinig toegevoegde waarde voor de spelbeleving. Realistischer uitziende games zijn niet meteen goede games, of meeslepende games. Het is leuk, eyecandy. Games zoals legende of mana, FFVII, ocarina of time, chrono trigger/cross zien er niet realistisch uit, maar zijn fantastische games. Puur door het spel element. En dat wordt tegenwoordig door veel developers vergeten, nouja bij Nintendo hebben zij dat nog steeds goed door.
En waarom moet het steeds realistischer lijken? Het is immers een spel, dus bij definitie niet realistisch :P

Op dit item kan niet meer gereageerd worden.


Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 Games

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True