Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Crytek toont raytracingtechnologie voor systemen zonder Nvidia's RTX-gpu's

Gameontwikkelaar Crytek heeft een video met gerenderde beelden gepubliceerd waarin realtime-raytracingreflecties zijn te zien, zonder dat er gebruik is gemaakt van RTX-gpu's van Nvidia. Dit is volgens het bedrijf mogelijk door een nieuwe raytracingfunctie van de CryEngine 5.5.

Crytek heeft de video de naam Neon Noir gegeven en dit is een demonstratie van de mogelijkheden van de CryEngine. Volgens het bedrijf is de video gecreëerd met 'een geavanceerde versie van de total illumination-functie van de CryEngine', waarmee realtime-raytracing wordt gedemonstreerd. Deze functionaliteit wordt in de loop van dit jaar aan de CryEngine toegevoegd, zodat ontwikkelaars ermee aan de slag kunnen.

Alle scènes uit de video zijn gerenderd op een Vega 56-gpu van AMD. Deze videokaart beschikt niet over specifiek geïmplementeerde hardware voor raytracing, zoals dat wel het geval is bij de RTX-videokaarten van Nvidia. Crytek benadrukt dat er bij Neon Noir ook geen screen space reflections zijn gebruikt.

Volgens Crytek is de experimentele raytracing uit de video gebaseerd op een api en is het daardoor 'hardware-onafhankelijk'. De ontwikkelaar stelt dan ook dat deze versie van CryEngine 5.5 raytracing mogelijk maakt 'op de meeste, huidige mainstream-gpu's van AMD en Nvidia'.

Het bedrijf zegt dat de toekomstige integratie van deze CryEngine-technologie wordt geoptimaliseerd, zodat het profiteert van prestatieverbeteringen van de laatste generatie grafische kaarten en ondersteunde api's als Vulkan en DirectX 12. Crytek geeft verder weinig nadere details over de technologie. Daardoor is nu bijvoorbeeld onduidelijk hoeveel grafische rekenkracht ervoor nodig is en hoe het precies werkt.

Door Joris Jansen

Nieuwsredacteur

15-03-2019 • 17:54

96 Linkedin Google+

Submitter: NiLSPACE

Reacties (96)

Wijzig sortering
Documentatie:
https://docs.cryengine.co...ge.action?pageId=25535599

Uitleg van een reddit gebruiker:
This is an implementation of Voxel-Based Global Illumination (SVOGI), not full raytracing of the complete scene. It is essentially a voxel-based method to calculate global illumination (incl. reflections), i.e. the ray-tracing is used only in the same way as the RTX's ray-tracing is used in Battlefield 5. The rest of the graphics is handeled in traditional manner.

Given the compute power of AMD GPUs (and the fact that voxel-based ray-tracing is a lot cheaper than the ray-based approach from Nvidia), there is no reason to doubt that this is a V56.
Stukje uit een paper:
Computing a global illumination solution in real-time is still an open problem. We introduce Voxel-based Global Illumination (VGI), a scalable technique that ranges from real-time near-field
illumination to interactive global illumination solutions. To obtain a voxelized scene representation, we introduce a new atlas-based boundary voxelization algorithm and an extension to a fast rayvoxel intersection test. Similar to screen-space illumination methods, VGI is independent of the scene complexity. Using voxels for indirect visibility enables real-time near-field illumination without
the screen-space artifacts of alternative methods. Furthermore, VGI can be extended to interactive, multi-bounce global illumination solutions like path tracing and instant radiosity.
https://www.in.tu-clausth...ata_pub/paper/VoxelGI.pdf

Gerelateerde commits op GitHub (CRYENGINE repo):
!F (DEV-6911) SVOGI: Mesh tracing Part I - Render Resources Preparation
!F (DEV-6912) SVOGI: Mesh tracing Part 2/2 - Enabled ray tracing functionality in shaders (system is usable only for small test levels for now)
!B (CE-19239) Fixed: SVOGI: Ray Tracing feature causing a freeze in the engine. Also quality and performance improvements

[Reactie gewijzigd door Vipeax op 15 maart 2019 18:33]

De informatie die jij geeft is nergens terug te vinden in de officiele documentatie van de Cryengine. Wel is het te vinden in een Redditpost: https://www.reddit.com/r/...aced_reflections/eilgmsf/ Diegene die dit heeft gepost lijkt niks te maken te hebben met CryTek. Je informatie kan dus accuraat zijn, maar die conclusie kan niet met zekerheid getrokken worden uit jouw quote met een onjuiste bronvermelding van een willekeurig persoon.

"To showcase the benefits of real time ray tracing, screen space reflections were not used in this demo."
"Neon Noir shows how real-time mesh ray-traced reflections and refractions can deliver highly realistic visuals for games."
Dit zijn quotes uit het vrijgegeven nieuwsartikel door CryTek (https://www.cryengine.com...monstration-for-cryengine). Dat er dus gebruik is gemaakt van SVOGI is hier dan dus toch niet uit te concluderen?

Dat er op het einde van de video staat dat het GERENDERD is met een Vega 56, laat zien dat het met grote waarschijnlijkheid niet real-time beelden waren. Dit is wel werkelijk allemaal nuttige en betrouwbare informatie :)
Hun eigen pressrelease geeft aan dat ze het Total Illumination noemen voor marketing doeleinden. Lees even de bijgevoegde manual pagina door:
The Global Illumination settings are located in Tools -> Level Editor -> Level Settings -> Total illumination:
Neon Noir was developed on a bespoke version of CRYENGINE 5.5., and the experimental ray tracing feature based on CRYENGINE’s Total Illumination used to create the demo is both API and hardware agnostic, enabling ray tracing to run on most mainstream, contemporary AMD and NVIDIA GPUs. However, the future integration of this new CRYENGINE technology will be optimized to benefit from performance enhancements delivered by the latest generation of graphics cards and supported APIs like Vulkan and DX12.
https://www.crytek.com/ne...monstration-for-cryengine

(Je toevoeging is daardoor overigens niet minder welkom, want die quote had nu inderdaad geen bronvermelding.)

Ze claimen overigens wel dat het real-time beelden zijn:
All scenes are rendered in real-time in-editor on an AMD Vega 56 GPU. Reflections are achieved with the new experimental ray tracing feature in CRYENGINE 5 - no SSR.
https://www.youtube.com/watch?v=1nqhkDm2_Tw

@mrtnptrs, je opmerking was zeker wel nuttig, alleen kan ik niet jouw bericht "modereren" om deze omhoog te halen.

[Reactie gewijzigd door Vipeax op 15 maart 2019 18:42]

Je hebt blijkbaar wel gelijk, maar je argumentatie en bronnen zijn een beetje kort door de bocht.

De manual pagina van SVOGI (en de pressrelease van CryTek) geeft inderdaad Total Illumination aan. En als je de pagina van Amazon's Lumberyard (fork van CryEngine natuurlijk) erbij pakt, zie je dat als je Total Illumination inschakelt, je inderdaad met SVOGI te maken hebt hier.
Zie: https://docs.aws.amazon.c...ering-graphics-svogi.html

Total illumination == SVOGI :) Sorry, mijn opmerkingen waren misschien niet heel nuttig, maar nu weten we het wel zeker.

Edit: Zag net trouwens pas dat je je eerste comment hier had bijgewerkt (al voor dat ik reageerde) met inderdaad informatie en bewijs dat het hier over SVOGI gaat.

[Reactie gewijzigd door mrtnptrs op 15 maart 2019 18:42]

Het realtime weergeven van beelden het net zo goed renderen.
In principe wel @MsG Maar dan zouden ze waarschijnlijk ook wel lopen te pronken met dat het real-time is gerenderd. Daarom vermoed ik zelf dat het vooraf niet-real-time gerenderd is. We zien wel als CryEngine 5.5 uit komt....
Maar als het niet real-time was, wat was dan het nut van het melden met welke hardware het gerenderd is? Dan zou er ook bij staan hoe lang het renderen duurde. Het zou gewoon logischer zijn dat ze realtime bedoelen anders is de informatie hardstikke nietszeggend.
Precies, anders hadden ze ook een 3dfx voodoo kaartje kunnen gebruiken bij wijze van spreken . Bij realtime gaat het om rekenkracht en FPS, bij renderen gaat het vooral om uithoudingsvermogen van de renderaar... Maar ik snap de verwarring, het is niet echt top verwoord door Crytek.
Het lijkt me vrij sterk dat ze dit zouden faken, dit is immers reclame voor hun eigen engine, en als dat juist onzin blijkt te zijn is dat eerder antireclame. Beetje stemmingmakerij om te stellen dat het vermoedelijk al niet-realtime is.
Het op het scherm zetten van graphics noemt men rendering, dat zegt dus helemaal niets over of het wel of niet real-time beelden zijn. Het feit dat het aan de CryEngine in de loop van het jaar wordt toegevoegd zeg mij dat het wel gewoon real-time is, aangezien de CryEngine gewoon een realtime game-engine is.
MAAR er is verder te weinig informatie gegeven (bv wat de resolutie was, hoeveel fps, en we weten ook dat er wel een verschil zit tussen een demo-scene of een active-game-scene..
Kan mij het wat schelen of het 'full raytracing' is, of dat ze ergens de bocht afsnijden. Als het er mooi uit ziet, en snel rekent, is het goed :)
Inderdaad, maar je moet wel goed kijken om te zien. Als ik in artifacten-jaag-mode kijk, komt-ie er uit, maar als ik in ontspannen-filmpje-kijken mode zit, kijk ik er zo overheen.
Het licht op die druppels op het raam terwijl de camera draait.
Dus die RTX cores zijn nu al achterhaalt door software inplantatie? Nou lekker dan als je een RTX hebt gekocht voor RT.
RTX cores is hardware versnelling voor de gebruikte raytracing techniek van Nvidia dus niet echt achterhaald.

[Reactie gewijzigd door Jonathan-458 op 15 maart 2019 18:07]

Achterhaald zou ik het ook niet noemen . Maar de vraag is hoe presteerd het tov hardware.
De juiste kreet erbij zou dan placebo. Je betaald voor chips of diespace voor geld te vangen ipv dat meerwaarde heeft. Dus de vraag is meer hoe verhoud het.

Voordeel van hardware is dat het zware aandeel op apparte hardware verwerkt wordt wat de reguliere shaders ontlast. Bij software moet de shaders alles doen.
Nu heeft nvidia bigchip met enorme hoeveelheid schaders en extra groot met extra RT en tensor cores.

Dus een directere vergelijking zo GTX11xx vs RTX 20xx

Ook moet je vergelijken waar omslag punt ligt
Pure cuda 200% vs 100% Cuda & RT & tensor.

Afhankelijk van de diespace bezetting zou RTX meerwaarde hebben als pure cuda core verslaat met minder diespace.

Valt tegen zou AMD kunnen gaan voor grotere verhouding shader vs ROP TMU dan nu gangbaar is.

Al zou ik voor de 4K niet al te veel inleveren daarop.

Daarnaast nvidia heeft kale op gaming gerichte chips en full featured prof chips.
AMD architectuur heeft die tweedeling niet en toekomstige gen shaders dus de next GCN voor Navi kunnen ook meer gericht zijn op die nieuwe DXR features.
Dat is net zoiets als zeggen dat videokaarten achterhaald zijn aangezien een cpu ook beeld kan renderen.
Nou nee, een cpu geeft beeld en een videokaart geeft beter beeld. ;)

En RT is RT, als het via software ook goed te gebruiken is wat is het voordeel dan van hardware acceleration? "Betere RT"? Waar kan je het dan aan zien? Het enige wat ik me kan voorstellen is dat je meer reflecties kan berekenen met hardware acceleration, maar dat zal mss ook binnen een paar jaar ingehaald zijn/overbodig.
Nou nee, een CPU kan in theorie alles renderen wat een videokaart ook kan. Alleen doet ie dat veel minder efficiënt. En dat is met RTX precies hetzelfde, iedere videokaart kan raytracen, maar doet dat veel minder efficiënt dan RTX. Oftewel, met RTX haal je hogere framerates als je wil raytracen. Net als dat je met een videokaart hogere framerates haalt dan met CPU-rendering. Dus vandaar mijn reactie, het is gewoon vergelijkbaar.
Maar dit is niet de goede vergelijking. Als je alle shaders op een GPU kunt benutten voor ray tracing, heb je een veel betere implementatie dan RTX nu is, want die reserveert een aanzienlijk deel van de die puur voor RT. Dat is ontzettende verspilling, zeker in een overgangsperiode en met slechts één of twee node shrinks in het vooruitzicht. Daarom is Turing ook zo duur: grote dies. Het is nog helemaal niet gezegd dat aparte cores de enige oplossing zijn om RT te doen, sterker, dat lijkt hier aardig op losse schroeven te komen.

Dat Nvidia nu iets met een denoiser doet is daarin verder niet zo interessant. Die denoiser (met 'ai') zit ook op een deel van de GPU dat anders pure performance zou kunnen zijn die óók RT zou kunnen. Verder kun je je afvragen of het uberhaupt levensvatbaar is want ze pakken nu al meer dan 20% van de GPU die alleen maar om in Metro bijvoorbeeld één lichtbron te simuleren. Dat gaat nooit naar de hele scéne schalen op deze manier, het is altijd een wirwar van concessies. Dan zeg ik: doe mij die concessies maar op een GPU die ik in andere gevallen voor 100% voor echte prestaties kan benutten in elke game.

Speciale hardware op een GPU voor één deel van de render pipeline is niet nieuw, denk aan tesselation. Maar kijk voor de grap eens hoe groot een tesselation unit is op een GPU en leg dat naast Turing. Niet te vergelijken.

[Reactie gewijzigd door Vayra op 16 maart 2019 09:39]

Daar komt nog eens bovenop dat de RTX standaard gebruik maakt vab AI om de missende pixels te renderen. Dat zou theoretisch ook met je CPU kunnen, maar dat is wederom niet efficiënt.

Reflecties in games zijn natuurlijk altijd al mogelijk geweest, maar het gaat natuurlijk ook om hoe accuraat de simulatie is, en hoe goed gaat het om met bewegende objecten.
Generiek gezien zal het voordeel van "in hardware" v.s. "in software" zijn dat een "In hardware" implementatie er een dedicated deel van de chip voor bepaalde berekeningen hebben gereserveerd. Zo'n chip zal bij wijze van spreken 100 raytracing bewerkingen in hardware per seconde kunnen doen en daarnaast ook nog eens 100 andere compute bewerkingen in diezelfde seconde.

Ga je hetzelfde doen op een chip met dezelfde compute specs maar geen dedicated raytracing cores zal je ziet dat die chip bijvoorbeeld 100 raytracing bewerkingen per seconde kan doen (of misschien zelfs maar 75 omdat generieke cores mogelijk minder kunnen verwerken dan specifieke cores) echter kunnen er dan geen 100 andere compute bewerkingen gelijktijdig plaatsvinden. Je moet dan bijv. kiezen tussen 100 raytracing berekeningen of 100 andere compute berekeningen en niet en / en wat je met "in hardware" in bepaalde gevallen wel kan krijgen.
Met dat verschil dat ook elke gpu een beeld kan renderen en geen enkele game (kort door de bocht ik weet het) de cpu daarvoor inzet.
rickboy333 heeft wat mij betreft wel een punt: RTX is nog niet heel goed vertegenwoordigd in games. De kans dat dat gaat veranderen neemt af als er meer generieke, op alle hardware werkende, technologie is die min of meer hetzelfde doet.
Anders gezegd: de marktacceptatie van RTX is nu laag. Als koper kan je erop gokken op betere acceptatie (dat je RTX "nodig" zal hebben omdat meer games het zullen ondersteunen). Technologie als in dit artikel verkleint de kans dat die gok op langere termijn waardevol is: de kans neemt immers toe dat games een andere technologie gebruiken. Àls je die gok gemaakt hebt, is dit géén goed nieuws inderdaad!

Dat gezegd zijnde lijkt het me ook niet verstandig zo sterk te gokken op de acceptatie van technologie. Meestal worden RTX kaarten niet vooral voor RTX gekocht, maar wel omdat het de snelste high-ends zijn.

Het zou mij overigens absoluut niet verbazen mocht raytracing op generieke hardware zeer interessant worden. De rekenkracht neemt nog altijd enorm toe, zowel op GPU als CPU. Met de tijd wordt realtime raytracing (zelfs echte volwaardige) sowieso mogelijk!

[Reactie gewijzigd door the_stickie op 15 maart 2019 20:09]

RTX Cores zijn specifiek bedoeld voor raytracing taken. Dat het met "normale" cores ook kan, ongetwijfeld, waarschijnlijk met (behoorlijk) performance verlies.
Dat valt wel mee, deze demo is op een AMD Radeon Vega56 gedaan als ik het goed lees. Die zit normaalgesproken tussen de GTX1070 en GTX1070Ti. De nieuwe 2070-serie schijnt nog genoeg moeite te hebben RT.
Dat is ook meer omdat lower producten stuk minder RT en tensor cores hebben. En ook minder cuda cores om verder af te handelen.
Vega56 hoefd geen 2080ti te verslaan want alleen de cuda diespace is al zwaarder.
Maar 2060.
Dus wat is efficienter kwa chip real estate.
Wat kost het. 2x vega56 vs 2080 ti
Nvidia heeft zoals altijd weer eens iets verzonnen qua vendor lock-in, waarmee ze gelijk alle fanboys een argument geven:

" Maar deze heeft raytracing hoor".

Ja, leuk man. Voor die twee games die ieder een zeer beperkt gedeelte ondersteunen.

BF:V alleen de reflecties
Metro alleen global illumination
Het is ook meer iets voor de 4K/ultra setups qua pc extreme. Een beetje hetzelfde als dat mijn 1080p/144hz ook een niche is.

[Reactie gewijzigd door govie op 15 maart 2019 22:44]

Helemaal niet, Nvidia pusht RTX toch op alle GPUs vanaf de 2060? Die kaart kan helemaal geen 4K ultra, maar wel 1080p met RT. Dit is geen niche, het is gewoon ontzettend slecht getimed en op de markt gezet. Daardoor ontstaat een kip/ei verhaal en ik heb het gevoel dat Nvidia hier precies hetzelfde gaat bereiken als met PhysX.

De niche bestaat hier helemaal niet, net zomin als met PhysX. Daar is ook geen fanbase voor, maar als het er is, zet je het maar aan. Zo zal het met RTX ook nog een behoorlijke tijd zijn, als het al ooit gaat veranderen en niet ingehaald wordt door een veel betere implementatie die voor iedereen werkt, zoals wat Crytek hier laat zien.

Het is zelfs nog sterker dan dat: als RTX een niche blijft die slechts voor een enkeling bereikbaar is, is het een doodgeboren kindje. Developers gaan niet voor de bovenste 5% allerlei features toevoegen en games aanpassen.

[Reactie gewijzigd door Vayra op 16 maart 2019 09:48]

Waarom zou ik op een 1080p monitor eisen gaan stellen die zo ver gaan als RTX? M.i. snijdt dat geen hout. Mensen met een 1080p monitor of die nou 144hz is of niet zoeken een bang4buck videokaart en als er Nvidia's RTX op zit dan wordt er op prestaties elders geknepen oftewel framerates. Ik zit daar niet op te wachten als 1080p/144hz gebruiker. 1080p gebruiker wil een spel kunnen spelen zonder horten en stoten oftewel voldoende fps. Dat is het doel en niet perfecte lichtweerkaatsingen via waterdruppels op een prulresolutie.
Het klinkt mij in de oren dat hoe RTX in de markt is gezet door Nvidia lijkt op hoe men G-sync in de markt heeft gezet. Nvidia heeft er een handje om algemene technologische ontwikkelingen in het veld, erg vroeg niet officieel op te eisen via ingewikkelde ic's op de videokaart wat goed te vermarkten valt voor 100 tot 150 euro meer per kaart. Als marketeer zijnde is dit een prima strategie hoor maar je valt wel in herhaling. Ik zie dezelfde karaktertrek van Nvidia weer terugkomen net zoals bij G-sync vs freesync. Je wordt voor de gek gehouden om teveel te betalen is het eerste gevoel wat mij bedruipt en wel omdat RTX resulteert in tientallen procenten minder framerates.
De Nvidia RTX bestaat voor de mens die zoveel besteden heeft dat hij een 4K monitor kan aanschaffen met perfect beeld. Dit naast een pc die dit prestatietechnisch kan voeden, zodat de computer in kwestie de frameratedrop van RTX kan compenseren met een dubbele videokaartopstelling á >€1000,-- per stuk.

I rest my case.

[Reactie gewijzigd door govie op 16 maart 2019 11:25]

Resolutie is niet voorbehouden aan een soort gamer, en de mainstream zit op 1080p. RTX is daar prima mogelijk op een 2060. Net zoals het prima mogelijk is op een 2080ti op 4K. Of als je met lagere settings genoegen neemt, een 2080 op 4K.

RTX bestaat dus voor al deze resoluties en omdat de 'gigarays' niet gekoppeld zijn aan de algehele performance maar slechts aan RTX heeft het niets met resolutie te maken. Er zijn er ook genoeg die wel een 4K scherm hebben maar downscalen naar 1080p simpelweg vanwege speelbaarheid en vervolgens wél alle settings max willen hebben. Resolutie is een middel, geen doel, en je kunt er vanalles mee.

[Reactie gewijzigd door Vayra op 17 maart 2019 11:38]

Onzin. Het gaat wel om resolutie en fps en dat is altijd zo geweest. In iedere test worden de prestaties van videokaarten afgemeten in fps bij bepaalde gfx-settings en zo met elkaar vergeleken. Als budgetgamer introduceren alle tierlantijntjes als RTX of G-sync/freesync me nagenoeg niets. Ik heb een bepaalde grafische prestatie nodig binnen een bepaald budget, uitgedrukt in fps en liefst ook nog dat het ding een jaar of 5 mee kan doen zonder stotterend beeld. Simpel en zo denken alle budgetgamers. Daarom ben ik ook het beste af met een vega56 of vega65 gezien mijn 144hz scherm. Op het moment dat die lichtweerkaatsingen je piemel zo hard maken en je een RTX aanschaft, dan kan je beter heel je setup de deur uit doen en een nieuwe halen en wel omdat je wens is veranderd dankzij waarschijnlijk meer welvaart. Punt blijft wel dat het de €100/150 euro extra niet waard is en zeker niet als het softwarematig ook kan oftewel rtz zonder meerinvestering.

Hou op Fanboy! :Y)

[Reactie gewijzigd door govie op 17 maart 2019 14:54]

Jammer, deze reactie.

Om dit af te sluiten laat ik je de prijs van een (degelijke, niet FE) RTX 2060 zien:
pricewatch: MSI GeForce RTX 2060 Ventus 6G OC
375 euro

En wat kost (degelijke) Vega 56, die over het algemeen iets beduidend trager is?
pricewatch: Sapphire PULSE Radeon RX Vega56 8G HBM2
375 euro.

Performance:
https://www.techpowerup.c..._Founders_Edition/33.html

Kortom, dezelfde of betere FPS en RTRT krijg je er gratis bij. Harde piemels zijn optioneel. En met fanboyen heeft het niets te maken, maar wel met simpele feiten en vijftien seconden kijken naar het aanbod. En dan heb ik het nog niet gehad over een TDP verschil in het nadeel van Vega:
https://www.techpowerup.c..._Founders_Edition/34.html
33% meer perf/watt op een 2060. Dat vertaalt zich naar lager verbruik en dus naar een nog groter prijsverschil, maar ook een minder luide GPU en minder warmte in je kast.

Nu kom jij met je 8GB versus 6GB VRAM maar voor high refresh 1080p en zelfs 1440p is dat totaal niet relevant, zie resultaten op hogere resoluties. Dan kom je met een undervolt op Vega waardoor die oh zo efficient wordt, maar ook dan is het minder interessant en niet alle Vega's blijven dan stabiel.

Allemaal niet zo moeilijk. Fijne dag O+

*Dan is er nog FreeSync. Juist als budgetgamer is dat interessant, want daarmee kom je met minder hoge stabiele FPS weg en heb je toch een prima ervaring. Nvidia levert nu ook support, maar toegegeven, op AMD hardware is de ondersteuning beter daarvoor, terwijl Gsync niet bij het budgetsegment past. Met andere woorden, letterlijk elk zinnetje van je betoog sla je de plank volledig mis. Je vindt al FreeSync monitoren voor 200 euro.

PS. we zijn het over RTX volledig eens, maar jij maakt er nu een klassiek Nvidia-AMD riedeltje van. Totaal niet nodig... en de uitkomst zal niet anders zijn dan die de afgelopen acht jaar is geweest, zoals je ziet.

[Reactie gewijzigd door Vayra op 18 maart 2019 12:43]

Waar praat je over? PhysX is ten eerste al een flinke tijd open source en zit al jaren in alle grote engines.
Maar dat was in het begin niet zo. Physx werd destijds ook gepositioneerd als een nVidia only feature en was onderdeel van de GPU - driver en niet in de engine van de game. Die kon het alleen aanroepen indien er een Nvidia kaart aanwezig was met Physx. Volgens mij kan je nog steeds een lichtere Nvidia kaart in je systeem erbij zetten en deze dedicated reserveren voor Physx gebruik.
PhysX was eerst een add in card van Ageia.
Onder diverse merken verkocht.
BFG, Asus etc.
Heb zelf nog een kaart gehad.
Nvidia heeft Ageia Physx overgekocht in februari 2008.

Onder andere Sacred 2 kon je installeren met Ageia Physx en als je een PPU had kon je deze aangeven of je CPU. Bij latere updates toen Nvidia in bezit was van Physx kon je in Nvidia panel kiezen welk hardware onderdeel verantwoordelijk was voor Physx.

Jammer is dat er vrij weinig games een goede physx ondersteuning boden. Helemaal jammer dat ze niet op eigen benen verder konden.
Inderdaad iets later ingestapt met mijn pleidooi. Maar daar ging het niet om. Waar het om ging was features integreren in de gpu. Zoals dedicated raytrace Nvidia features en destijds de dedicated Physx feature die wél in Nvidia GPu werkte maar niet in andere GPUs.
GPU PhysX niet, CPU wel, en dat weet jij ook wel.
Nee, so simpel is het niet. Dit draait nu zo zonder deze speciale hardware, maar een demo is bij lange na niet hetzelfde als real ingame. Maar je moet het zo zien, als dit al goed draait zonder de hardware acceleration, dan kan men dus nog vele malen verder gaan MET hardware acceleration.
Dus die RTX cores zijn nu al achterhaalt door software inplantatie? Nou lekker dan als je een RTX hebt gekocht voor RT.
Dat zie je toch een beetje verkeerd. Dat het met software ook kan (lees: CPU; zie Cinebench R15, bijv.) is leuk, en ook nog best noemenswaardig (zij het dan via een soort pseudo-ray tracing), maar dedicated ray-tracing hardware (RTX kaarten) ontlasten behoorlijk je CPU - die dan weer vrij is om andere dingen te doen.
Als je het hebt over GI (global illumination) dan is mijn mening van wel. Er zijn technieken zoals de voxel based GI van Cryengine die een stuk efficienter is en heel dicht in de buurt komt van raytraced GI.
GI is imho ook niet een goede use case voor raytracing op dit moment, met name niet als je ziet wat voor performance impact het heeft in bijvoorbeeld de nieuwe Metro. Vanuit een development punt is raytraced GI wel makkelijker om te implementeren (dit gaf Gamers Nexus aan in hun onderzoek).
Ik heb geen RTX kaart, maar achterhaald? Door één video demonstratie voor één engine waar nog verder niks aan informatie (resolutie, framerate, renderkwaliteit wanneer de boel niet on-rails is zoals hier)?

Echt een onzin statement.

Kijk maar eens naar alle andere engine demo's, zij het CryEngine, zij het Unreal Engine, hoeveel games zien er ondertussen écht zo uit op redelijke hardware.

Overigens, mochten ze het wel gedaan krijgen dan ben ik de eerste om ze toe te juichen, maar eerst wat meer details.
Als je heel graag Battlesomething 5 speelt, kun je er nog best een tijdje pret mee hebben. ;)
Dus de meerprijs voor een RTX is nu dus helemaal niet meer te verantwoorden. Wachten op de GTX 2080 Ti dan, of hoe ze hem ook gaan noemen, want dat is voor iedereen een raadsel. ;)

edit:typo

[Reactie gewijzigd door hooibergje op 15 maart 2019 18:01]

Dat lijkt mij wat voorbarig. Het is immers nog niet duidelijk hoeveel rekenkracht de Crytek implementatie vraagt en of andere ontwikkelaars het ook kunnen gebruiken.
De YT video is volgen Crytek in realtime gerenderd op een Vega 56, en de resolutie en framerate is 4K 30 fps.

Op een Vega 56, met ray tracing, lijkt me dat aardig goede performance.
Dat kun je niet stellen. Je weet niet wat de performance is geweest van die demo, 'gerenderd met een AMD vega 56 GPU' zegt natuurlijk niets. Hoe dynamisch was de omgeving, welke resolutie, hoeveel fps.
En als dit mogelijk is zonder de extra hardware, hoeveel performancegain krijg je dan wel niet als die WEL gebruik kan maken van die extra hardware?
Het ziet er vloeiender uit dan die stotterdemo's van Nvidia. :+
Geen idee welke stotterdemo's van Nvidia jij bedoelt.
Alle RTX demo's behalve de Moon Landing. Ze lopen niet lekker, frametimes zijn duidelijk niet stabiel. En de Moon Landing is dan weer van erbarmelijk lage kwaliteit; simpele textures en lage poly count op de astronaut en de maanlander.

[Reactie gewijzigd door Vayra op 18 maart 2019 12:48]

waarschijnlijk iets in de trend GTX 1880/1880Ti/1770?
Dan ga je volgens mij nog heel lang mogen wachten :)
Is prima. Mijn GTX 1060 zingt het nog wel eventjes uit. :)
Alleen met VR trekt-ie het echt niet meer.
Ik bedoel dat nvidia nooit een GTX 2080 gaat releasen. Dan zouden ze puur in hun eigen vel snijden.
Je bedoelt een GTX1660Ti?
Maar wat is de performance impact hiervan op een normale videokaart vs gebruik van RTX? Als de impact met behulp van RTX veel lager is, dan toont dat juist het voordeel aan van RTX cores. Raytracing is immers ook gewoon op CPUs te doen alleen gaat het dan ontzettend langzaam.

Het is dus helemaal niet zo verwonderlijk dat Crytek raytracing op een non-RTX werkend heeft, alleen performance moet uitwijzen of het toepasbaar is op non-RTX kaarten in realtime in context van een spel.
Juist, en moet je dan dus nagaan als ze dus hierbij OOK gebruik kunnen maken van de RTX, dat moet dan alsnog een ENORME performance-boost geven boven een non-RTX kaart.
Ziet er niet slecht uit, maar dat zijn we wel gewend van Crytek.
Als die trailer echt door een VEGA56 realtime is gerenderd ben ik wel onder de indruk
Potverdorie wat ziet dat er prachtig uit dat ray tracing.
Prachtig :D raytracing is echt de heilige graal van (fotorealistisch) gamen. Een van de redenen voor mij als jonge ingenieur om informatica te studeren was een paper van Stephan Reiter https://llvm.org/pubs/2008-06-Reiter-Thesis.html
Helaas door andere erg interessante ontwikkelingen (AI!) uiteindelijk niks mee gedaan. Ben benieuwd hoe dat op moderne hardware zou draaien (15fps op AMD Athlon X2 3800, 512x512 resolutie :+)...

https://www.youtube.com/watch?v=C_6Icf2m_C4
https://www.youtube.com/watch?v=jLFrP0c7VWw

[Reactie gewijzigd door C.Hariri op 15 maart 2019 19:43]

Okay... reflecties via raytracing top.. Echter hoop ik ook dat ze realtime global illumination weten te creëren zonder een RTX kaart, dan ben ik zeker onder de indruk en denk ik dat de next-gen consoles 'geramt' zitten betreft betere render technieken. (Ben persoonlijk het rasterization renderen zo zat... voelt zo onecht aan).

[Reactie gewijzigd door Mic2000 op 16 maart 2019 09:24]

Onzin.

Het verschil in Metro is zo groot omdat ze totaal geen "normale" vorm van global illumination hebben gebruikt.

GamersNexus heeft al een mooi vergelijk gemaakt met hoe het verschil eruit ziet als je RTX wegzet tegen een manier waarop je van huidige methoden optimaal gebruik maakt. En dan wordt het verschil toch wel een héél stukje kleiner.
Ingebakken global illumination is leuk. Echter het dynamische van RTX is wat ik interessant vindt. Daarnaast snap ik je hele statement van ‘onzin’ niet. Op vaste objecten kunnen ze global illumination inbakken. Bewegende / los geplaatste objecten niet (behalve in de textures) en dan met dynamisc shadows sfeer scheppen. Je ziet ook in jouw filmpje dat toen hij de bal ronddraait bij niet rtx de ingebakken global illumination niet meer werkt voor realisme. Echter met rtx vind ik dat er veel meer volume zit aan 3D objecten. Kijk bv naar het sneeuw dat rechts op het gebouw ligt bij de eerste comparison screen.

https://youtu.be/yPySV5C1i24

En dat is wat ik bedoel. Ik ben het platte van rasterization zat en verwelkom rtx.
Ik snap niet dat je met zoveel lawaai onzin dit en dat roept zonder echt een goed argument te tonen, je allemaal +1 krijgt ik een 0.

[Reactie gewijzigd door Mic2000 op 16 maart 2019 09:24]

Heb je überhaupt de hele video gekeken?

Ze laten later een implementatie zien van non-RTX die veel beter werkt. Ze proberen gewoon verschillende technieken te laten zien.
Oké had het filmpje tot de helft gekeken. Wat ze aan het eind doen komt idd inde buurt. Echter het volume dat in objecten komt met rtx aan mis ik nog steeds bij hun fake oplossing, en de schaduwen vind ik sterker bij rtx.

Nee helaas komt in de buurt maar ik ben nog steeds klaar met rasterization. Zelfs in die goed fakende variant komt mijn aversie terug naar rasterization want als ze rtx weer aanzetten voelt het zoveel meer natuurlijk getrouw.
"Echte" raytracing zal nog wel even duren.

Nvidia heeft met RTX niets meer dan een marketing stunt uitgehaald. Vooral het denoisen wordt door die RT cores uitgevoerd.
Oké nu vind ik je echt slaplullen en tegen het arrogante aan, geef elkaar een beetje ruimte om een mening te houden zeg. Ik weet niet wat je achtergrond / specialisatie is maar je komt mij even vertellen hoe het in elkaar steekt. Heb zelf mijn achtergrond in gamedevelopment, ik weet waar ik over praat, heb aardig getrainde ogen voor graphics en zoals ik al mijn eerste comment aangaf: ik... ofwel wat ik vind / ervaar is wat ik belangrijk voor mijzelf vind. Dat jij een andere mening hebt, prima maar geef elkaar een beetje ruimte zeg. Ik ben veel meer gepleased met RTX omdat de raytracing voor mij veel natuurlijker, meer volume en prettiger kijkt dan het platte / fake rasterization.

[Reactie gewijzigd door Mic2000 op 16 maart 2019 18:12]

Je bent behoorlijk snel op je start getrapt merk ik.

"Getrainde ogen voor graphics", ik pis bijna in m'n broek van het lachen. En dat noemt mij arrogant? Meneertje heeft getrainde ogen voor graphics. Nou, poeh poeh, ik zou ze snel laten verzekeren.

Ik geef aan dat echte full scene raytracing nog even kan duren, en jij begint gelijk een relaas over je achtergrond en je getrainde ogen. Nou, veel plezier ermee hé!
Haha, ik heb inderdaad ook in m'n broek gepist, wat een arrogante kwal, bah.
Je bedoelt deze video? https://www.youtube.com/watch?v=-mEP5k_-zso

Ik zie daar niet dat ze zeggen dat het anders optimaler zou kunnen. Ik zie alleen een beschrijving van de verschillen (overigens wel heel interessant want ik heb geen RTX)
https://m.youtube.com/watch?v=CuoER1DwYLY

Hierzo.
De crux zit hem in het feit dat er bij Metro gekozen is om geen fallback manier van GI team implementeren. Het is dus of géén GI, of RTX. Terwijl er natuurlijk allang manieren zijn om GI te faken.
Bedankt, ik zal hem zo kijken.

Inderdaad heb ik ook al bepaalde situaties gemerkt waarvan je echt denkt 'had dit zo gemoeten'.. Denk dat het splitsen van de aandacht in RTX aan/uit omgevingen ook wel wat foutjes heeft opgeleverd die anders gewoon niet gebeurd waren. Een compleet ander lighting model maakt dat al helemaal een stuk moeilijker.

PS Ik snap die -1 niet zo want je hebt hele goede punten.
Dan kan al meer dan 10 jaar en gebeurt ook 8)7. Dat ze het bij Metro niet implementeren zoals Jeroenneman al aangeeft is gewoon het probleem van de ontwikkelaar die te lui is of er geen geld in wil steken.
onecht is de bedoeling van games, het is niet echt.
Dat zie ik anders. Mario games, ja graag onecht, vond odyssey in de grote mensen stad dan ook niet zo passend... Andere games vind ik echt zijn charme hebben. De supsense of disbelief was iig telkens gebroken bij mij door rasterization, terwijl bij raytracing merk ik dat dit de suspense behouden blijft...
Ik denk dat CryEngine de eerste engine wordt met deftige multi GPU support :) Ik geloof nooit dat dit realtime op een enkele GPU is gedaan tenminste.
Denk je werkelijk dat Crytek een demo vrijgeeft - waarin ze aangeven een enkele Vega 56 GPU - en dan stiekem een dikke videokaart gebruikt? Dat zou zo maar het einde van ze kunnen betekenen qua geloofwaardigheid.Misschien het stukje van Vipeas (bovenaan) eens lezen en daar je mening op baseren.
Overheen gelezen, zag dat in de video ook niet terug. Dan alleen maar indrukwekkender :)

Al hoop ik nog steeds op fatsoenlijke multi GPU support. Geen game engine heeft het nog.
Wat er alleen niet bij staat is dat het in real-time gerenderd was ;) De source is in 4K dus dat is al heftig genoeg voor een Vega 56 zelfs met traditionele technieken.

Edit: Bij de Youtube description staat het wel, alleen niet in de video zelf. Vreemd, je zou dat er toch wel bij zetten lijkt me? Blijft ook de vraag: waarom geven ze dan geen downloadbare demo uit?

Maar hoe dan ook kudos en ik hoop dat we dit gauw in een game terugzien. Ik denk ook niet dat dit 'het einde van RTX' is trouwens. Denk dat een RTX videokaart (mits ondersteuning daarvoor in deze engine) dit alleen maar makkelijker maakt. De komende jaren gaan heel interessant worden voor gamers.

Nu alleen de GPU prijzen nog naar een beetje normaal niveau... :X

[Reactie gewijzigd door GekkePrutser op 15 maart 2019 19:35]

multi gpu is dood, geen enkele game die er toe doet ondersteunt het nog.
Wat zijn dan de "games die er toe doen", volgens mij is dat namelijk vrij persoonlijk. De een vind de laatste Tombraider of Assasins Creed het beste ooit, de volgende gaat helemaal los in Fortnite / Apex / Pubg terwijl een ander bij wijze van spreken nog steeds iedere dag uren en uren in een WoW versie van 14 jaar steekt.

Ik kan bijvoorbeeld over mezelf zeggen dat ik een game als Fortnite of Apex Legends totaal niet relevant vind, terwijl er zeer veel gamers zijn die daar anders over denken :)
Het is geen CF/SLI. https://devblogs.microsof...d-making-it-work-for-you/
Genoeg systemen met 2 GPU's, waar er 1 bij de CPU opgeplakt zit. Zeker wel markt voor.

Als het ondersteund gaat worden krijgt mijn volgende CPU er ook een intergrated GPU bij.

UE kan het technisch, maar geen game die het gebruikt. Maar die kon jaren terug ook al raytracen.
dat is niet zo, support is niet zo goed als het misschien was of moet zijn maar zijn toch wel games die het ondersteunen


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True