Ratchet & Clank: Rift Apart voor pc ondersteunt nog geen raytracing op AMD-gpu's

Insomniac heeft Ratchet & Clank: Rift Apart op 26 juli uitgebracht voor de pc, maar dat is in eerste instantie zonder ondersteuning voor raytracing op systemen met een AMD-gpu. De ontwikkelaar zegt dat hij samenwerkt met AMD om de technologie later te gaan ondersteunen.

Ratchet clank rift apart pc specsOp een supportpagina geeft Insomniac geen verdere details over het gebrek aan raytracingondersteuning op AMD-videokaarten. Er staat alleen: "Raytracing op AMD-gpu's is bij release [van Ratchet & Clank: Rift Apart op de pc] uitgeschakeld. We werken nauw met AMD samen om zo snel mogelijk ondersteuning te gaan bieden." Het bedrijf geeft geen indicatie van wanneer dat moet gebeuren.

Ratchet & Clank: Rift Apart kwam oorspronkelijk in juni van 2021 op de PlayStation 5 uit en is op het moment van schrijven dus ook voor de pc beschikbaar. Voor raytracing raadt de ontwikkelaar aan om tenminste een Nvidia GeForce RTX 3070 te gebruiken in combinatie met DLSS. Onderaan de bovenstaande afbeelding benadrukt de ontwikkelaar dat informatie over raytracingondersteuning voor AMD-gpu's binnenkort wordt toegevoegd.

Naast raytracing ondersteunt de game ook Microsofts DirectStorage 1.2-technologie, waardoor assets niet door de cpu, maar door de gpu gedecomprimeerd worden. Er is mede dankzij de nieuwste versie van de technologie ook geen ssd vereist, al raadt Insomniac een ssd aan voor gamers die het spel ten minste met 60fps in 1080p op de medium-preset willen spelen.

Door Yannick Spinner

Redacteur

27-07-2023 • 13:48

57

Reacties (57)

Sorteer op:

Weergave:

Weer een prachtige port gedaan door Nixxes :)
Toen ik zag dat Nixxes eraan werkte stond mijn vertrouwen in de kwaliteit vast.

Ik heb de Spider-Man spellen gespeeld. Voor Miles Morales is nagenoeg perfect en tot in de puntjes afgewerkt. De integratie met de Steam controller API is uitmuntend bijvoorbeeld. En Nixxes heeft ook weer controller profielen gebouwd voor die functie, nog los van het spel. Die twee samen betekenen effectief dat de Nintendo Switch Pro controller nagenoeg perfect geïmplementeerd is in het spel.

Voeg daaraan ook toe dat het spel Deck ready was voor de launch en zo nog wat meer dingen, en ze hebben ronduit een nieuwe standaard gezet voor kwaliteit van ports.

Van zo'n studio kan het niet anders dan dat ook dit spel een geweldige port krijgt.
Jammer, was al aan het zoeken op YT naar RT performance van de 7900 XTX met Ratchet. Zelf twijfel ik nog tussen een 7900 XTX en 4080. 7900 XTX is meestal sneller in raster en 4080 is ten alle tijden sneller met RT. RT zal in deze game ook niet best zijn met de 7900 XTX, hoewel het wel mogelijk moet zijn op minimaal 30fps, net als de PS5. Er zit ook nog een prijsverschil tussen de 4080 en 7900 XTX. Dus dat weegt ook wel mee. De 4090 vind ik echt veel te duur voor wat je krijgt.
Ligt eraan, ga je puur voor grafische fidelity en neem je dan genoegen met 30 fps?

Voor mij persoonlijk is RT vaak een beetje overrated. In screenshots ziet het er schitterend uit, en in side-by sides zie je het verschil ook goed. Vaak vind ik de normale settings (die 60 fps+ opleveren) al dikke prima. Maar da's mijn persoonlijke mening.
Het grootste probleem met SSR reflecties wat een goed ray tracing implementatie fixt is dat de reflecties zomaar verdwijnen en weer verschijnen Als je dat eenmaal ziet kan je dat niet echt ontzien en dit stoort echt enorm. Er zijn manieren om dat met ssr beter te krijgen hoor maar verreist veel werk van artists omdat het een case-by-case basis is en werkt meestal alleen voor bepaalde perspectieven.
Dat is niet eens het ergste, als er iets voor de reflectie langsgaat blokkeert dat de reflectie ook, zoals met die zeilen op 0:30.
Als je een meer in het bos rendert en de bomen wat dichtbij het water plaatst krijg je amper nog reflecties te zien met SSR, drama.

Kan niet wachten tot path tracing deze ongein allemaal oplost en we gewoon kunnen bouwen wat we willen zonder dat er van alles breekt als je langs de verkeerde hoek kijkt. Komt ook nog eens bij dat veel materialen er veel beter uit zien dus win-win :)

[Reactie gewijzigd door Wolfos op 24 juli 2024 03:17]

Kan niet wachten tot path tracing deze ongein allemaal oplost en we gewoon kunnen bouwen wat we willen zonder dat er van alles breekt als je langs de verkeerde hoek kijkt.
Daar hoef je toch niet op te wachten? In het geval van TW3 is dat namelijk al opgelost met de RTX patch.
RTX levert nog niet helemaal de prestaties die we als ontwikkelaar zouden willen. Op consoles eigenlijk niet te doen. Ik verwacht dat de volgende generatie rond 2028 path tracing (I.E. Portal RTX, Cyberpunk Overdrive, Racer RTX) mogelijk gaat maken. Dan zijn deze problemen eigenlijk geheel opgelost.
Ja, wat men niet altijd door heeft is dat het aan de kant van de artists heel veel scheelt. Je bent dan veel minder dingen aan het oplappen en heb meer tijd om gewoon mooie contant te maken. Het is niet voor niets dat de filmindustrie op den duur ook naar ray- en path-tracing is overgegaan. We zitten nu in een gek tussenperiode waar game-engines beide technieken proberen te ondersteunen, wat de game-engines te complex maakt en meer buggy. Dus op dit moment werkt het haast averechts. Ik hoop dat de volgende generatie consoles veel inzet op ray-tracing zodat men eindelijk over kan stappen.
Mag helaas nog niet opvoten hier. Dit is nu precies wat ray-/path tracing doet. Realistische belichting / reflecties zonder dat de ontwikkelaar hier case by case voor hoeft te optimaliseren.

Een ontwikkelaar kan dezelfde kwaliteit leveren met 'oude' technieken maar dit kost simpelweg veel meer tijd en moeite.
Ligt ook erg aan de implementatie van het spel. Bij Control vond ik het een enorm verschil maken, maar bij Cyberpunk alweer een stuk minder. En dat is ook nog eens afhankelijk van jouw eigen smaak.
Duidelijk Overdrive niet aangezet (daaronder zijn het vooral reflecties in natte oppervlakten en glas, subtieler maar wel degelijk aanwezig.)
tjah dat is later er in gepatched.
Bij release klopt zijn bevinding gewoon, waar CP er zonder RT ook uitstekend uitziet.
Straight out of the box deed CP precies wat Control ook deed...
Dat was zijn hele punt niet.
Ligt ook erg aan de implementatie van het spel. Bij Control vond ik het een enorm verschil maken, maar bij Cyberpunk alweer een stuk minder
Wegens gebrek aan verdere context vind ik het knap als dat geen relevantie heeft. De implementatie is immers technisch soortgelijk (reflecties en enkele lichteffecten op moment van release)
Of gooien we het nu ineens op subjectiviteit van het eindresultaat?
Nou ja in principe is het wel leuk dat RT überhaupt bruikbaar is als je het een keer wilt gebruiken. Bij de 7900 XTX is dit naar mijn inziens op een uitzondering na niet het geval. De raster performance van de 4080 loopt vaak ook niet super ver achter, alhoewel het soms wel is 10-20 fps kan zijn tegenover de 7900 XTX. Dus is de 4080 een beter gebalanceerde kaart die raster en RT redelijk goed doet. Alleen, voor de prijs variërend van +/- 250-300 euro meer 4080 kaarten is dit echter weer niet het geval. Dus dat maakt het lastig.
Zelfs in side-by-side vergelijkingen zie ik het verschil vaak niet. Ik heb het in Elden Ring eens als test aangezet en ik merkte gewoon niks van verschil buiten de enorme impact op de FPS. Dus nee bedankt. Het is waarschijnlijk wel de toekomst van belichting, maar de impact is nu gewoonweg te groot.
4090 te duur ? De 4090 is juist de beste bang for buck kaart en de 4080 juist de slechtste van de gehele serie. Tuurlijk, het is een hoop geld maar de 3090 heeft ook 15 tot 1600 euro gekost.

En je hoeft natuurlijk niet de beste koeler te hebben met de 4000 serie dus een Inno3d kan ook meer dan prima. En de Inno3d heeft een reference pcb dus dat zit wel goed.

En vergeet vooral niet DLSS3.0 (frame generation) die je nog eens het dubbele performance geeft zowel raster als met RT.

[Reactie gewijzigd door Jeroentjeeuh op 24 juli 2024 03:17]

Ja, heel veel mensen vinden de 4090 inderdaad te duur. Bang for buck maakt geen moer uit als je geen 1600+ euro voor een gpu (over) hebt.

Ik snap ook niet zo goed dat ik deze reactie moet typen..? Wanneer is meer dan 1600 euro ineens "normaal" geworden? Dat is bij een modaal inkomen (2700ish netto) bijna 2/3e maandsalaris. De meeste mensen hebben wel wat anders te doen met hun geld...
Nouja, als je van plan bent om voor een 4080 te gaan waarom niet door sparen voor een 4090 of gewoon een 4090 aankopen. Je krijgt meer fps voor je geld en dat bedoelde ik ermee.

En daarbij mag een hobby wat kosten. Je kan ver van te voren toch al iets aan de kant leggen waar je later plezier van kan hebben ?

Gelukkig hebben we allemaal een meningsverschil en zijn we anders, anders is het ook zo saai.
Je krijgt meer fps voor je geld en dat bedoelde ik ermee.
Je betaald ook 25% meer, maar je krijgt niet 25% meer performance.

De 4090 en 4080 zijn overigens allebei vrij slechte "bang for the buck" kaarten, per FPS zijn het hele dure kaarten vergeleken met mid range en budget kaarten.

Daarnaast is de 4080 goedkoper per frame dan de 4090, oftewel een betere "bang for the buck":
https://www.reddit.com/r/...ents/zr92q6/4080_vs_4090/

De 4090 is zeker sneller, maar is ook aanzienlijk duurder.

Mijn 3080 heeft me vrij kort na launch ~730 euro nieuw gekost, en een 4080 kost nu ongeveer het dubbele. Desalniettemin biedt de 4080 maar ~50% meer performance, terwijl je ongeveer 2x zoveel betaald. Slechte bang for the buck.

Overigens zou ik zelf graag een 5090 of 6090 hebben tegen de tijd dat ik ga upgraden, ongetwijfeld dat het weer een flinke stap in performance gaat zijn. Denk alleen dat het waarschijnlijk toch een 5080 of 6080 gaat worden, vanwege de betere prijs/performance.
Ik weet niet waar voor benchmarks jij kijkt (vooral niet hier op Tweakers wezen in iedergeval) en of de 4090 sneller is dan 25%!

https://tech4gamers.com/rtx-4080-vs-rtx-4090/

[Reactie gewijzigd door Jeroentjeeuh op 24 juli 2024 03:17]

Ook met dat artikel blijft het punt van @drdelta nog staan dat de prijs-prestatieverhouding van de RTX 4080 minder slecht is dan van de RTX 4090.
vooral niet hier op Tweakers wezen in iedergeval
Vertel, waarom niet? Als ik jouw artikel lees dan ben ik in ieder geval niet onder de indruk:
NVIDIA lists the RTX 4090 at $1,599 and the RTX 4080 at $1,199, which means the RTX 4080 is a little more than 33.4% cheaper than the RTX 4090.
Ze begrijpen niet hoe percentages werken, want de RTX 4080 is met die cijfers 25% goedkoper dan de RTX 4090, en andersom is de RTX 4090 dan (bijna, niet 'iets meer dan' zoals ze stellen) 33,4% duurder dan de RTX 4080.
Process Size 4 nm
Fout, Ada Lovelace-gpu's worden op een 5nm-proces bij TSMC genaamd '4N' gemaakt.
The temperature was at 60 degrees Celsius for both cards, which shows that the RTX 4090 produces less energy despite using more power.
Ehh, hier zouden een paar lessen natuurkunde geen kwaad kunnen |:(
in our tests, we found that the RTX 4090 uses 23% more power from the motherboard than the RTX 4080
Wie denkt dat een videokaart z'n totale vermogen uit het moederbord haalt, zou geen videokaarten moeten reviewen. Doe jezelf een plezier en gebruik (meerdere) betrouwbare bronnen voor informatie over hardware, waaronder Tweakers. Tenzij jij een valide argument hebt waarom iemand dat niet zou moeten doen.
Bedankt voor je comment! Ik vind het vooral grappig dat @Jeroentjeeuh commentaar heeft op mijn bronnen, maar gebruikt vervolgens ook niet Tweakers om zijn punt te bewijzen :9
Wie denkt dat een videokaart z'n totale vermogen uit het moederbord haalt, zou geen videokaarten moeten reviewen.
Het "artikel" is inderdaad behoorlijk slecht, inhoudelijk en technisch klopt het gewoon niet.

Ik ben overigens wel benieuwd hoe de power draw priority op een video kaart werkt, trekt een video kaart eerst 75W uit het PCIE slot, en daarna uit de 6-8 pinnen die er op zitten? Of juist andersom. Technisch zou het wellicht kunnen dat de 4090 minder % van zijn stroom uit de pinnen trekt, en meer over de PCIE slot. Maar goed, als dat zo was, hadden ze dat wel zo geschreven. Nu staat het er gewoon fout.
Ja, die 4080 is vooral te duur (had rond de 800 moeten blijven zitten), die 4090 is vooral praktisch als je het kunt gebruiken voor meer dan je games.
Als je bedenkt dat een 4090 niet meer dan 300-400 waard is. Is tie veel te duur.
Nou ja, de 7900 XTX biedt de meeste waarde in vergelijking met zowel de 4080 als de 4090. De 4090 bied misschien meer waarde tegenover de 4080 inderdaad en misschien de meeste waarde als je RT gebruikt inderdaad.
Ook in Raster is de 4090 veel interessanter dan de 7900xtx, als je op 4k gamed en gebruik van frame generation kan maken. En tegenwoordig heb je oled panelen met 120hz dus een fps rond de 120 of hoger is ook wel lekker.

Al lijkt frame generation ook makkelijk inzetbaar te zijn als een mod aangezien AMD nu alles aan het dicht gooien is.
Natuurlijk is dat interessant, maar de 7900 XTX heeft betere prestaties per euro dan de 4090 op raster. Sterker nog in bepaalde games, zoals MW2 ontloopt het elkaar niet eens zo veel en is in sommige situaties de 7900 XTX sneller.

Maar is dit dan bijvoorbeeld een goede kaart?

uitvoering: PNY GeForce RTX 4090 24GB TF Verto Edition

[Reactie gewijzigd door CerandoX.nl op 24 juli 2024 03:17]

Je hebt daar zeker een punt als je bepaalde games gamed en niet all rounded bent dan is AMD zeker geen slechte keuze.

Maar kijk je naar Hogwarts en of jedi survivor dan wordt het een ander verhaal. En FG wordt alleen maar breder.

Hogwarts: https://youtu.be/CTotMcGUj5A?t=52
Jedi survivor: https://youtu.be/td9QKn6w908?t=257

Is niks mis mee aangezien het een reference pcb betreft maar de fan speelt hier de hoofdrol. Tuurlijk, zal het iets van een lawaai kunnen maken op bepaalde settings maar op auto dan is die onhoorbaar maar wordt die ook ietsje warmer.

Aangezien de 4000 serie een overkill aan koeling heeft (Aangezien er eerst sprake was van 600watt) hebben ze dit dan toch door gezet.

Dusja, opzich geen slechte kaart.
Als ray tracing iets is waar je van geniet dan lijkt me Nvidia een betere keuze. Ik heb zelf een 4090, een game als Cyberpunk 2077 draait fantastisch in 4k mét de nieuwe path tracing settings (insane gaaf, moet je maar eens googlen). Dat kan helaas nog niet met AMD videokaarten. (Al hoop ik dat AMD het verschil de volgende generatie eindelijk goed gaat maken).

[Reactie gewijzigd door DLSS op 24 juli 2024 03:17]

Het is wel ironisch dat deze game geen AMD RT ondersteunt op PC, terwijl het in de basis een game is die werkte op AMD hardware, met RT :+
Inderdaad ironisch, al is er natuurlijk wel een aanzienlijk verschil tussen ondersteuning op één AMD-gpu in de PS5 en raytracing op alle high-end consumenten-gpu's van AMD.
Het blijft opmerkelijk. Je zou verwachten dat de PS5 implementatie gewoon compatibel is met overige RX6000 GPU's en nieuwer.

Maar mogelijk hebben ze een manier gevonden om de PS5 implementatie te verbeteren voor PC AMD hardware, waardoor het zonde is AMD gebruikers eerst op te zadelen met een inferieur path en negatieve commentaren in reviews te krijgen, terwijl een betere manier nog in ontwikkeling is.

Ben benieuwd :)
Mijn gok is dat de PS5 ook geen algemene AMD driver draait, maar een die speciaal ontworpen is voor de PS5, met aparte grafische libraries. Dan mag je ray-tracing eigenlijk gewoon helemaal opnieuw implementeren voor PC. Sterker nog dat lijkt me vrij zeker, de PS5 gebruikt hun eigen AGC API, waarover nog een GNM Portability layer draait voor PS4 games. Geen DirectX of Vulkan ofzo dus.
Jammer dat deze release toch niet echt perfect is. De ray tracing implementatie is eigenlijk slechter dan die van de PS5. En werkt sowieso niet op AMD. Textures worden regelmatig niet goed ingeladen. DLSS3 Frame-Gen implementatie lijkt ook erg slecht. En hij kan ook zwaar stotteren of zelfs crashen op low end systemen.

Ik weet niet waarom ze deze niet gewoon hadden uitgesteld, hij komt toch alleen voor de PC nu uit, waarom nu al uitbrengen als hij daarop nog niet goed draait?

Naja hij is tenminste wel al in een betere staat dan veel andere PC ports van de laatste tijd. Hopelijk kunnen ze de laatste dingen daadwerkelijk fixen. TLOU is nu ook in een veel betere staat dan na release.
En hij kan ook zwaar stotteren of zelfs crashen op low end systemen.
Uit ervaring kan ik zeggen dat hij niet alleen op low end systemen crashed. Zelf heb ik een Ryzen 9 5900X icm 32GB ram en een RTX 4080 en ik heb op een half uur spelen 2 crashes en een hoop onstabiliteit ervaren.

De eerste crash was bij de start van de game. Opnieuw gestart en dan kwam hij er wel voorbij. Vervolgens bij de openings scene van het spel zat er enorm veel delay in. Het beeld bevroor, geluid ging door, en na een 10 tal seconden probeerde het beeld het geluid terug bij te halen door enorm versneld af te spelen.

Eens uit de cutscenes draaide het spel relatief soepel met alle settings op high, DLSS op kwaliteit en ray tracing op medium haalde ik toch tussen de 80-130 fps afhankelijk van de omgeving en actie.

De tweede crash kwam dan weer tijdens een cutscene. Hier lijkt het enorm mis te lopen gewoon..

Aangezien ik echt naar deze release had uitgekeken ben ik toch wel teleurgesteld dat het toch weer van dat is..

Update:

Have you tried turning it off and on again is toch wel key geweest hier. Tweede dag dat ik het spel speelde heb ik de settings helemaal opgedreven omdat op youtube anderen met een RTX 4080 dit ook konden. Alles zo hoog als het maar kon en het spel draaide stabiel tussen 140 tot 200 fps. Niet één crash en zelfs geen stottering in de cutscenes.

Ik ben dus te voorbarig geweest in mijn commentaar. Als het goed is mag het ook gezegd worden.

[Reactie gewijzigd door Mancunian4 op 24 juli 2024 03:17]

Tja, vanwege dit soort ellende koop ik AAA games al lange tijd na ongeveer een jaar - soms nog langer. De meeste bugs zijn eruit en vaak heb je dan een GotY met alle DLC voor een zwaar gereduceerde prijs.

Kwestie van geduld hebben.

Deze game ga ik zeker spelen op mijn Steam Deck of nog aan te schaffen PS5 Pro.
Ik geef je geen ongelijk, maar na de anticipatie kan ik vaak niet meer wachten. Cyberpunk, Star Wars, God of War en nu Ratchet and Clank, allemaal vanaf dag één gespeeld omdat ik het geduld gewoon niet heb, maar dit is het eerste spel waar ik zoveel ellende mee heb, zelfs Cyberpunk had niet zoveel crashes als dit spel.
In de laatste AMD release notes (ik ben zelf een NVidia gebruiker) staat:
"AMD is working with the game developers of Ratchet & Clank™: Rift Apart to resolve some stability issues when Ray-Tracing is enabled."

Dus waarschijnlijk is het alleen at launch uitgezet omdat ze het niet op tijd stabiel kregen.
Use of performance enhancing upscaling like DLSS is recommended when using ray-traced reflections

Maar als ik goed lees, heeft de game enkel 'optimized' DLSS3.0, die exclusief is aan de 40xx series, dus ik weet niet of hun claim nog steeds op gaat bij RT op de 30xx of zelfs 20xx.
DLSS 3.0 is niet exclusief voor 40xx GPU’s. Maar de marketing is ook een beetje verwarrend. DLSS3 bevat frame-gen, dat is exclusief voor de 40xx series. Maar de normale DLSS up scaling werkt gewoon ook op de 30 en 20xx series.
Normale DLSS is toch 2.0?
DLSS 2.x = upscaling
DLSS 3.x = upscaling + frame-generatie.

De upscaling in 3.x zal soortgelijk zijn aan die in 2.x, en beide werken op 20-, 30- en 40-serie Nvidia GPU's. Het deel van DLSS 3.x dat de frame-generatie doet, is echter alleen beschikbaar op de 40-serie.
Inmiddels DLSS op versie op 3.1.13. Volgens. Ik noem het maar DLSS v2 3.1.13 want het word zo wat verwarrend omdat frame generator in eerste instantie ook DLSS 3.0 werd genoemd terwijl frame generator helemaal los staat van DLSS.

https://www.google.nl/amp...ad/nvidia-dlss-dll/%3famp
Oh ja, dat is wel lekker verwarrend. Dan zitten er wel leuk updates voor DLSS 2.0 in 3.1.13, maar het heeft niet de 3.0 functies. Dus eigenlijk kloppen dan geen van de nummers inderdaad.

Dan is jouw methode wel iets duidelijker.
Wat gewoon backwards compatible zou moeten zijn naar wat ik lees / herinner?
Je mist dan alleen op de oudere kaarten ofcourse wel de frame-gen functie wat juist het selling point is van de 40xx serie
mijn 1080ti heeft toch geen raytracing, en de game draait prima! Super blij dat deze op PC is! :D Ben blij dat ze de game gewoon uitgebracht hebben, niet iedereen maakt raytracing wat uit. Game ziet er ook prachting uit zonder raytracing :)
mijn 1080ti
Thanks voor bevestiging, wou m al aanschaffen, ook voor de kids om op TV te spelen, maar heb ook de 1080ti.
Zouden ze dan een specifieke implementatie voor AMD doen met RT? Als je namelijk kijkt wat de huidige trend is in games. Dan zie je dat spellen waar Nvidia de sponsor van is de RT vaak dermatig zwaar is dat het eigenlijk altijd slecht draait op AMD hardware; als je dan kijkt naar AMD titels dan is de RT implementatie vaak een stuk lichter en komen AMD gpu's erg goed mee.
Doet mij een beetje aan Nviidia Gamewrecks titels denken waar tesselation zo hoog stond dat het nutteloos werd en het op AMD kaarten niet meer goed draaide.

AMD heeft nu sowieso nog steeds tragere RT dan Nvidia; maar volgens mij hebben beide architecturen hun sterke en zwakke punten. Dus een specifieke implementatie zou niet eens zo raar zijn.
Zet RT maar ern voluit aan in The Callisto Protocol. AMD gamewrecks titels doen het helaas niet veel beter. Misschien ligt het helemaal niet Nvidia en AMD maar aan de game ontwikkelaars?

https://www.guru3d.com/ar...e-benchmark-review,4.html
Zet RT maar ern voluit aan in The Callisto Protocol. AMD gamewrecks titels doen het helaas niet veel beter. Misschien ligt het helemaal niet Nvidia en AMD maar aan de game ontwikkelaars?

https://www.guru3d.com/ar...e-benchmark-review,4.html
Je mag wat mij betreft best commentaar hebben op een gesponserde titel of AMD; maar zorg dan wel dat het correct is of pak een makkelijk onderwerp zoals de bar slechte marketing van AMD :P.

Bij The Callisto Protocol is de developer verantwoordelijk voor de implementatie en maken ze waarschijnlijk gebruik van de GPUOpen code (die open source is). Voorheen was dit bij Gameworks anders; je kreeg namelijk een gesloten DLL van Nvidia waar je tegen aan moet praten, er viel dus niks te optimaliseren.
Volgens mij was bij Nvidia de laatste stand van zaken dat developers wel de code kregen van de Gameworks SDK, maar dat het dus nog niet opoen source is (zit een groot verschil tussen).
Dat was vroeger. DXR is ook een openstandaard van Microsoft DX12 in samenwerking met AMD en Nvidia. Nvidia krijgt nog al makkelijk de schuld van slechte RT prestaties op AMD hardware, zelfs als het een AMD sponsored game is die gebruik maakt van DXR.

Edit.

DXR is overigens niet meer te vergelijken met Gameworks, dus titels waar bij raytracing brak draaid ligt niet aan Nvidia of AMD. Voor DX12 titels bestaat momenteel alleen DXR voor zo ver ik weet.

[Reactie gewijzigd door 3DEXP op 24 juli 2024 03:17]

Prachtige game en loopt stabiel 60fps op 4k met raytracing op een 12900K en RTX 3090

Goede PC port
Goede PC port
Dat kun je wel aan Nixxis overlaten ja.

Loopt hier ook super op 1440p alles High + RayTracing op High rond de 110 FPS. Op 4K moet ik teveel FPS inleveren, en op mijn 55 inch TV zie ik het verschil amper. 11900K + 3080 + NVME
Jammer, dan maar even wachten met mn XTX

Op dit item kan niet meer gereageerd worden.