Door Reinoud Dik

Redacteur

Benchmark: The Callisto Protocol op pc

Hoge hartslag, lage framerate

28-12-2022 • 06:01

110

Multipage-opmaak

Intro

The Callisto Protocol is een survival-horrorgame die grafisch indrukwekkende beelden neerzet. Zo zijn de gezichtsanimaties erg goed, waardoor het verhaal overtuigender binnenkomt. Kortgeleden bespraken we de inhoudelijke kant van de game; in dit artikel lees je meer over de prestaties van de pc-versie.

The Callisto Protocol draait om de planeet Callisto en ruimtepiloot Jacob Lee, gespeeld door acteur Josh Duhamel. Het spel speelt zich af in 2320 en begint wanneer Jacob en zijn partner worden aangevallen terwijl ze een mysterieus, gevaarlijk goedje aan het transporteren zijn. Door de aanval stort hun schip neer op Callisto. Tot zijn eigen verbazing wordt hij daar in de boeien geslagen en meegevoerd naar de Black Iron Prison. Hij probeert uit te leggen dat hij onschuldig is en daar niet hoort, maar daar heeft niemand een boodschap aan. Dan blijkt dat er een mysterieuze ziekte rondgaat in de gevangenis, die zowel gevangenen als bewaarders in zombieachtige wezens verandert. In het spel probeer je uit het gevangeniscomplex te ontsnappen en meer te leren over de uitbraak en wie er verantwoordelijk voor zijn.

The Callisto Protocol draait op de Unreal 4-engine en maakt gebruik van FSR 2 voor eventuele upscaling. DLSS wordt niet ondersteund, maar omdat elke videokaart gebruik kan maken van FSR, wordt er geen groep pc-gamers buitengesloten. Het spel draait zowel op DirectX 11 als 12, maar alleen met die laatste kan de ondersteunde raytracing ingeschakeld worden. The Callisto Protocol is primair voor de nieuwste generatie consoles ontwikkeld, maar is ook voor de vorige generatie Xbox en PlayStation beschikbaar. Hoewel het spel dus draait op negen jaar oude hardware, is de versie voor de pc niet bepaald een lichte game, zoals we op de komende pagina's zullen zien.

Systeemvereisten en testmethode

De systeemvereisten voor The Callisto Protocol zijn opgedeeld in minimum en aanbevolen specificaties.

De minimum specificaties bestaan uit een GTX 1060 6GB of RX 580 als videokaart, wat toevallig de kaarten zijn die ik voor de instap-pc in deze vergelijking gebruik. De vereiste Core i5 8400 uit Intels Coffee Lake-generatie beschikt over zes cores en threads, terwijl het alternatief in de vorm van de Ryzen 5 2600 twaalf threads heeft, al is die Ryzen-processor in games doorgaans iets langzamer. De vereiste 8GB aan werkgeheugen is eind 2022 bescheiden te noemen. De genoemde opslagruimte van 75GB is ook geen uitzondering voor moderne games, en met het oog op de kwaliteit van textures en algehele grafische kwaliteit die we verderop bespreken, is de compressie haast indrukwekkend.

De aanbevolen specificaties vallen eigenlijk alleen op door de genoemde videokaarten. De GTX 1070 van Nvidia is van een oudere generatie dan de RX 5700 van AMD, en laatstgenoemde gpu is gemiddeld zo'n 20 procent sneller.

The Callisto Protocol-pc-specs Minimum Aanbevolen
Gpu GeForce GTX 1060 of Radeon RX 580 GeForce GTX 1070 of Radeon RX 5700
Cpu Core i5-8400 of Ryzen 5 2600 Core i7-8700 of Ryzen 5 3600
Werkgeheugen 8GB 16GB
Besturingssysteem Windows 10 64bit Windows 10 64bit
Opslag 75GB hdd 75GB ssd

Onze nieuwe testsystemen

Voor het draaien van gamebenchmarks hebben we recentelijk een nieuwe opzet uitgewerkt. In plaats van een reeks videokaarten van allerlei prestatieniveaus op een uiterst high-end systeem te testen en te vergelijken, gaan we prestaties in pc-games vanaf nu meten met vier referentiesystemen. De processor, de videokaart en het geheugen van deze systemen zijn uitgekozen op basis van wat populaire en veelvoorkomende configuraties zijn volgens onder andere de Steam Hardware Survey. Daar zit ook oudere hardware bij, zoals de GTX 1060 die in 2016 uitkwam, maar nog steeds erg populair is volgens de cijfers van Steam.

Voor de videokaarten gebruiken we per systeem gpu's van AMD en Nvidia van dezelfde generatie die wat prestaties betreft erg dicht bij elkaar zitten, om zo ook de verhoudingen van deze fabrikanten te kunnen vergelijken. Per systeem verschilt wel de generatie van de grafische chips, waardoor we een beeld krijgen van de gameprestaties op uiteenlopende gpu-architecturen. Bij de processorselectie hebben we primair de rekenkracht en gemiddelde gamingprestaties goed laten aansluiten op de overige hardware, in plaats van een uiterst snel model dat pc-gamers met onderstaande videokaarten niet zo snel in een eigen pc hebben zitten.

The Callisto Protocol is getest met de gamepatch van 15 december. Voor de videokaarten zijn GeForce-driver 527.37 en Radeon-driver 22.11.2 gebruikt, met de RX 7900 XTX als enige uitzondering die op 22.12.1 werd getest. Voor de vergelijking is gebruik gemaakt van de ingebouwde benchmark van het spel. Met de huidige patch liggen de framerates bij de ingebouwde benchmark ongeveer 10 procent hoger dan de grafisch zwaardere delen tijdens het daadwerkelijk spelen van de game.

De prestaties op de komende pagina's zijn opgedeeld in drie stukken. Allereerst wordt in een tabel een overzicht gegeven van de gemiddelde framerates, samen met van de frametimes het 95e en 99e percentiel. Voor een uitgebreidere analyse is de volledige log van frame times daaronder zichtbaar in een tijdgrafiek. En als laatste is er een percentielgrafiek die een overzicht over de consistentie van deze frametimes geeft.

Testsystemen voor benchmarks pc-games 'Instapgame-pc' (1080p) 'Midrange game-pc' (1440p) 'High-end game-pc' (4k) 'Ultrahigh-end game-pc' (4k+)
Cpu AMD Ryzen 5 3600X AMD Ryzen 7 5700X Intel Core i9-13900K (@5,5GHz allcore)
Grafische kaarten
  • GeForce GTX 1060 6GB
  • Radeon RX 580 8GB
  • GeForce RTX 2070 Super
  • Radeon RX 5700XT
  • GeForce RTX 3080 10GB
  • Radeon RX 6800 XT
  • GeForce RTX 4080
  • Radeon RX 7900 XTX
Werkgeheugen 16GB DDR4-3200CL14 16GB DDR4-3600CL16 32GB DDR5-7200CL34
Processorkoeler Noctua NH-U12S Noctua NH-U12S SE-AM4 Alphacool Eisblock XPX, Alphacool XT45 480mm-radiator, Alphacool D5-waterpomp, be quiet Pure Wings 2-ventilators
Moederbord MSI MEG X570 Godlike (Agesa 1.2.0.7) MSI MEG X570 Godlike (Agesa 1.2.0.7) Gigabyte Aorus Z790 Master
Voeding Seasonic Focus GX-650 Seasonic Prime GX-750 FSP Hydro PTM Pro ATX3.0 1200W
Opslag Samsung 970 Evo Plus 500GB Samsung 970 Evo Plus 500GB Silicon Power XS70 4TB
Besturingssysteem Windows 11 Pro Windows 11 Pro Windows 11 Pro

Vergelijkingsscreenshots

In de pc-versie van The Callisto Protocol zijn een hele reeks grafische instellingen naar wens aan te passen. Met de verschillende presets worden deze settings gezamelijk aangepast. Bij alle presets activeert het spel automatisch FSR 2. Voor de benchmarks van dit artikel hebben we FSR 2 zowel in- als uitgeschakeld getest bij de presets, maar daarbij is met FSR ingeschakeld wel gekozen voor de Quality Mode. Het spel gebruikt de Balanced Mode bij de medium- en high-presets. Opvallend is daarbij dat de high-preset met FSR op Quality Mode gelijk is aan de ultra-preset.

In de vergelijkingen tussen de presets is relatief weinig verschil in grafische kwaliteit te zien. De stap vanaf medium naar high levert nog wat betere textures, maar tussen high en ultra zitten amper goed zichtbare verschillen. Ook het inschakelen van raytracing levert in de meeste scenario's slechts een bescheiden extra reflectie op, maar dat heeft vooral te maken met de grotendeels donkere omgevingen in de game.

De laatste reeks screenshots onderaan deze pagina zijn gemaakt tijdens de intro van het spel. Als speler moet je in het neerstortende schip proberen de cockpit te bereiken. Het beeld beweegt erg onrustig tijdens dit stuk, en deze screenshots wekken de indruk dat FSR bij deze snelle bewegingen niet altijd consistente resultaten neerzet. Zo is op medium de kwaliteit textures vergelijkbaar met FSR in- en uitgeschakeld, terwijl bij ultra er minder detail zichtbaar is met FSR. De high-preset zonder FSR laat echter dezelfde beperkte kwaliteit zien, wat betekent dat het probleem bij de game zelf vandaan komt. Met het meermaals inladen van een level gaat dit uiteindelijk wel goed, maar daarbij kan het alsnog even duren voordat de hogere kwaliteit textures daadwerkelijk zichtbaar zijn.

The Callisto ProtocolThe Callisto ProtocolThe Callisto ProtocolThe Callisto ProtocolThe Callisto ProtocolThe Callisto ProtocolThe Callisto Protocol
The Callisto ProtocolThe Callisto ProtocolThe Callisto ProtocolThe Callisto ProtocolThe Callisto ProtocolThe Callisto ProtocolThe Callisto Protocol
The Callisto ProtocolThe Callisto ProtocolThe Callisto ProtocolThe Callisto ProtocolThe Callisto ProtocolThe Callisto ProtocolThe Callisto Protocol
The Callisto ProtocolThe Callisto ProtocolThe Callisto ProtocolThe Callisto ProtocolThe Callisto Protocol

Prestaties instap-pc

Op onze instapgame-pc testen we op 1080p-resolutie, waarvoor we zowel de GeForce GTX 1060 6GB als de Radeon RX 580 8GB gebruiken. Dit draaien we in combinatie met een Ryzen 5 3600X en 16GB DDR4-3200-geheugen.

Gemiddelde framerates bij presets

In The Callisto Protocol is de RX 580 duidelijk sneller dan de GTX 1060. Op alle geteste presets en instellingen is AMD's kaart de winnaar, waarbij opvalt dat de RX 580 veel meer voordeel haalt uit FSR dan de GTX 1060. Op medium komt met het inschakelen van FSR de Radeon-kaart op een 38 procent hogere framerate uit, terwijl Nvidia's model hier tot 10 procent prestatiewinst is beperkt. Op ultra is de winst in beide gevallen kleiner, maar ook hier naar verhouding duidelijk groter voor AMD.

  • Ultra
  • Ultra+FSR
  • High
  • Medium
  • Medium+FSR
1080p RX 580 8GB GTX 1060 6GB
Gemiddelde framerate 32fps 25,5fps
95e percentiel 57,5ms 72ms
99e percentiel 67,5ms 106ms
1080p RX 580 8GB GTX 1060 6GB
Gemiddelde framerate 38,5fps 26,5fps
95e percentiel 49,4ms 69,5ms
99e percentiel 58,5ms 109,5ms
1080p RX 580 8GB GTX 1060 6GB
Gemiddelde framerate 32,3fps 25,2fps
95e percentiel 56,6ms 74,9ms
99e percentiel 66,3ms 113,9ms
1080p RX 580 8GB GTX 1060 6GB
Gemiddelde framerate 52,4fps 40,7fps
95e percentiel 35ms 43,8ms
99e percentiel 38ms 66,4ms
1080p RX 580 8GB GTX 1060 6GB
Gemiddelde framerate 72fps 44fps
95e percentiel 42,1ms 25,2ms
99e percentiel 29,6ms 63ms

Frametimes

Als we onze frametimelog nader bekijken, valt op dat de GTX 1060 op ultra en op high last heeft van flinke stotters, wat bij de RX 580 niet het geval is. De GeForce-kaart loopt zelfs op medium-instellingen niet helemaal lekker, al gaat het voor een groter deel van de benchmark wel een stuk soepeler dan op de hogere presets. In de hogere percentielen blijft de achterstand van de GTX 1060 op de RX 580 bij alle presets wel aanzienlijk.

  • Ultra
  • Ultra+FSR
  • High
  • Medium
  • Medium+FSR
1080pUltra
1080pUltraFSR
1080pHigh
1080pMedium
1080pMediumFSR
  • Ultra
  • Ultra+FSR
  • High
  • Medium
  • Medium+FSR
The Callisto Protocol 1080p Ultra
The Callisto Protocol 1080p Ultra FSR
The Callisto Protocol 1080p High
The Callisto Protocol 1080p Medium
The Callisto Protocol 1080p Medium FSR

Prestaties midrange pc

Op onze midrange game-pc testen we op 1440p-resolutie, waarvoor we zowel de GeForce RTX 2070 Super als de Radeon RX 5700 XT gebruiken. Dit draaien we in combinatie met een Ryzen 7 5700X en 16GB DDR4-3600-geheugen.

Gemiddelde framerates bij presets

Tussen de RTX 2070 Super en RX 5700 XT is het in The Callisto Protocol aardig gelijkspel. Beide kaarten presteren op de verschillende presets bijna hetzelfde, behalve met FSR ingeschakeld. In dat geval wint de AMD-kaart meer frames dan zijn Nvidia-tegenhanger, net zoals we op de vorige pagina bij de RX 580 en GTX 1060 zagen. Op de medium-preset zonder FSR zien we als enige keer de RTX 2070 Super een noemenswaardig hogere gemiddelde framerate neerzetten dan de RX 5700 XT.

  • Ultra
  • Ultra+FSR
  • High
  • Medium
  • Medium+FSR
1440p RX 5700 XT RTX 2070 Super
Gemiddelde framerate 49,3fps 50,7fps
95e percentiel 37,3ms 36,7ms
99e percentiel 60ms 51,8ms
1440p RX 5700 XT RTX 2070 Super
Gemiddelde framerate 64,7fps 53fps
95e percentiel 28,6ms 35,8ms
99e percentiel 31,4ms 52,6ms
1440p RX 5700 XT RTX 2070 Super
Gemiddelde framerate 49,6fps 50,4fps
95e percentiel 36,8ms 36,7ms
99e percentiel 63ms 52,6ms
1440p RX 5700 XT RTX 2070 Super
Gemiddelde framerate 71fps 76fps
95e percentiel 24,9ms 23,8ms
99e percentiel 38,7ms 34,7ms
1440p RX 5700 XT RTX 2070 Super
Gemiddelde framerate 107fps 81,5fps
95e percentiel 16,5ms 22,9ms
99e percentiel 17,5ms 33,1ms

Frametimes

Als we verder kijken dan de gemiddelde framerate door de frametimelog onder de loep te nemen, dan zien we dat de RX 5700 XT zonder FSR last heeft van een reeks stotters rond de tien seconden in de benchmark. De RTX 2070 Super is hier ook niet geheel ongevoelig voor, maar de stotters zijn op Nvidia's kaart iets minder uitgesproken. Daar staat dus tegenover dat AMD's kaart met FSR ingeschakeld een flinke winst boekt, ook wat frametimes betreft. Die zijn dan plots een stuk strakker op de RX 5700 XT, terwijl de RTX 2070 hier niet zoveel voordeel uit haalt.

  • Ultra
  • Ultra+FSR
  • High
  • Medium
  • Medium+FSR
1440pUltra
1440pUltraFSR
1440pHigh
1440pMedium
1440pMediumFSR
  • Ultra
  • Ultra+FSR
  • High
  • Medium
  • Medium+FSR
The Callisto Protocol 1440p Ultra
The Callisto Protocol 1440p Ultra FSR
The Callisto Protocol 1440p High
The Callisto Protocol 1440p Medium
The Callisto Protocol 1440p Medium FSR

Prestaties high-end pc

Op onze high-end game-pc testen we op 4k-resolutie, waarvoor we zowel de GeForce RTX 3080 10GB als de Radeon RX 6800 XT gebruiken. Dit draaien we in combinatie met een overgeklokte Intel Core i9 13900K met 32GB DDR5-7200-geheugen.

Gemiddelde framerates bij presets

In tegenstelling tot de eerder besproken videokaarten wordt de strijd tussen de RTX 3080 en RX 6800 XT in The Callisto Protocol consistent nipt gewonnen door Nvidia. De RTX 3080 is marginaal sneller dan de concurrent van Nvidia, ook als FSR is ingeschakeld. Waar de GTX 1060 en RTX 2070 Super relatief weinig prestatiewinst zagen met het gebruik van FSR, is dat bij de RTX 3080 anders. Net als de RX 6800 XT gaat de gemiddelde framerate er duidelijk door omhoog. Beide kaarten zetten zelfs op ultra-instellingen met FSR nette framerates neer.

  • Ultra
  • Ultra+FSR
  • High
  • Medium
  • Medium+FSR
2160p RX 6800 XT RTX 3080 10GB
Gemiddelde framerate 53fps 55,8fps
95e percentiel 34,1ms 31,9ms
99e percentiel 56,4ms 52ms
2160p RX 6800 XT RTX 3080 10GB
Gemiddelde framerate 71,9fps 75,3fps
95e percentiel 23,7ms 22,5ms
99e percentiel 38,7ms 32,9ms
2160p RX 6800 XT RTX 3080 10GB
Gemiddelde framerate 53ps 55,7fps
95e percentiel 34,1ms 32,3ms
99e percentiel 55,7ms 50,3ms
2160p RX 6800 XT RTX 3080 10GB
Gemiddelde framerate 70,4fps 74,7fps
95e percentiel 25ms 24,3ms
99e percentiel 39,7ms 38,8ms
2160p RX 6800 XT RTX 3080 10GB
Gemiddelde framerate 104,8fps 107,8fps
95e percentiel 15,9ms 15,7ms
99e percentiel 23,1ms 22,2ms

Frametimes

In de frametimelog lijkt het vooral dramatisch voor AMD, maar Nvidia laat achter de rode lijnen vergelijkbare taferelen zien. Afgaande op de percentielen in de tabel hierboven kunnen we wel stellen dat onderstaande grafiek doet vermoeden dat de stotters frequenter zijn dan de daadwerkelijke ervaring. Ook hier valt op dat het verschil tussen de high- en ultra-presets verwaarloosbaar klein is, en dat FSR op de hogere setting de duidelijke voorkeur heeft.

  • Ultra
  • Ultra+FSR
  • High
  • Medium
  • Medium+FSR
2160pUltra
2160pUltraFSR
2160pHigh
2160pMedium
2160pMediumFSR
  • Ultra
  • Ultra+FSR
  • High
  • Medium
  • Medium+FSR
The Callisto Protocol 2160p Ultra
The Callisto Protocol 2160p Ultra+FSR
The Callisto Protocol 2160p High
The Callisto Protocol 2160p Medium
The Callisto Protocol 2160p Medium+FSR

Prestaties ultrahigh-end pc

Als laatste hebben we ook nog tests gedraaid op de GeForce RTX 4080 en RX 7900 XTX gecombineerd met een Intel Core i9 13900K met 32GB aan DDR5-7200-werkgeheugen.

Gemiddelde framerates bij presets

De prestaties van de RTX 4080 en RX 7900 XTX zijn op hogere presets en instellingen erg vergelijkbaar. Net als bij de RTX 3080 en RX 6800 XT zien we ook hier dat op de hoogste kwaliteit FSR de framerate ruim boven de 60 duwt, terwijl zonder die upscaling de 50fps nog niet eens wordt gehaald. Omdat we hier ook met raytracing testen, hebben de videokaarten nog meer werk te verzetten. Dankzij FSR komen de framerates in combinatie met raytracing vrijwel op hetzelfde niveau als ultra-instellingen zonder raytracing. Op de lagere presets weet Nvidia er nog iets meer frames uit te persen dan AMD.

  • Ultra+RT
  • Ultra+RT+FSR
  • Ultra
  • Ultra+FSR
  • High
  • Medium
  • Medium+FSR
2160p RX 7900 XTX RTX 4080
Gemiddelde framerate 46fps 47,8fps
95e percentiel 38,5ms 36ms
99e percentiel 58,3ms 51,1ms
2160p RX 7900 XTX RTX 4080
Gemiddelde framerate 72,1ps 71,4fps
95e percentiel 24,9ms 24,1ms
99e percentiel 31,5ms 28,7ms
2160p RX 7900 XTX RTX 4080
Gemiddelde framerate 75fps 74,9fps
95e percentiel 25ms 25,2ms
99e percentiel 39,7ms 39,6ms
2160p RX 7900 XTX RTX 4080
Gemiddelde framerate 101,2fps 117,5ps
95e percentiel 19,4ms 14,3ms
99e percentiel 29,4ms 20,1ms
2160p RX 7900 XTX RTX 4080
Gemiddelde framerate 85,9fps 85,8fps
95e percentiel 34,1ms 20,4ms
99e percentiel 30,1ms 29,8ms
2160p RX 7900 XTX RTX 4080
Gemiddelde framerate 105,3fps 116,3fps
95e percentiel 17,6ms 15,4ms
99e percentiel 25,4ms 20,4ms
2160p RX 7900 XTX RTX 4080
Gemiddelde framerate 154,6fps 169,4fps
95e percentiel 11,8ms 10ms
99e percentiel 15ms 12,2ms

Frametimes

Zowel de RTX 4080 als de RX 7900 XTX hebben baat bij FSR om de frametimes laag te houden. Frequente uitschieters zien we met deze upscaling ingeschakeld een stuk minder, wat vooral op de hoogste preset met raytracing zijn vruchten afwerpt. Zonder FSR ingeschakeld, komt Nvidia gunstiger naar voren; met FSR erbij blijft de Radeon-kaart meer in de buurt van zijn tegenhanger.

  • Ultra+RT
  • Ultra+RT+FSR
  • Ultra
  • Ultra+FSR
  • High
  • Medium
  • Medium+FSR
2160pUltraRT
2160pUltraRT+FSR
2160pUltra
2160pUltraFSR
2160pHigh
2160pMedium
2160pMediumFSR
  • Ultra+RT
  • Ultra+RT+FSR
  • Ultra
  • Ultra+FSR
  • High
  • Medium
  • Medium+FSR
The Callisto Protocol 2160p Ultra RT
The Callisto Protocol 2160p Ultra RT FSR
The Callisto Protocol 2160p Ultra
The Callisto Protocol 2160p Ultra FSR
The Callisto Protocol 2160p High
The Callisto Protocol 2160p Medium
The Callisto Protocol 2160p Medium FSR

Tot slot

The Callisto Protocol is een grafisch indrukwekkende, maar daardoor ook zware game om op de pc te draaien. Vooral met wat oudere hardware loop je sneller tegen frequente stotters aan dan met de nieuwste componenten. Die problemen zijn voor een groot deel te beperken door FSR 2 te gebruiken, wat het spel bij elke preset automatisch inschakelt.

Het voordeel van FSR is dat het op elke videokaart is te gebruiken, en het dus geen spelers verhindert om deze technologie te gebruiken. Wel valt op dat de upscalingtechniek op videokaarten van AMD doorgaans wat beter werkt. Vooral op de RX 580 en RX 5700 XT bleek de prestatiewinst hoger dan met respectievelijk de GTX 1060 en RTX 2070 Super te zien was. Bij de videokaarten van de huidige en vorige generatie is dat verschil een stuk kleiner, en presteren kamp groen en rood veel vergelijkbaarder.

In de grafische kwaliteit verschillen de beschikbare presets niet zoveel van elkaar. Vooral high en ultra zitten vrijwel op hetzelfde niveau, met de vooraf gekozen FSR-kwaliteit als enig verschil. Ook op medium-instellingen is de belichting nog steeds indrukwekkend, en is het detail in de textures de voornaamste beperking. Omdat grote delen van de spelwereld in The Callisto Protocol voornamelijk donker zijn, valt het subtiele gebruik van raytracing niet eens zo op. Wat eerder in het oog zal springen, is dat het soms even kan duren voordat de hogere kwaliteit textures zijn ingeladen, wat de ontwikkelaar hopelijk met een patch in de toekomst gaat verhelpen.

Reacties (108)

108
105
52
5
0
38
Wijzig sortering

Sorteer op:

Weergave:

Jammer dat de schrijver van het artikel volledig voorbij gaat aan het feit dat bij het gebruik van ray tracing de game heel snel cpu gelimiteerd is. Ik zie op mijn 4090 (die in dit artikel niet eens getest is) dat de gpu load regelmatig erg laag is (50-70%) terwijl de framerate soms onder de 40 duikt. Fsr aanzetten maakt dan geen verschil omdat de cpu de limiterende factor is. Dus het werk van de gpu verlichten heeft geen zin. Dit is dan met een 5900X.
Ik zie dan dat maximaal 6 cores belast worden en de andere 6 niets aan het doen zijn. De game schaalt dus niet ideaal over meerdere cores heen.
Ik vermoed dat dit met de optimalisatie voor consoles te maken heeft die 6 cores beschikbaar hebben voor games ( 2 voor het OS).
Ik hoop dat dit nog verbeterd kan gaan worden in een patch. Anders is de enige manier om 60+ fps te hebben met RT aan wachten tot een nieuwe generatie CPUs en hopen op het beste.

Ook een beetje bedroevend is dat de RT effecten bestempeld worden als subtiel omdat het een donkere game is.
Je ziet vooral de reflecties namelijk letterlijk overal. Juist ook op matig reflecterende oppervlakken wordt nog steeds RT gebruikt om die realistisch te laten reflecteren. Digital Foundry laat dit mooi zien in hun video. En dat verandert de game enorm.
Ook het gebruik van RT schaduwen voegt enorm veel toe in een game als dit.

[Reactie gewijzigd door rajackar op 22 juli 2024 17:27]

Simpelweg stellen dat de game met raytracing heel snel cpu-gelimiteerd is, doe ik niet omdat dit sterk afhangt van de gebruikte hardware. Je vergelijkt met je eigen 5900X, maar vergeet niet dat de 13900K een veel snellere processor is. In een synthetische test als Cinebench is de 13900K singlethreaded 40 procent sneller, dat tikt wel aan - ook als er 'slechts' zes cores worden benut. En dan is het i9-platform bij dit artikel ook nog overgeklokt en van flink sneller geheugen voorzien. In onze testresultaten is dan ook te zien dat zowel de RTX 4080 als RX 7900 XTX wèl hogere framerates halen met FSR, ook met raytracing ingeschakeld. Dat neemt niet weg dat de game met gebruik van RT meer aanspraak op de cpu doet, maar hard cpu-gelimiteerd is het platform in dat scenario niet. Met de langzamere 5900X gecombineerd met de snellere RTX 4090 zul je ongetwijfeld veel sneller op dat punt uitkomen.
Goede toevoeging op het artikel.
De cores van een 13900 zullen zeker schelen in de performance. Ik heb zelf niet de mogelijkheid (hardware) om een vergelijking te doen maar ik zou wel eens het verschil tussen de verschillende CPUs willen zien. BV 13xxx vs 12xxx vs and 5xxx en 7xxx.
In games als deze maar ook de update van the Witcher 3 zie ik een behoorlijke CPU bottleneck op mijn systeem met RT aan. Ik ben erg benieuwd hoeveel een CPU upgrade dit zou verbeteren, de 5900x is ook geen low end CPU namelijk.
Dat maakt een hoop duidelijk. Ik heb zelf een i9 9900k in combinatie met een RTX 4090. Ik haal dan met de ingebouwde benchmark gemiddeld 57.31 fps op 3840x2160. Met alles op ultra+RT en FSR op quality. Gamma doet er denk ik niet veel toe die staat bij mij op TV 2.2
Het is vrij logisch om te schrijven naar slechts een bepaald enkel cores. De XBox Series en PS5 zijn vrijwel identiek (AMD CPU, AMD GPU, 8 cores, etc, etc...) in hardware, maar ook software (mag maar zoveel geheugen gebruiken, mag maar zoveel cores gebruiken). Hoewel beide consoles 8 CPU cores hebben (en 16 threads maar de praktijk van SMT in games is "marginaal"), mogen devs doorgaans maar 6 gebruiken. Omdat een game doorgaans slecht omgaat met asynchrone workloads, is "los" schalen erg lastig, dus worden verdelingen vrij "vast" gemaakt. Gezien de huidige consoles, is een 6-thread belasting eigenlijk niet eens zo'n gek resultaat dus.

Hetzelfde kun je zien bij graphics. Er zijn games die "actie" en "draw call" nog steeds gekoppeld hebben in de gaming "loop" van "lees input, bereken gevolg, teken beeld, herhaal". De FromSoftware games zijn daar een mooi voorbeeld van: 60fps loslaten kan allerlei combat/physics dingen kapot maken.

Het effect van RT is doorgaans dat het een paar dingen kan doen. Het kan reflecties maken, schaduwen, diffuse belichting, en meer (het kan in theorie rasterisation in zijn geheel vervangen). De focus ligt doorgaans voor een dev bij: "wat kan de algemene deler" en daar zit dan de optimatie slag in. Ambient Occlusion is vrij simpel maar doorgaans waar het ophoud. Sommige games (zoals een zekere grote MMO) gebruiken RT enkel alleen voor karakterschaduwen, je ziet zelden echter dat het "slim" gedaan wordt (reflecties op alleen bepaalde oppervlaktes waar het voor gameplay nuttig kan zijn, zoals een spiegel in een dialoog, etc...).

Programmeurs zijn niet lui, maar er wordt wel gewerkt vanuit een 80-20 regel: 20% van de functionaliteit kost 80% van het werk, terwijl 80% van de functionaliteit 20% van het werk kost. Het effect is dat input zoals de consoles, en de Steam Hardware Survey een hele hoop zooi bepalen: dat we nu 6 cores effectief in gebruik zien vindt ik een mega winst. Ik loop natuurlijk met mijn 24 cores/32 threads op een bak, 24 cores/48 threads op de andere bak daar gigantisch op voor, maar dat is het voordeel van een PC boven een console: je kan er meer mee doen (tegelijk) dan enkel gamen. Het effect is echter wel significant in vergelijking met zelfs slechts 4 jaar geleden; games kunnen/doen meer met CPU, storage, en input. Zekere graphics dingen zoals RT/upscaling "anti aliasing" echter zul je echter niet zo verfijnd uitgewerkt zien in elk spel: diepere RT dan het minimale zal een mega impact hebben (kijk naar Witcher 3 remaster) en voor veel mensen niet altijd hetzelfde effect: als schaduwen ook zonder RT er "mooi genoeg uit zien" maar RT je bijna 60fps kost (voor mij, een 13900K + 3090 op een 4K/120Hz/HDR scherm is RT in Velen het verschil tussen 110fps en 48fps, zelfs met VRR absurd in gameplay, maar in cutscenes zou ik het niet erg vinden als RT "vanzelf" aangaat), dan zet je het doorgaans uit.

Dat is overigens wat je aan dit artikel ook ziet bij RDNA2/3 vs Ampere/Lovelace: zodra de RT uit gaat is het een pure rasterize-to-rasterize vergelijking, en merk je dat de verschillen érg klein zijn. En gezien hoe het geïmplementeerd wordt (vanuit het perspectief van een console dus, veel optimalisatie op maar een klein stukje RT wat wél werkt op de consoles zonder onder die "voelt goed FPS"-grens te raken), zal "hoger" niet snel beter worden. Hetzelfde geld voor de upscalers (ik denk persoonlijk dat nVidia qua DLSS al een mega verandering is ingegaan met het veranderen van een upscaler naar een motion smoother zoals je in TV's ook ziet voor die soap opera effecten, beetje hetzelfde toen ze VESA standaard VRR omarmde tegenover GSync wat merk-gebonden is). De consoles kunnen het niet, wel de "concurrerende" standaard, en 100% van de PC's kunnen die standaard ook, dus DLSS zal moeten veranderen (wat het gedaan heeft, het is geen anti aliasing meer maar meer iets wat in de noemer motion blur past) óf moeten verdwijnen.

Zolang games een financiële motivatie hebben voorbij "kunst", zal optimalisatie altijd op de algemene deler gericht zijn. En dan kun je kijken naar "the most average gaming PC" (wat Linus dus gedaan heeft, die 1650 is redelijk in de buurt van die 1060/RX580 die je hier ziet dus ik ben blij dat ze er in zitten). En dan zie je gewoon dat het spel goed werkt. En ik weet dat het niet iets is wat je als iemand die >€1500 voor een GPU heeft uitgegeven wilt horen (zoals ik zelf), maar je bent gewoon minder de doelgroep.

Echter vindt ik het zelf wel tof dat je de optie hebt. Dat is ook het mooie van de PC. Je kan sleutelen/tunen -- ook in de game instellingen. Consoles hebben vaak iets als "graphics/performance" waar je kan kiezen tussen 30/60/120fps afhankelijk van spel, maar wij hebben 300 sliders waar we alles inclusief movie grain/motion blur/chromatic abberation/vigneting/etc kunnen instellen (ik haat al die dingen persoonlijk, als ik grain wou hebben dan had ik m'n PC wel met een analoge connector aangesloten, what's next, die atmos soundtrack downsamplen naar 22kHz stereo met random pops voor die lofi sound?). RT kan heel veel toevoegen, klopt, en ik denk ook zeker dat het dat in die algemene deler (van de RDNA power IGP met wát raytracing die je in een console vindt, die redelijk aan de power tussen een RTX2060 en 2070 desktop zit in de praktijk, en laten we niet vergeten dat nu laptops populairder lijken te zijn bij de niet-tweakers en een 2070 laptop is géén 2070 desktop, verre van) de dev wel wát kan verwachten, maar dat is niet alle RT sliders "cranked". RT reflectie =/= "shader" reflectie. De optimalisatie voor "minimale" extra resultaten is compleet anders.
Hoi, programmeur hier.

Ik kan je vertellen dat (bijna) alle programmeurs graag vette, mooi, efficiënte resultaten willen leveren. Maar een bedrijf willen graag geld verdienen dus er moeten keuzes worden gemaakt.

Ik kan me heel goed voorstellen dat iemand heeft onderzocht hoeveel mensen 1, 2, 4, 6, 8, xx cores hebben en dat als ze voor 6 coresgaan al 95% van de markt hebben. Dan kun je nog een heel zooi uren besteden om 8 cores te doen, en een procentje van de super high-enders te pakken, of je besteed die tijd bijvoorbeeld wat meer in bugfixes, stabieler maken (waar iedereen iets aan heeft), misschien meer features (waar iedereen iets aan heeft) of iets anders.

Ik ken geen programmeur die denkt "Ag, matig ben ik ook tevreden mee" :)

[Reactie gewijzigd door Martijn.C.V op 22 juli 2024 17:27]

Goed punt idd. Hoe graag ik ook al mijn 12 cores aan het werk zie, er moeten keuzes worden gemaakt.
Ik heb ook altijd begrepen dat werk over meerdere cores verdelen erg lastig is in games omdat je met de timing van al het werk zit. Hoe kijk jij daarnaar?
Ik heb ergens anders al op dingen gereageerd, maar op die laatste vraag heb ik wel een antwoord.

Je zit met sequentieel vs parallel. Iedereen, programmeurs, gamers, etc ziet graat dat alle cores gelijk belast worden, maar er zijn een hele hoop zaken in games die heel erg van elkaar afhankelijk zijn. Waarvan de informatie van de ene essentieel is tijdens de berekening van de ander. Dat betekent dus dat zelfs al zou je deze twee taken in twee verschillende threads willen berekenen, je voor sommige zaken moet gaan lopen wachten op de andere thread.

In de praktijk betekent dit dat de twee threads die je aanmaakt voor deze twee taken zo vaak op elkaar staan te wachten dat ze ook prima op 1 core kunnen draaien voor 99% van de tijd. Omdat er geen snelheidswinst te behalen valt.

Je maakt in de regel immers threads aan, je spreekt niet direct de cores aan. Niet threads als in “hyperthreading” of logische cores, maar programma threads. Die dingen die je ziet als je in taakbeheer een programma uitklapt en hetzelfde programma er 8 keer staat.
Als twee threads zwaar zijn en niets of weinig met elkaar te maken hebben, dan belanden ze vaak op 2 verschillende cores. Zo wordt dat nu eenmaal gescheduled. Twee taken die tegelijk actief zijn en niet op elkaar wachten, kun je paralleliseren.
Als de ene thread de hele tijd slaapt terwijl de andere actief is, zoals bij een afhankelijkheid, dan krijgen ze vaak dezelfde core

Kijk voor bijvoorbeeld een game met veel AI opponents kun je die workload bijvoorbeeld spreiden, of op zn minst 1 “denk”-thread gebruiken die los draait van de rest van de game en alleen game state informatie opvraagt. Dat is niet zo erg, die gamestate geef je hem 1x per tic en weer door.

Maar niet voor alle taken gaat dat zo makkelijk. Voor heel veel collision berekeningen moet je het model van voor naar achteren doorrekenen en buiten matrix transformaties voor coordinaten en dat soort zaken is dat vaak niet multithreaded maar gewoon ordinaire wiskunde

Daarom zie je vaak dat games een hero core hebben. 1 core die de heavy lifting doet terwijl er zoveel en zo goed mogelijk andere taken worden gedelegeerd aan andere threads. Een thread voor AI, of een thread die nadenkt over het spawnen van random events, of een game die nadenkt over de wildlife die zich om je heen kan bevinden.
Maar de hoofdmoot is helaas toch afhankelijk of is aan de hand van de situatie verschillend.

Het is soms ook gewoon efficiënter om taken die niet goed geparalleliseerd kunnen worden, ook niet toch geforceerd te paralleliseren “zodat hij meer cores gebruikt”
niet alle cache wordt gedeeld door alle cores. L1 en L2 zijn in de regel uniek per core. Dus als je dan een berekening toch uitbesteedt aan een andere thread én die beland op een andere core dan loop je dus de kans dat die info moet gaan opvragen uit het RAM terwijl de originele core het gewoon in L1 of L2 had zitten, wat performance niet ten goede komt.
Hier hebben threadrippers heel erg last van door die chiplets, dat een thread naar een andere chiplet verhuisde mid game en je dan een stutter kreeg terwijl er een mega belasting kwam op je werkgeheugen, of de infinity fabric omdat nul van de info die nodig was in de cache stond.
Dat noem je een cache miss en die zijn funest voor gaming performance.
Dat is ook gelijk de kracht van de 5800X3D, heel veel L3, waar alle cores in kunnen roeren, zodat de kans super groot is dat de core de benodigde info uit cache kan trekken. L3 is magnitudes trager dan L2 en nog meer dan L1, maar cpu cache is qua latency en bandbreedte gewoonweg een andere wereld dan DRAM

[Reactie gewijzigd door youridv1 op 22 juli 2024 17:27]

Dankjewel. Hele heldere uitleg. Dit bevestigt ook wat ik al een beetje in mijn hoofd had zitten.
En dat er vaak meer aan de hand is dan "poor optimization" wat je altijd maar hoort.
Wat ik me dan wel afvraag is waarom dan juist ray tracing zo zwaar is op de CPU en waarom bijvoorbeeld een game als Dying Light 2 met ongeveer dezelfde RT features wel super smooth kan draaien. Maar ik vermoed dat het antwoord op die vraag een interview met de developers vereist ;)
Dat denk ik ook. Het antwoord is natuurlijk de klassieke “dat ligt aan de implementatie” maar helaas werk ik niet aan DL2 of callisto.

Voor mij klinkt het alsof dying light 2 minder cpu overhead heeft. Ik neem even aan dat de videokaart 99% van de wiskunde doet voor het pathtracen van de lichtstralen. Dat is waar die RT cores voor zouden moeten zijn, als je nvidia gelooft.

Het zou zo kunnen zijn dat de implementatie van DL2 simpelweg minder werk dubbel doet omdat het een beter geoptimaliseerde pipeline heeft.
Letterlijk gezien, dat de cpu per commando dat hij verwerkt voor belichting, meer stralen mee geeft aan de gpu om te verwerken. Dus bijvoorbeeld in 1x een lijst van 2 miljoen lichtstralen doorgeven aan de gpu van “succes daarmee” in plaats van per 10.000 of 100.000 lichtstralen een apart commando geven.
Wie weet heeft DL2 een manier om in 1 keer alle lightsources in een kamer in de mik van de GPU te duwen en moet callisto iedere lightsource apart afhandelen aan de CPU kant en apart door laten rekenen door de GPU.

Of misschien kan DL2 de cpu portie van het raytracen wel asynchroon van de rest van de game en kan callisto dat niet.

Dat soort optimalisaties zijn waar je hele grote stappen kunt maken in performance.

Maar het kan evengoed zijn dat callisto beide deze problemen perfect heeft aangepakt maar dat ze iets anders doen dat CPU tijd gezien niet geheel optimaal is.
Dat weet ik niet.

[Reactie gewijzigd door youridv1 op 22 juli 2024 17:27]

Goede punten, allemaal ;)
Het blijft natuurlijk speculeren maar het klinkt heel aannemelijk dat DL2 idd de GPU effeciënter aan spreekt. Wellicht speelt hier ook mee dat Callisto Unreal gebruikt en DL2 op eigen technologie draait. Dan heb je natuurlijk veel meer controle.
Het grappige is dat ik zou verwachten dat DL2 juist veel zwaarder is op de CPU omdat daar een hele open wereld inclusief veel actors verwerkt moet worden en in Callisto heb ik nooit meer dan een handjevol vijanden tegelijk gezien.
Aan de andere kant is de RT implementatie in Callisto dan wel weer van een hogere kwaliteit waardoor er, zoals je al zegt, wellicht meer werk gedaan moet worden.
Wat ik begreep is dat de RT cores eigenlijk alleen ingezet worden bij de matrix berekeningen voor ray intersection. En nu zit ik eigenlijk al over de rand van mijn kennis heen ;)
Nee. Games schalen gewoon niet over oneindig veel cores.
De workload van een game bestaat uit veel verschillende dingen waarvan een groot deel erg van elkaar afhankelijk is. Je zult dus altijd krijgen dat één thread meer werk moet doen dan de rest.

Alleen bij applicaties die 1000x dezelfde actie uitvoeren, waarbij deze onafhankelijk is van de overige threads kan je echt 100% van de CPU benutten.
Nee hoor, je kunt verschillende acties gewoon over cores verdelen. Stel je hebt 5 totaal verschillende taken die allemaal een andere tijdsduur kunnen hebben. Prima te verdelen over 5 cores dan.

De uitdaging zit 'm in wat je moet doen als de snelste taak klaar is, en je moet wachten op de langzaamste. En daar zijn 1000 verschillende manieren voor, elke situatie is weer anders. En dat is ook gelijk wat het lastig maakt, want elke situatie is weer anders.

Er zijn wat basis principes waar je "redelijke schaalbaarheid" relatief simpel kunt scoren en deze worden dus vaker toegepast. Er is voor de meeste situaties ook wel iets te verzinnen dat wel eindeloos schaalbaar maakt, maar dat kost veel tijd per stuk met maar weinig opbrengst.

En mensen denken zeer slecht parallel, het is en beste uitdaging om async zomaar je hoofd in te krijgen
Je zegt 'nee hoor' maar je ontkent eigenlijk niks wat hij zegt. Hij heeft gewoon gelijk in dat een hoop taken van elkaar afhankelijk zijn, dus de uitkomst van een berekening moet weer als basis worden gebruikt voor een andere. Je moet dus niet zozeer wachten op de langzaamste berekening, maar op de berekening met de data die je nodig hebt.
Tegenwoordig zijn programmeurs lui.
Tegenwoordig w/ enkel geoptimaliseerd voor consoles.
Consoles zijn gewoon gebaseerd op dezelfde architectuur als gaming pc’s van deze tijd. Sterker nog, AMD is op cpu gebied zo populair momenteel dat de huidige consoles ontzettend representatief zijn voor de gemiddelde gaming pc.

Het enige verschil is dat moderne consoles tegenwoordig geleverd worden met ontzettend snelle storage, waar je gebruik van kunt maken door resources slim te laden. Maar dat is niets wat niet kan worden opgelost door het werkgeheugen, zowel RAM als VRAM, gewoon flink in te zetten.
GPU’s hebben tegenwoordig allemaal 6 zo niet 8GB VRAM en de gemiddelde nieuwe midrange pc heeft 16-32GB RAM, dus wat dat betreft is er absoluut geen probleem.

Jullie reageren beide onder een post van een kerel die een RTX 4090, de aller snelste game GPU op deze aarde, met mega marge, heeft gekoppeld aan een CPU die wat betreft performance per core 40% achter de huidige top aan loopt. Er zijn dan inderdaad situaties waarin de 4090 uit zijn neus staat te vreten terwijl de CPU op een paar cores staat te stampen.
Dat komt omdat lang niet alle workloads zomaar over tig threads zijn uit te spreiden. Je hoort het altijd “JA MAAR GEBRUIK GEWOON MEER CORES” en niemand die dat krijst heeft ooit in zijn leven een regel geprogrammeerd, laat staan een multithreaded programma geschreven.

Het is niet zo simpel, je kunt niet maar even een paar dingetjes aanpassen aan je code waardoor dezelfde berekeningen ineens op meer cores lopen.

Daar komt ook nog eens bij dat 90% van de gamers op 6 cores of lager zit. Ja er zijn hyper threads, maar daar krijg je niet ineens magisch meer rekenkracht van. Sterker nog, je kan er tegenaan lopen dat je latency stijgt omdat de threads die je aanspreekt minder vaak cpu tijd krijgen tov wanneer je maar 1 thread per core aanspreekt.

Dus de vraag blijft, waarvoor optimaliseer je? Voor het aantal cores wat de consoles en bijna alle pc gamers gebruiken, of voor een 12 core waarvan op day 1 al bekend was dat hij geen meerwaarde bood tov de 6 en 8 core broertjes?
Alleen maar zodat die ene kerel op tweakers niet hoeft te huilen dat zijn cpu die ver van ideaal is voor gamen zijn top tier videokaart niet bij kan benen in cpu intensieve games????

[Reactie gewijzigd door youridv1 op 22 juli 2024 17:27]

M'n kritiek was op de commentaar dat "huidige" programmeurs lui zijn, dat klopt gewoon niet. De (beperkte) optimalisatie resources worden gewoon niet ingezet om iedere combinatie van PC (CPU/mem/storage) mogelijkheden te optimaliseren, in eerste instantie w/ gekeken naar consoles. Gezien die zoals je aanhaalt kwa platform gelijkaardig zijn, is dat dus een stap die relatief eenvoudig te maken is.

Dat meer cores niet voor iedere game nuttig of zelfs mogelijk zijn zal best, maar ze gaan niet optimaliseren voor 12C zolang consoles dat niet hebben. (althans dat is mijn mening)

Overigens zijn opmerkingen over feces hier niet op z'n plaats :)
Ben zelf programmeur en lui. Is een goed teken, dan proberen ze alle zoveel mogelijk zo efficient mogelijk te maken zonder dat ze het later nog een keer hoeven doen.
Een lege ongefundeerde opmerking over software ontwikkeling is hier op tweakers ook niet op zijn plaats :)

Het is niet alleen dat consoles die 12 cores niet hebben. 90% van de userbase heeft ze niet. Tweakers zijn niet de hele userbase

[Reactie gewijzigd door youridv1 op 22 juli 2024 17:27]

Mooi dat verschil.. Het lijkt net zo'n meme post:
jaaoie17: "Tegenwoordig zijn programmeurs lui."
Umbrah, an intellectual: (nou ja, die hele reactie dus)
:+
Dit zeggen alleen mensen die nooit meer dan een hobby-projectje in elkaar hebben geflansd en denken dat ze de shit zijn. Echt totaal geen basis in de realiteit.
Dat DLSS niet wordt ondersteund en FSR wel, is hier nog een mogelijke reden voor te geven?
Moet een ontwikkelaar bijvoorbeeld voor het implementeren van DLSS betalen, Is het veel ingewikkelder te integreren, is het spel sponsored door AMD of is het gewoon een keuze geweest?

Verder wel goed om te zien dat de verschillen tussen kamp AMD en Nvidia telkens niet heel ver bij elkaar vandaan liggen!
De reden staat volgens mij opgegeven... DLSS is Nvidia only, FSR is dat niet.
“The Callisto Protocol draait op de Unreal 4-engine en maakt gebruik van FSR 2 voor eventuele upscaling. DLSS wordt niet ondersteund.”

Het is een keuze geweest van de ontwikkelaar dit niet te ondersteunen, ik ben vooral benieuwd wat de reden hiervoor zou kunnen zijn.
Zowel de PS5 als de XBOX bevatten AMD hardware. Die hebben dus geen baat bij DLSS. FSR 2 is dan voor idereen beschikbaar. Logische keuze dus lijkt mij?
zoals gezegd fsr werkt op alle gpus ook die van intel. ze hadden de beschikking erover, waarom zou je dan en en en doen?
omdat nvidia het grootste marktaandeel heeft en DLSS nog altijd betere resultaten geeft dan FSR?
Eeh, nee? FSR 2 en 2.1 zijn visueel even goed als DLSS. Iets wat Nvidia je op de mouw heeft gespeld.
Dat klopt niet. DLSS is, helaas, nog steeds beter dan FSR 2: https://youtu.be/ZNJT6i8zpHQ

(Ik zeg helaas omdat ik liever zou zien dat een universele oplossing als FSR uiteindelijk de maatstaf wordt ipv DLSS dat alleen met RTX Nvidia GPU’s werkt)
IMO als je de game speelt zie je echt amper verschil, je ziet al amper verschil in beelden die zwaar ingezoomt en vertraagt zijn in reviews, laat staan als je gewoon echt het spel speelt
Zoiets ondersteunen is geen vinkje aanklikken, het kost tijd en moeite om te implementeren. Als je dan kan kiezen tussen een implementatie die alleen werkt op NVidia-kaarten of een die werkt op alle kaarten dan is die laatste keuze natuurlijk efficiënter in termen van ontwikkeltijd.
Je kunt ze ook beide ondersteunen hoor.
Ik leg net uit dat dat ontwikkeltijd kost...

Tuurlijk kan het. Je kan ook gewoon een compleet nieuw supersampling-algorigme zelf implementeren.

[Reactie gewijzigd door bwerg op 22 juli 2024 17:27]

Zoiets ondersteunen is geen vinkje aanklikken, het kost tijd en moeite om te implementeren.
Het is bijna letterlijk een vinkje aanklikken:
  • Je download de Unreal Engine plugin van Nvidia.
  • Je pakt het archief uit
  • Je plaatst de juiste versie van de engine plugin in je Unreal project of Unreal engine installatie
  • Je start Unreal
  • Je gaat naar 'plugins'
  • Je vinkt de 'DLSS' plugin aan
  • Je herstart Unreal
Et voila, je hebt nu DLSS in Unreal.

Maar goed, de uitdaging zal zitten in er goed gebruik van maken, fine-tunen en testen.
Een mogelijkheid zou kunnen zijn dat de console de target is geweest en FSR als upscale methode ondersteund wordt. De PC variant was bij release slecht geoptimaliseerd wat mij aangeeft dat ze de game op console wilde hebben voor de feestdagen. Digital foundry liet de problemen bij release zien... Het was voorheen door shader compilation stutter unplayable.
Ofwel DLSS of andere upscale methodes implementeren kost tijd die ze al niet hadden.

Andere mogelijkheid is dat hun dev machines allemaal AMD waren om zo dicht mogelijk bij de target hardware (PS5 en XBox series) te blijven. Voor DLSS moeten devs (en dus ook QA en playtesters) een RTX kaart hebben. Dat compliceert het proces.
Nogmaals... DLSS is Nvidia only, FRS werkt op alle GPU's... waarom 2x van ongeveer hetzelfde implementeren als je met 1 techniek alle hardware kan bedienen? Dat is een heel bewuste keuze en als je het mij vraagt een vrij verstandige, scheelt tijd, geld en ontwikkeling.
Waarschijnlijk dus omdat FSR 2 vliegen in 1 klap is. Dus makkelijker en goedkoper om te maken/onderhouden.
Deze game is gesponsord door AMD. het vermoeden in de community is dat onderdeel van deze deal is dat DLSS niet geïmplementeerd mag worden. Dat was bij meer AMD sponsored titels te zien helaas.
“Mag niet” of “Hoeft niet”? Heb je ergens bronnen dat het ze expliciet is verboden?

Het is namelijk nogal zinloos om beide te implementeren als FSR op beide werkt. Ja, DLSS levert nog steeds iets hogere fps en het verschilt per game welke er beter uit ziet, maar dat klinkt niet als een reden om dubbel werk te doen.

Met de ene technologie raak je beide platformen, dus die kies je, zeker als je gesponsord wordt door degene die het open platform maakt en niet degene die het gesloten platform maakt
Daarom gebruik ik bewust het woord "vermoeden" hier. De developer heeft er geen uitspraken over gedaan. De aanname is ontstaan omdat veel andere titels die door AMD zijn gesponsord ook allemaal geen DLSS ondersteuning hebben.
Er is overigens wel degelijk een reden om beide te implementeren. DLSS heeft namelijk aantoonbaar een betere beeld kwaliteit. Het is niet bijzonder groot maar komt wel in iedere vergelijking naar voren.
DLSS3 frame generation kan ook helpen in een game als deze. Ik was aanvankelijk bijzonder sceptisch over frame generation maar ik gebruik het nu zelf in The Witcher 3. Met ray tracing aan is die game ook bijzonder CPU limited en kan de fps terug vallen naar rond de 40. Als je dan frame generation aan zet ziet de game er veel vloeiender uit. Ook al worden er geen echte frames gerendered en ook geen input verwerkt. Voor het oog ziet het er veel vloeiender uit. Dit had zou ik in Callisto Protocol ook best graag zien.
ik hoor nog steeds geen reden om dubbel werk te doen. ik snap dat je erg dlss fan bent, maar je blijft met het punt zitten dat je door je amd sponsorship fsr al helemaal af hebt en nvidia gebruikers hebben daar ook gewoon profijt van

Dus dan kun je je tijd investeren in dlss implementeren, of andere zaken die af moeten aan het spel. Wat ga je dan doen?

[Reactie gewijzigd door youridv1 op 22 juli 2024 17:27]

Ik snap wat je bedoelt hoor. Je kunt je dev uren natuurlijk maar één keer uitgeven. In mijn beleving heeft DLSS een betere beeld kwaliteit maar je kunt je afvragen of dat verschil groot genoeg is om extra tijd aan te besteden. (waarschijnlijk niet).
Het verhaal van frame generation blijft imho wel staan omdat dat een substantieel betere ervaring zou bieden. Nadeel is dan wel dat dat alleen voor GeForce 4xxx eigenaren het geval is en dat een hele kleine doelgroep is.
Ik meen wel gelezen te hebben dat de implementatie van DLSS relatief weinig werk vraagt omdat dingen als motion vectors al vereist zijn voor FSR 2.x maar ik kan als niet dev daar ook niet heel veel meer over zeggen.
frame generation verschilt heel erg per game vind ik. ik heb er heel kort mee gespeeld. in flight sim vond ik het opzich wel tof, in cyberpunk zag ik het heel erg en daar knapte ik op af.
Tja, ik nam het eerst ook totaal niet serieus eigenlijk. In het geval van TW3 is het ook meer een lapmiddel omdat de game op bepaalde momenten onder de 40 fps duikt en dan houdt in mijn setup ook VRR er mee op en wordt het echt een zooitje. Met FG blijft het er dan wel mooi en soepel uit zien. Nadeel is dat op andere momenten de fps boven de 120 uit komt en dat boven de refresh rate van mijn TV is en het weer een groot frame tearing festijn wordt. vsync wordt icm FG officieel niet ondersteund maar is te forceren via het nvidia control panel en dan is het goed te doen allemaal. Maar het blijft een lapmiddel natuurlijk.
Hoe zit dat met games die een ingebouwde framecap hebben in de settings? Gaat die dan ook uit? Dat heb ik niet kunnen bekijken, maar misschien speel jij een game met FG en een frame cap anders dan vsync
Dat is een goede vraag. In de game settings wordt wel vsync direct uitgezet als je FG aan zet dus dat doet vermoeden dat een eventuele interne frame cap ook uitgezet zal worden. Ik zal eens kijken of ik een game heb die ook een eigen frame cap heeft en FG ondersteunt.
Net even getest met plague tale requiem.
De ingebouwde framecap werkt maar wordt door FG wel verdubbeld. Dus cap 30 wordt 60, cap 60 wordt 120 etc. Dus je kunt 60 fps krijgen op 4K met alles aan terwijl de kaart "maar" 160 watt verstookt. Geinig als experiment, zeker als je bedenkt dat zonder DLSS de kaart 450 watt nodig heeft om naar 75 fps te komen.
Maar de input latency is wel die van 30 fps.
Vsync wordt door de game wel uitgezet als je FG inschakeld.

[Reactie gewijzigd door rajackar op 22 juli 2024 17:27]

Dat van die input lag is wel vet matig. Opzich niet raar als je nadenkt over wat FG is, maar toch jammer dat je dan denkt “nice, 90 fps! en dan beweeg je de muis…”
Zeker! Daarom was ik initieel ook bijzonder sceptisch over FG. Al moet ik nu wel zeggen dat het bij TW3 wel fijn is om 70 ipv 35 fps te hebben op sommige plaatsen. De input lag verbeter je niet maar het ziet er wel een stuk beter uit in beweging. Al heb je natuurlijk liever echte performance.
Vsync word wel op driver niveau ondersteund in combinatie met frame generation.
Dat staat dus ook in mijn post ;)
Doodsimpel.

1. FSR draait op alle relatief nieuwe videokaarten. DLSS werkt alleen op nvidia, want dat soort naaistreken doet nvidia het allerliefst

2. de game in kwestie is “sponsored by amd” :) daar zat je goed met je voorgestelde redenen inderdaad

[Reactie gewijzigd door youridv1 op 22 juli 2024 17:27]

FSR is voor alle kaarten DLSS voor 1 merk.
Er is momenteel maar één high-end videokaart: de Nvidia 4090. Zou hier 60fps moeten kunnen halen op de hoogste settings, die je dan kunt verdubbelen naar 120fps met DLSS 3 (zodra dat werkt).

In tegenstelling tot wat een aantal mede-tweakers beweren werkt de frame-verdubbeling van DLSS 3 over het geheel prima als je maar voldoende basisframes (60fps) en resolutie (4K) hebt. Zie de video’s hierover van Digital Foundry.

[Reactie gewijzigd door Ettepet op 22 juli 2024 17:27]

Nou idd, ik was benieuwd naar de 4090 bij Ultra High, staat daar de 4080.
rajackar in 'The Callisto Protocol op pc - Hoge hartslag, lage framerate'

Zoals ik hier aangeef is de game met RT aan vooral CPU gelimiteerd met een 4090. De schrijver van het artikel gaat hier nogal aan voorbij of heeft dit niet opgemerkt.
DLSS3 zou een leuke toevoeging zijn om het allemaal iig wat soepeler aan te laten voelen.
Helaas is de titel door amd gesponsord en ik vermoed dat het onderdeel van de deal is dat er geen DLSS toegevoegd wordt.

[Reactie gewijzigd door rajackar op 22 juli 2024 17:27]

Klopt. Dat zullen ze moeten patchen. Stottert het nog? Want dat was helemaal een ramp.

Ze schieten zichzelf in de voet als ze geen DLSS (3) toe zullen staan. Zou jammer zijn.
Leuk artikel... Zou graag veel meer van dit soort content willen zien op Tweakers!

(Het is trouwens mid-range PC, niet mid-end P. Je hebt slechts twee uiteindes van het spectrum: low-end en high-end)

[Reactie gewijzigd door DLSS op 22 juli 2024 17:27]

Mid-end game pc is niet de juiste benaming. Mid-range natuurlijk wel :)
Ot. Iets minder zware hardware is waarschijnlijk ook wel toereikend om hem goed te kunnen spelen.
Een paar settings lager zetten doet wonderen.

[Reactie gewijzigd door calsonic op 22 juli 2024 17:27]

Inderdaad goed gedaan.
Wat misschien ook een idee is is om een soort benchmark te maken met grafische instellingen die optimaal zijn, dus hogere framerates met nagenoeg dezelfde kwaliteit. Sommige instellingen bij games voegen zeer weinig toe terwijl dat wel een grote impact heeft op de framerates.

Hardwareunboxed deed dat maar daar zijn ze mee gestopt helaas.
Hier een voorbeeld: https://m.youtube.com/watch?v=3nN47ZqQ8DM
Callisto is een maan net zoals Europa. Beide draaien rond Jupiter.
Opvallend dat ultra en high instellingen voor niet-ultra-high-end echt precies hetzelfde scoren...
Ik zie frametimes van andere kaarten, niet de RTX4080 of 7900XTX
Daar was een fout ingeslopen, nu aangepast met correcte legenda!
Ik vind de game echt geweldig. Heel die sfeer echt top. Kan niet wachten om die remake van Deadspace te spelen. Helemaal hyped!

Op dit item kan niet meer gereageerd worden.