Bethesda deelt pc-systeemeisen Indiana Jones-game, raytracinghardware verplicht

Bethesda maakt de systeemeisen voor Indiana Jones and the Great Circle bekend. Daaruit blijkt dat gamers tenminste een gpu met hardware voor raytracing nodig hebben: een Nvidia GeForce RTX 2060 Super, AMD Radeon RX 6600 8GB of Intel Arc A580.

Deze systeemeisen gelden voor gamers die Indiana Jones and the Great Circle in een 1080p-resolutie met 60 frames per seconde willen spelen. Verder is een ssd met 120GB opslagruimte verplicht. 'Volledige raytracing' in 1080p vergt volgens Bethesda ten minste een Nvidia GeForce RTX 4070 met 12GB geheugen. Bij alle systeemeisen met volledige raytracing is upscaling door middel van DLSS 3 met Frame Generation nodig.

Alleen met een Intel Core i9-13900K of beter, of een AMD Ryzen 9 7900X of beter, in combinatie met 32GB ram en een GeForce RTX 4090 met 24GB videogeheugen kan de game met de hoogste grafische instellingen gespeeld worden. Overigens schrijft Bethesda foutief dat een 'i7-13900K' of 'Ryzen 7 7900X' nodig is; deze processors bestaan niet.

Indiana Jones and the Great Circle is vanaf 9 december beschikbaar voor de pc, de Xbox Series X en S, en via Xbox Game Pass. De game komt later uit voor de PlayStation 5. Tweakers schreef eerder al een preview van de game.

Indiana Jones and the Great Circle systeemeisen

Door Yannick Spinner

Redacteur

04-12-2024 • 13:13

137

Submitter: Xtuv

Reacties (137)

Sorteer op:

Weergave:

Ah, deze discussie voerde ik gisteren op Reddit al:

Ik maak me met m'n 3700X met 32 GB en een 3060Ti (ja met 'slechts' 8 GB VRAM) helemaal geen zorgen.

De recommended settings hebben het namelijk over 1440p native op high settings en 60 fps.

Instellingen naar medium (wat verwacht je anders van een budget kaart) en wat upscaling/frame gen erbij en dit zal best prima draaien op mijn 4 jaar oude systeem.

Mensen lezen niet goed en zijn verwend. Ultra is niet iets wat je kan/mag verwachten als je geen 2000 of 3000 aan een PC uitgeeft en bovendien hebben we als PC tig instellingen om aan te passen om looks en prestaties op elkaar af te stemmen. Het lijkt alsof medium en low instellingen tegenwoordig scheldwoorden zijn.
Ultra is niet iets wat je kan/mag verwachten als je geen 2000 of 3000 aan een PC uitgeeft
Half mee eens

Als we het over native resolutie hebben, dan ja ik ben er grotendeels mee eens.

Maar die hardware eisen met Ray Tracing zijn icm DLSS EN Framegen om slechts 60fps te halen (dus zonder Framegen is het NOG lager en daarboven zonder DLSS haal je waarschijnlijk de 30fps niet eens met een RTX 4090)

[Reactie gewijzigd door Mizgala28 op 4 december 2024 13:41]

met dlss op performance nog wel 8)7
Weer slechte optimalisatie dus.
Ik heb het idd alleen over de 'normale' vereisten waar ze duidelijk 'native' vermelden.

Ik kijk bewust niet naar Ray Tracing, dat moet je volgens mij nog steeds niet willen als je geen xx80 of xx90 kaart hebt (en zelfs dan blijkbaar niet?).
Is dat zo? Ik heb een rtx 3070 sinds kort (via tweaker overgenomen :) )

Ik speel eerlijk gezegd niet veel hele nieuwe games met ray tracing, maar ik had wel het idee dat door de ray tracing ondersteunende hardware dit gewoon prima moet draaien.

Iemand ervaring?
Raytracing is niet hetzelfde bij iedere game. Het is, zoals ik het als n00b begrijp, een techniek die toe te passen is om licht en reflecties ontzettend realistisch te berekenen.

Het kan ook gedeeltelijk op sommige lichteffecten worden toegepast bijvoorbeeld. Of toegepast op reflecties, maar dan in lagere resolutie. Etc..

Het is een techniek die in meer of mindere mate kan worden geïmplementeerd.

Het is ook ontzettend zwaar voor je systeem. Zet het uit (zelfs de lichtste implementatie van RT) en het zal je FPS flink omhoog stuwen.

En hoewel het een fantastische techniek is die geweldig mooie plaatjes op kan leveren, zonder RT zien moderne spellen er ook werkelijk fantastisch uit tegenwoordig :)

[Reactie gewijzigd door B0KIT0 op 4 december 2024 16:45]

Alleen kan Raytracing bij sommige games er slechter uit zien dan als je geen Raytracing gebruikt kijk maar bijvoorbeeld hardware unboxed YouTube: Ray Tracing: Is The Performance Hit Worth It? of de andere video die ze er over gemaakt hebben YouTube: Is Ray Tracing Good? dan zie je dat Raytracing nog steeds iets is wat je het beste niet wilt gebruiken
Geen idee waarom je 8GB VRAM goed praat, dat was al de bottleneck op mijn vorige RX580.

Mijn GTX 760 werd destijds al door 2GB gebottlenecked. Destijds werd mij ook al mede gedeeld door medetweakers (keer op keer) dat 2GB VRAM ruim voldoende was.

Net als enkele jaren geleden. Een goede maat van mij had de RX 580 4GB. Zelfde kaart als mij, maar de helft van het VRAM. Die kaart van hem was na 3 jaar afgeschreven voor een gamer. Die RX 580 8GB heb ik af moeten schijven omdat hij na ruim 6 jaar einde-van-zijn-latijn kuren begon te vertonen.

Die discussie loopt hier nu al een paar jaar, maar VRAM is belangrijker dan men denkt. Weet je waarom die RX580 zo lang bij kon blijven? Bijna alle grafische instellingen bieden amper meerwaarde, maar textures vreet VRAM en heeft zo'n beetje de meeste invloed op hoe goed het weergegeven beeld ervaren wordt.

Ik ging van 512MB VRAM naar 2GB een generatie of 2 later. Ik ging van 2GB naar 8GB.

Verdorie honderden euros uitgegeven en ik moet het nu met 16GB doen. Nou ben ik ergens de gierigheid van Nvidia wel dankbaar want dankzij al die mid-high end 8-12GB kaarten van hun, blijft 16GB nog jaren ruim voldoende. Maar zonder die gierigheid had er gewoon 24 of 32gb in die kaart die ik gekocht heb gezeten.

[Reactie gewijzigd door batjes op 4 december 2024 15:38]

De gpu was daar eerder de bottleneck niet de vram.
EN we zijn snel van 1080p->4k gegaan wat veel meer vram vraagt. Nu met zaken zoals DLSS SR is er minder nodig.
Inderdaad, 4k gebruikt nog meer en er waren de afgelopen al zat spellen die 6-8GB VRAM wel nodig hadden voor 1080p@60fps.

4 keer meer pixels, 6 jaar later en 16GB is nu de high-end norm? meh.

GTX 760, RX580 en nu de RX 7800X en alle 3 de GPU's kan ik afschrijven vanwege VRAM bottleneck.

We leren het ook echt niet hè en we doen nu nog steeds alsof 16GB voldoende is voor high-end kaarten.
8GB vram voor 1080 p is echt wel de uitzondering.
Er zijn bijna geen kaarten met 8gb meer trouwens 4060 & 7600 thats it.

16gb is niet de bottleneck hoor :

https://www.techpowerup.c...radeon-rx-7800-xt/31.html

7800 xt 16GB scoort evengoed als een 3080 10GB en veel slechter als een 4070 12gb .
De hoeveelheid vram is niet wat die kaart tegenhoud maar de GPU erin.
Die uitzonderingen vielen wel mee. VRAM vol met een GPU die vrij laag in 30-40% usage rondhing, was het afgelopen jaar wel een beetje de norm aan het worden op de RX 580. Textures omlaag, heuj, FPS omhoog. Terwijl textures vrijwel niet afhankelijk zijn van de GPU, maar van de VRAM en bus.

Dat is voor mij gewoon de tweede kaart op een rij die gebottlenecked werd door VRAM. De GTX 760 kon je b.v. goed zien met GTA 5, GPU kon (bijna) alles ultra 1080p@60fps aan, maar gebrek aan VRAM > bij hoge snelheden door de map heen > pop ins.

Die RX 7800 X is op GPU vlak beduidend krachtiger dan de RX 580, die 16GB gaat het over een paar jaar bottlenecken. Kwestie van tijd.

Die extra VRAM op de RX 580 was duidelijk merkbaar, waar de 4GB variant alles op medium moest zetten, kon ik (voor mij de belangrijkste) opties zoals textures of view distance op ultra danwel epic zetten.

Er zijn behoorlijk veel grafische opties primair afhankelijk van VRAM capaciteit, snelheden, busbandbreedtes. Dat niet benut wordt, een groot deel wordt (volgens mij een beetje express) opgevangen met GPU zware taken, is gewoon sund.

In het kader van klimaat, zuinigheid en levensduur van zulke dingen, ook gewoon sund. Nieuwe fans, een keer goed schoonmaken en die RX 580 8GB kan op de low-end nog jaren mee doen. Terwijl de RX 580 4GB nu al op low-end is afgeschreven.
YouTube: How's The 4GB RX 580 Holding Up in 2024?

BG3 op 1080p/low : 60fps
CS2 1080p high 140 fps
Witcher 3 NG: 1080P high 66fps
Cyberpunk 2077 1080p low 55 fps
rdr2 1080p xbox settings 60fps
heldivers 2 1080p high 62 fps
...

starfield & alan wake2 35 & 20 fps

YouTube: RX 580 in 2024 - TEST IN 85 GAMES

Meeste games kan die zonder fsr aan, en weeral dit is de 4gb versie. Na 7 jaar is dat echt niet slecht .
Dat klinkt als een bevestiging?

RDR2 1080p low 60fps, een bijna 7 jaar oude game. Ik speelde RDR2 op mijn RX 580 met alles op ultra behalve shadows en ook 1080p 60fps.

Het is niet slecht, maar daar kan je niet nu nog een paar jaar mee vooruit. De 8GB variant daarentegen kan je nog wel jaren mee vooruit, die doet makkelijk hetzelfde low-mid, maar dat met o.a. textures op ultra-epic. Textures is naast belichting het leeuewendeel van de "oh wat een mooie pixels" ervaring, net als dat drawdistances e.d. goed zijn voor de immersie. Zijn best wel wat opties die je mooi een paar standjes hoger kan zetten dankzij die 4GB extra VRAM zonder impact te hebben op performance.

Het argument is dat meer geheugen een positief effect geeft op de capaciteit en levensduur van het apparaat.

Dan zijn dit ook nog eens best case benchmarks, nu op een Windows met meerdere displays, Discord stream aan oid etc. Windows en apps die rustig nog een ~1gb wegsnoept tikt wel aan op een 4GB kaart.

Ik snap de discussie niet helemaal, meer VRAM is goed en prima te benutten zelfs op low-end kaarten (al wordt het met default low settings nooit echt benut). Dat Nvidia nog jarenlang high end kaarten met 8GB VRAM heeft verkocht, waarom wordt dat verdedigt? 8GB is nu gewoon low-end en dat was de afgelopen paar jaar op zijn best mid-end.

[Reactie gewijzigd door batjes op 5 december 2024 18:12]

Dat is juist wat ik zeg: de 8gb kan nog meegaan.
De 4gb idd op zijn laatste beentjes.

EN 8gb op low end kaarten is altijd zo goed als nutteloos. De gpu kan dat niet bijbenen of je nu 15 of 25fps hebt op 4k maakt niet uit hoor.
Helemaal met je eens en ik denk dat je met dezelfde vraag loopt, waarom kwamen er nieuwe kaarten toen uit met maar 8gb, terwijl de games steeds zwaarder werden en raytracing kwam kijken. Waarom niet gelijk kaarten met meer dan 8gb? Alle budget varianten tot de 4000 serie, hebben 8gb aan boord, zo zonde.
Nou ja die vraag is wel te beantwoorden. Goedkoper en marges. Daarnaast had Nvidia jarenlang de voorsprong in brute kracht van de GPU zelf en heeft Nvidia natuurlijk vooral gestuurd op pixelverbeterende features die vooral afhankelijk zijn van de GPU en in mindere mate het VRAM om mooie pixels op een display te toveren.

AMD zou natuurlijk ook wel een beetje gek zijn om 16GB low-mid end kaarten tegenover 8-12GB mid-high end kaarten van nVidia te plaatsen.

Gewoon sund dat VRAM niet evenredig meegegroeit is met de rest van de GPU. Er zijn zo ontzettend veel pixels te winnen met meer VRAM. Zo zijn o.a. 4k-8k of zelfs (in mindere mate) 12k textures ook op 1080p merkbaar. GL&HF met 8-12k textures nu op 4k en <16GB vram. Zo blijft de low-end 1080p, we zitten al 20 jaar op 1080p.
De minimum eisen zijn nochtans voor 1080p en met mijn i7-9700K zou ik al niet meer voldoen.
Als het een goed spel is dat ik wil spelen, zal het dus enkele jaren moeten wachten.
Wel voordelig voor mijn portemonnee.
Die systeemeisen kloppen meestal voor geen kanten. De i7 9700k is 9/10 keer gelijk aan de ryzen 7 3700. Terwijl een ryzen 5 3600 als minimaal nodig is 8)7

[Reactie gewijzigd door loki504 op 4 december 2024 14:25]

cpu vereisten kloppen sowiezo vaak niet
Nou ja, verplicht hardware upgraden om een bepaald spel te kunnen spelen, is natuurlijk ook niet gratis, zeker als een PC niet aan de vereisten voldoet. ;)
Hou er wel rekening mee dat DLSS of frame gen extra VRAM gebruikt. Het is niet duidelijk uit de bovenstaande tabel of je dan genoeg VRAM hebt. Maar idd de medium en low instellingen van tegenwoordig zijn veel hoger dan die van 5 jaar geleden en vaak kan je dan nog steeds mooi beeld krijgen.
DLLS SR (wat men meestal onder dlss verstaat) niet die verlaagd (je rendert immer sin lagere resolutie) Frame gen idd wel.
Dit hangt heel erg per spel af. DLSS SR gebruikt extra frame-buffers achter de schermen. Ook moet je de textures LOD's verhogen alsof je naar de hoge resolutie tekent. Of DLSS je VRAM omhoog of omlaag brengt hangt af uit hoeveel lagen je G-Buffer is waarna je spel tekent bestaat.
In zowat alle games zal dat een lager vram usage geven, zeker als je naar performance dlss zakt.
Misschien ergens eens uitzondering, FG zal vram verhogen.
Integendeel... ik moet tegenwoordig heel goed kijken om het verschil tussen een medium en een high te zien en een low en een medium, de stappen zijn niet zo groot meer. In beweging merk je het haast niet eigenlijk.

Dat was vroeger wel anders, op low settings zag de game er al snel uit alsof alles met 10 polygonen was opgemaakt.
Dat is toch juist een extra reden om het geen probleem te vinden om de instellingen omlaag te zetten? Dat je het niet ziet wil niet zeggen dat het niet extra rekenkracht kost?

'Vroeger' is mij een te vaag begrip, als ik aan vroeger denk zie ik nog het keuze schermpje voor 16 of 256 kleuren voor me ;)
Vroegah kon en wou iedereen alles op ultra spelen. Nu met de prijzen is ultra een beetje de pro/nche/bleeding edge geworden. Terwijl het verschil tussen high en ultra meestal erg tegen valt.

Snap wel dat mensen een beetje Chagereinig worden. Eerder gooide je er een paar 100 euro tegen aan voor een upgrade om weer een jaar of 2 door te kunnen, nu kom je daar niet mee weg.

Dan nog raytracing, een goede implementatie van andere technieken kan net zo mooi zijn (cyberpunk doet het ook prima zonder) en zou hun markt wel iets vergroten denk ik zo.
Met mijn 4080 en 7800X3d PC was ik toch echt 2500 euro destijds totaal kwijt en kan hem alsnog niet op Ultra spelen... Vind ik toch wel een dingetje. Die 4090 koste al 2000 euro. Dus tel nog maar 1000 euro bij je bedragen op.
Los van die settings blijft mijn vraag waarom raytracing verplicht is voor dit spel? Lijkt me sterk dat ze de game niet konden maken die ook draait zonder raytracing. Doet me gewoon denken aan showcasing.
Ik heb zelfs een 3500 en kan alles wel deftig spelen op1080.
Op 1440 had ik iets meer moeite, maar kan nog wel even mee.

En persoonlijk zet ik meestal alles op Low en zet textures high of max samen met Anti aliassing ook omhoog zodat alle lijntjes netjes zijn.

Maar ik zit niet echt op deze titel te wachten.
Er is iets met de FOV bij Bethesda games das mij doet afhaken.
Idd en het ergste is er meestal amper verschil tussen ultra en iets lager zeker op lagere resoluties.
Lol, met mijn 12700k en 3080 (non ti) zit ik dus net onder recommended.
Ik dacht dat de setup wel iets meer future proof zou zijn ;(

/s
Altijd pc kopen voor wat je nu nodig hebt. Niet wat je denkt in de toekomst te kunnen gebruiken.
dat is wel wat overtrokken, genoeg mensen kopen een game pc voor duizenden euro's dan wil je wel dat games die over een jaar uitkomen nog steeds draaien. en niet dat iemand zegt "OH er is net een nieuwe feature die heeft jouw GPU niet dus pech voor jou"
Deze game draait ook op een xbox series S dus je kan mij niet wijs maken dat de specs zo hoog hoeven te zijn
Omdat iemand een pc bouwt voor duizenden euro’s moet die future proof zijn? Want het heeft geld gekost?

Het is de gek die 1500€ neertelt voor een gpu om wat spelletjes te kunnen spelen. En die doet dat niet om binnen 8 jaar in 1080p tegen 60fps te gamen. Die doet dat nu om het laatste nieuwe in 4k te spelen op 140fps.

[Reactie gewijzigd door BlaDeKke op 4 december 2024 14:09]

Ja, maar hier is dat dus OOK niet het geval... Die GPU van 1500 EUR (of 1800 EUR in dit geval) is net goed voor 4K60 FPS met frame gen en DLSS op performance. Dan neem je toch als developer je spelers gewoon in de maling vind ik...
Nee, een dure PC is gameproof omdat hij veel geld gekost heeft.

De prestaties gaan alleen relatief achteruit, niet absoluut. Je kan over acht jaar nog net zo goed (of zelfs beter door optimalisaties etc) 4K spelen als nu, alleen lijkt het minder als de 'norm' dan 8K @ 500 fps is.

Wederom een kwestie van reële verwachtingen en de instellingen juist gebruiken.

Als ik m'n oude GTX 1060 weer in m'n PC stop kan ik nog steeds op 1440p spelen zoals ik destijds deed. maar dan op lage instellingen en met minder fps en niet op high @ 100 fps wat m'n 3060 nu aankan.
Nou.... ik heb een 7700k met een 1080ti. Inmiddels redelijk bejaard maar ik kan zoverre bijna alle games nog fatsoenlijk draaien. De games die ik wil spelen dus hè? Geen online shooters etc. Een PC van een paar duizend Euro is altijd future proof geweest.
Natuurlijk houdt het een keer op, echter zit je met deze game met nieuwe hardware nog maar net aan de specs.
Als je een jaar geleden een 3080 in een systeem van duizenden euros stopte dan was je ook wat fout aan het doen natuurlijk...
Heb even /s bijgevoegd, was meer als geintje.
Heb de pc al een tijd maar schrok wel dat ik zag dat bij deze game hij al blijkbaar mid tier gezien wordt....
Wat is dat voor een raar advies, je stelt toch een pc samen op basis van budget en hoe lang je van plan bent om het systeem mee te laten gaan? Natuurlijk klopt het dat wat je vandaag koopt morgen oud is, maar opzich mag je er van uit gaan dat een 3080 redelijkerwijs een aantal jaar meegaat.
Een paar decennia zelfs, maar of je er dan nog veel aan hebt. ;) meer info zie mijn reactie hieronder op hades.

[Reactie gewijzigd door BlaDeKke op 4 december 2024 14:10]

In de meeste gevallen gaat dat ook op. Indiana Jones is een beetje een uitzondering momenteel. Ik vind het nogal een gok die Bethesda waagt hier! Ze gaan er vanuit dat veel mensen die deze game willen spelen ook aan de eisen voldoen of gaan voldoen. Ik moet het nog zien.
Maar de 3080 is ook al ruim twee jaar geleden vervangen... Dus die moet ook al een aantal jaar oud zijn zelfs als je hem vlak voor de release van de 4000 serie gekocht hebt (wat dan erg slechte timing was).
wat dan erg slechte timing was
Het woord timing suggereert dat er een bepaalde mate van informatie was waarop getimed kon worden. En heet leek op dat moment anders best goede timing.
Er zijn genoeg mensen die een hele tijd gewacht hebben met de aankoop van een nieuwe GPU tot eindelijk die absurde prijzen van de 30xx generatie begonnen te dalen.
Ergens begin/medio 2022 had je tenminste weer een beetje het idee dat je een enigszins 'normale' prijs (hoewel nog steeds prijzig) betaalde voor een 3080.
En een xx80 is (was) in iedere generatie gewoon een, als niet dé high-end kaart, die normaal qua prestaties toch wel een generatie kon overbruggen omdat er geen grafische optie was die het aantal fps in één klap van 100 kon reduceren naar 0.
De 30xx's zouden ook, na een magere introductie met de 20xx serie, het hele raytracing gebeuren beter moeten handelen. Wat een reden was om een Nvidia kaart te kopen i.p.v. AMD.

Hoewel de 10GB VRAM in de 3080 twijfelachtig was is die, op een enkele game uitgezonderd, tot nu toe genoeg geweest om alles op de hoogste settings te kunnen spelen op 3440x1440 met meer dan voldoende fps.
Maar op het moment dat je in een nieuwe game geavanceerde licht-, schaduw- en reflectieopties aanzet wordt je 'high-end' kaart onmiddellijk gedegradeerd tot budget-kaart.

Ik ben het er volledig mee eens dat een nieuwe 30xx kopen op het moment dat de 40xx al uit waren zonder je te verdiepen in prestaties en mogelijkheden op verschillende vlakken niet slim was.
Aan de andere kant heeft Nvidia gewoon GPU's geleverd die (misschien wel bewust) duidelijk minder toekomstbestendig waren dan in het verleden over het algemeen het geval was.
Ik beweer niet dat het opzet is geweest maar het kan geen toeval zijn dat die GPU's nu opeens met iedere nieuwe generatie 'verouderd' zijn als je op een hoog grafisch niveau wilt gamen.
En zelfs al zou iemand volledig op de hoogte zijn geweest van alle ontwikkelingen of een glazen bol hebben gehad om te kunnen weten wat er uitgebracht zou gaan worden dan zou er nog steeds geen goede timing zijn.

Ik heb hier op de site al een paar keer de opmerking voorbij zien komen dat iemand met zijn 4090 voorlopig wel goed zit.
Maar kijk voor de gein eens naar het verschil tussen de 4080 en 4090. En voor de 50xx serie hebben ze hetzelfde gedaan.
Bovendien krijgen we games met engines waar het raytracing, dlss e.d. wel aan toegevoegd zijn maar daar niet voor geoptimaliseerd zijn en daarom een GPU van €2000+ nodig hebben om dat een beetje degelijk op een scherm te krijgen.

Het enorme verschil tussen mijn 1070 van €450, waar ik jaren plezier van heb gehad tot aan de aankoop van mijn 3080 voor €1000, die na 2 jaar in sommige games al niet meer mee kan, is absurd groot.
Ik hoor mensen al denken, ja maar dan zet je toch dingen lager en RT uit en je hoeft niet op 4K te gamen en bla. bla, bla.
Mensen zijn te veel ge-brainwashed door de industrie die je ieder jaar weer een nieuw apparaat aan wil smeren. Iets dat nog eens extra aangewakkerd wordt door steeds nieuwe uitvoering als Ti, Super en TI Super.

TLDR: Dat een high-end kaart van €1000+ na 2 jaar bepaalde dingen waar je het ding voor gekocht hebt al niet meer kan heeft weinig met timing te maken aangezien je niet in de toekomst kunt kijken.
Misschien was die ontwikkeling niet te voorkomen, niet op een betere manier geleidelijk in te voeren en grafisch gezien zeker wel gewenst, maar dat maakt het niet minder zuur voor de mensen die er tegenaan zijn gelopen.
Voor de duidelijkheid, met slechte timing bedoel ik niet per se dat het daarmee je eigen schuld zou zijn, slechte timing kan ook gewoon door pech komen natuurlijk.
Ik hoor mensen al denken, ja maar dan zet je toch dingen lager en RT uit en je hoeft niet op 4K te gamen en bla. bla, bla.
Mensen zijn te veel ge-brainwashed door de industrie die je ieder jaar weer een nieuw apparaat aan wil smeren. Iets dat nog eens extra aangewakkerd wordt door steeds nieuwe uitvoering als Ti, Super en TI Super.
Enige opmerking hierbij is... Is het niet juist brainwashing om te denken dat je per se alle beschikbaar settings op zijn hoogst moet hebben en een bepaalde minimale framerate op een bepaalde hoge resolutie moet kunnen spelen?

Verder over het algemeen wel met je eens hoor. Mijn enige punt was eigenlijk, er werd gezegd dat je zou mogen verwachten dat een 3080 wel een paar jaar mee zou kunnen gaan en die 3080 is op dit moment ook een paar jaar oud... Dus, punt?
Verder zeker ook eens met je punt over vram bij Nvidia kaarten...
Is het niet juist brainwashing om te denken dat je per se alle beschikbaar settings op zijn hoogst moet hebben en een bepaalde minimale framerate op een bepaalde hoge resolutie moet kunnen spelen?
Ik kan niet voor iedereen spreken maar normaal gesproken is er een niveau waarop iemand wil/kan gamen, afhankelijk van de hardware die je hebt, je budget, je prioriteiten daarin.
Het is in het verleden wel eens voorgekomen dat ik een videokaart had die een nieuwe functie of nieuwste game simpelweg niet kon draaien, maar dan kocht ik voor €200-€250 gewoon een nieuwe mid-range kaart die weer 3 jaar mee kon omdat er verder qua resolutie of maximale Hz-en e.d. amper iets veranderde en (een uitzondering daargelaten) de games niet absurd veeleisender werden.

Ik speel hoofdzakelijk RPG's en wil die op een bepaald grafisch niveau kunnen draaien omdat karakters, omgevingen en voornamelijk sfeer in RPG's een enorme toegevoegde waarde hebben.
Vanuit dat oogpunt heb ik ook al heel lang ultrawide monitors. Anderhalf jaar geleden naar 3440x1440, 165Hz gegaan. Niet dat ik die fps heel spannend vind, maar omdat het kan en omdat ik 1080 in deze tijd voor media als films en games toch echt wel als ouderwets zie.
Ik was me er ook terdege van bewust dat dat een wat betere en duurdere GPU zou vergen.
dat een 3080 wel een paar jaar mee zou kunnen gaan en die 3080 is op dit moment ook een paar jaar oud... Dus, punt?
Punt is dat het bij mijn weten nog niet is voorgekomen dat een PC onderdeel van €1000 (na de prijsdaling) anderhalf jaar na release met het aanzetten van 1 enkele functie gereduceerd wordt tot budgetkaart van 8 jaar geleden.

Je had een 20xx-serie kaart nodig om van raytracing gebruik te maken. Je hebt een 40xx-serie kaart nodig om van DLSS 3.0 gebruik te maken.
Nvidia lijkt het allemaal niet te boeien. Die krijgen hun geld toch wel. Nu zeker met al die AI-GPU's.
Ja ben het ook met je eens dat mooi beeld belangrijk is. Ik heb zelf een 42" oled als monitor om die reden (en omdat ik van groot hou) en ja dat kost ook veel gpu.
Maar mijn punt is, zie je ook echt dat verschil als je de settings iets omlaag zet? Ik in veel gevallen niet namelijk.
En dit:
Punt is dat het bij mijn weten nog niet is voorgekomen dat een PC onderdeel van €1000 (na de prijsdaling) anderhalf jaar na release met het aanzetten van 1 enkele functie gereduceerd wordt tot budgetkaart van 8 jaar geleden.
Dat weten we toch nog helemaal niet? We hebben alleen de systeem vereisten gezien, of vergis ik me, of heb je het niet meer specifiek over deze game?
Serieus? Jij houdt er geen rekening mee dat je je videokaart na een paar jaar wil upgraden? Ik bouw mijn PC's voor 6-8, en ongeveer halverwege koop ik een nieuwe GPU (al denk ik dat mijn 3060Ti nog wel een jaartje of 2 mee kan)
Natuurlijk. Ik zorg er gewoon voor dat dan alle hardware aan vervanging toe is. Ipv de rest van de pc extra duur te kopen omdat er ooit misschien een nieuwe gpu in gaat. Tenzij de rest van je pc zo beefy moet zijn voor je werk, ben je geld aan weggooien.

[Reactie gewijzigd door BlaDeKke op 4 december 2024 15:21]

Dat is de insteek, toch kan je rekening houden met wat gaat komen. Dat doe ik zelf elke build wel, even een paar jaar "de toekomst" in kijken. Wat vooral gewoon inhoud, wat doen de huidige consoles en wat kunnen we de volgende generatie verwachten.

Dat heb ik zelf ook gedaan, is mij met mijn vorige build heel erg goed gelukt en het gaat mij deze build ook lukken. Op naar weer 6+ jaar levensduur voor mijn PC zonder dat ik naar slideshows of pixelbendes hoef te koekeloeren.
Och, dit is maar 1 game. Wellicht een game wat niets voor je is en anderzijds, het spel zal vast wel prima speelbaar zijn op jouw build met wat tweaks in de instellingen en na wat updates/patches van de game. :)
Maar wel ruim boven minimum dus je zal vast zeer acceptabele settings kunnen hanteren.
Ik heb een 3060 Ti en ik ga er vanuit dat ik ook een redelijk goede game ervaring kan verwachten.
Vaak zijn die presets niet zo goed geoptimaliseerd qua performance/fidelity

[Reactie gewijzigd door Dekar op 4 december 2024 13:33]

Met zo'n systeemeisen voor PC denk ik niet dat deze game daar een succes gaat worden...
Ook wel bizar dat de eisen in verhouden voor PC veel hoger zijn. Duidelijk geoptimaliseerd voor console en niet voor PC.

[Reactie gewijzigd door Robbedem op 4 december 2024 13:21]

De RTX 2060 is 5 jaar oud, de RX 6600 3 jaar maar is wel de traagste AMD videokaart met (bruikbare) ray tracing. Techniek staat niet stil. Het is nu wel gebruikelijk dat hardware wat langer mee gaat, maar 20 jaar geleden keek niemand vreemd als de minimum vereiste voor een nieuwe game een 5 jaar oude videokaart is.

Overigens is een RX 6600 trager dan de GPU van een PS5 of Xbox Series X, dus kun je nu niet zomaar zeggen dat het beter geoptimaliseerd zou zijn voor console. De Xbox Series S is nog een stukje trager maar het kan ook nog zijn dat die heel slecht gaat draaien of veel gebruik maken van upscaling.

Ik denk ook dat het niet lang zal duren voor een modder de ray tracing uit dit spel sleurt (als het niet teveel dicht getimmerd is), en het zo wel zal laten werken op oudere GPUs.
Als deze game leunt op RTGI dan sloop je dat er niet zomaar uit. Star Wars Outlaws heeft dan helemaal geen belichting en dat zal hier hetzelfde zijn.

Je kunt het ook niet zomaar vervangen met een ander belichtingsmodel want dan ziet de game er totaal anders uit. Anders had MachineGames dat ook wel gedaan.

Je ziet aan Unreal's Lumen hoe lastig het is om een fallback voor RTGI te bieden, en hoe weinig performancewinst je daarvoor krijgt.
Misschien niet, een RX 6600 is al voldoende op het spel normaal te spelen dus als de console versie geen of zeer beperkte ray tracing gebruiken is het al een stuk lichter.

Ik volg oa. Digital Foundry, en het is niet eens zo raar als een console doodleuk een 1080p of daaronder resolutie draait en alles naar "4K" upscaled.

Dat in combinatie met lagere instellingen, dus zo vergelijkbaar is het met de PC vaak niet.
Dat is niet veel anders dan op PC. Een "4k" game die draait met DLSS ultra performance is intern ook maar 720p.
Dynamische resoluties of upscaling kan uit op PC.

Op concoles kan dat vrijwel nooit uit.

En dat weten meeste mensen niet, en dat is prima zolang ze niet denken dat 4k op een console hetzelfde is als native 4k op PC, want dan wil weleens de (onnodige) discussie starten waarom de console versie (eventueel) beter draait.

Maar het klopt wel wat je zegt.

[Reactie gewijzigd door Mizgala28 op 4 december 2024 14:05]

Klopt maar tegenwoordig gaan bijna alle releases er wel vanuit dat je een upscaling techniek gebruikt. DLSS/FSR/XeSS (en soms zelfs framegen) om speelbare framerates te halen zelfs op high end hardware. (Wat helaas beetje zielig is).

[Reactie gewijzigd door phray op 4 december 2024 14:11]

Het klopt dat veel games tegenwoordig upscaling technieken hebben toegevoegd, maar veel games zijn gewoon speelbaar zonder.

Als jij deze artikel even goed had gelezen, zie je dat deze game volledige raytraced is, dus geen rasterization. Er is op dit moment geen enkele hardware instaat om dit te renderen zonder upscaling technieken.

In Cyberpunk 2077 haalt een RTX 4090 ook maar 15 fps wanneer je path tracing (full-raytraced) aanzet zonder upscaling technieken.

Daaemaast door deze technieken kunnen mensen met oudere hardware eventueel nog langer door speler dan jaren geleden.

Dus, jij mag het misschien zielig vinden dat ontwikkelaars deze technieken gebruiken. Maar ik vind juist van niet, zonder deze technieken kon ik bijv. nog niet genieten van path traced (full traced) games.

Het is ook niet alleen upscaling technieken maar ook op het gebied van rendering zijn ze vooruit gegaan. Zo is Nvidia bezig met ReSTIR.

[Reactie gewijzigd door Toonen1988 op 4 december 2024 14:30]

Dat is een trend die ik zelf ook slecht vind.

Maar om daarbovenop Framegen te gooien om 60fps te halen vind ik al helemaal triest, doelende erop dat dit icm met een RTX 4090 is.

Ik zie technieken als DLSS en Framegen dan ook steeds meer als een vervloeking, ze zijn niet op de markt gebracht om een game speelbaar te maken op highest end hardware, doel was dat high end hardware betere performance erdoor kon behalen, en hetzelfde geldt voor zwakkere hardware.

Zodat je hogere instellingen kon behalen met een instapper of mid range GPU, en niet om een game überhaupt speelbaar te maken.

Maar als ik deze systeemeisen zie, 4K is zwaar maar een RTX 4090 is geen zwakke kaart, en dan heb je DLSS en Framegen nodig voor 60fps :F

Voor een game die wel mooi is, maar niet mooi genoeg om zo absurd zwaar te zijn.

Maar goed, dit is de toekomst vrees is, steeds meer devs die DLSS en Framegen als een excuus gaan gebruiken voor niet geoptimaliseerde games.

[Reactie gewijzigd door Mizgala28 op 4 december 2024 14:20]

Wat is er slecht aan betere graphische pracht te kunnen gebruiken op dezelfde hardware?
Niemand gebruikt dit als excuus.
Niets. Maar mensen hebben vaak de neiging om subjectief zaken te bekijken. Ene techniek goed andere techniek fout. Persoonlijk zie ik het als weer een extra optie om games grafisch te verbeteren terwijl je frames behouden kan of zelfs wint.
Frame gen werkt zwaar sub-optimaal onder de 60fps, gezien het Frames uit het niets tovert van bestaande frames, als er te weinig source materiaal is ga je echt jank en latency ondervinden.
Zie ook Digital Foundry analyze YouTube: Can Frame-Gen From 40FPS to 120FPS/60FPS Actually Work?

Hoop niet dat ze inderdaad deze shortcut ingaan idd, zou echt heel slecht zijn, en lijkt het meer een excuus om niet verder te optimaliseren, maar goed hier staat Bethesda helaas om bekend (Star field was dan een uitzondering hierop, maar die hebben ze meerdere keren ook uitgesteld)

[Reactie gewijzigd door Turismo op 4 december 2024 15:25]

Meestal zijn de console settings lager dan de recommended pc settings. Bij Digital Foundry ontdekken ze af en toe dat voor bepaalde effect zelfs ‘lower than low’ gebruikt wordt.

Vermoedelijk zal je dus geen high-end pc nodig hebben om op console settings te spelen. Vaak is iets een RTX 3060 voldoende. Ik ben benieuwd naar de analyse van Digital Foundry.
Duidelijk geoptimaliseerd voor console en niet voor PC.
Dat is het probleem met PC, optimaliseren heeft weinig nut vanwege de ontelbare configuraties. Denk eerder dat ze gewoon niet wilden inbinden door moeite/geld te steken in het spel op oudere hardware te laten draaien. Laten we wel wezen, de RTX2060super is al weer van 2019.
Ik bedoel... hun minimum vereisten zijn nu een 6 jaar oude low-end GPU. Ik denk niet dat dat zo'n extreme vereisten zijn.
Heb eigenlijk niks van deze game mee gekregen, maar als ik de trailer kijk wordt ik wel matig enthousiast.
Ik vind de graphics in de trailer niet heel representatief voor de systeemeisen.
Vindt het er persoonlijk prima uitzien. Zou graag wat vaker zien dat je decals achter kunt laten in omgevingen, bloed, water, zweet, kogel hulzen, gebroken meubels / kisten / andere objecten, krassen in muren.

Hier check dit eens:
YouTube: Official Gameplay Reveal Trailer: Indiana Jones and the Great Circle

Heb je gekeken naar sommige van die licht effecten op die klim op die hij kapot maakt, hoe licht over zijn gezicht en jas valt.

En wat mij super interessant lijkt, dat het zoeken naar schatten / voortgang, ook ECHT ray tracing als een spel element kan gebruiken. Dat het er net anders uit ziet onder een bepaalde hoek omdat het een materiaal het licht er anders uit laat zien onder bepaalde belichtings omstandigheden. Zonder dat je er een witte gloed of icoon overheen zet.

Dat lijkt me super vet.
--
Maar om in te gaan op je opmerking; het ziet er niet "fantastisch uit" maar wat ik liever heb is, het ziet er goed uit en draait poepie strak. En ziet er overal even mooi uit. En niet dat ik een sprong mis omdat ik een frame drop krijg, dat haalt me helemaal uit het spel. Dus ik vindt het niet erg als ze krachtigere hardware vragen, die tijdens rustige scenes uit de neus aan het wreten is en als de actie start dat alles nog steeds lekker vlot werkt.

[Reactie gewijzigd door NEO256 op 4 december 2024 13:39]

4090 als requirement is wel een interessante ja :P

Die niet-bestaande CPUs voelt ook een beetje dom aan. Het is bijna alsof AAA studios tegenwoordig niet eens meer weten wie hun eindgebruikers zijn. Minimale specs tegenwoordig voelen onrealistisch hoog aan vaak. PC die paar jaar geleden nog richting de 1k gaat kun je dit nog net op 1080p low mee spelen....
Lijkt me eerder op een complete verwaarlozing van het aspect game optimization.
Ik vermoed dat het wel geoptimaliseerd is, maar dan voor console en niet voor PC.
Tia, tot hoe ver wil je gaan? Het aantal configuraties wat betreft GPU alleen al is gigantiscg, tel daar dan nog de CPU en geheugen ook nog eens bij op en echte optimalisatie is bijna niet meer te doen voor PC.
als advies voor ultra*
Als ik die additional notes lees klinkt het niet veelbelovend icm met ray tracing.

Zonder is het native, maar met Ray Tracing komen ze meteen met "DLSS + Framegen" voor 60fps.

ik krijg hier langzaam zelfde trauma van als met Monster Hunter Wilds

Framegen om 60fps te halen zou haast verboden moeten worden, misschien ben ik hier wat kort door de bocht maar Framegen lijkt mij vooral nuttig juist als je al 60fps haalt en NOG hogere framerates wil.

Mijn mening of DLSS/FSR terzijde, dat is weer een ander verhaal.
Ik dacht ook direct aan Monster Hunter Wilds toen ik dat zag. Een studio als MachineGames zou toch beter moeten weten. Frame-generation om 60fps te behalen... mensen, waar zijn we mee bezig?
misschien ben ik hier wat kort door de bocht maar Framegen lijkt mij vooral nuttig juist als je al 60fps haalt en NOG hogere framerates wil.
Dit is ook precies waar het voor wordt bedoeld door NVIDIA en AMD.
Klopt, dlss en fsr framegen werken het beste met een basis fps van rond de 60 (of hoger.)

Ik ben fan van DLSS 2 maar vrij kritisch over input latency. Heb DLSS 3 framegen recent met de path tracing update van cyberpunk geprobeerd. Icm met een 4090 en een basis 4k DLSS balanced resolutie was het net acceptabel voor een single player game inho.

Ik ben geen fan, maar het is niet zo slecht als waar ik bang voor was. Denk dat veel mensen minder kritisch zijn dan ik, maar om vanuit 30 fps naar 60 te gaan lijkt me geen pretje.
Dus deze game moet ongekende grafische pracht en praal bieden (onwaarschijnlijk bij Bethesda), of is gewoon slecht geoptimaliseerd (heel typerend voor Bethesda). Denk dat mijn huidige pc nog prima is :+
Het is bijzonder dat raytracing verplicht wordt. Blijkbaar hebben ze op de consoles ook gebruik gemaakt van raytracing en willen/kunnen ze de effecten niet omzetten.
Dus ja, mogelijk slecht of gemakkelijk omgezet van de console versie naar de pc. ;).

Ik heb een 6700xt. Raytracing werkt, maar enkel goed met upscaling en fluid motion. Ik zet het vaak aan bij de wat oudere games. Bijzonder dat ze hetzelfde doen op de consoles, aangezien hier een soortgelijke performance in zit qua raytracing.

Ik ben zeer benieuwd naar de performance.
Betekent dit dat RT niet uitgezet kan worden? Interessante keuze, want dan zijn er maar weinig game systemen die deze game zullen kunnen draaien.
Volgens de steam hardware survey hebben de meeste game pc’s inmiddels hardware die ray tracing aan kan.

Niet zo gek ook, de eerste ray tracing kaarten stammen uit 2018 en zitten al in hun zevende levensjaar.
'aan kan' is niet gelijk aan gewoon uitzetten.

Ik moet nog de eerste game vinden waar RT zo bizar veel meerwaarde heeft dat ik daar rustig 30-50% framerate voor inlever, nog erger in combinatie met framegen, ik draai liever een game solide 60 (of alles t/m 144fps) stabiel dan een 'ooh wat mooi moet dit zijn' krap 60fps of lager.
Er zijn zeker wel games waar ray tracing/path tracing een gigantisch effect hebben op de atmosfeer en de beleving.

Kijk bijvoorbeeld naar de Digital Foundry analyse van Alan Wake 2 en Cyberpunk 2077 met path tracing.

Het probleem met ray tracing is dat het vaak pas echt iets wordt met de hogere settings en technieken zoals ray reconstruction.

Ook is er helaas vaak maar een beperkte implementatie (zeker bij de console versies). Ik vermoed dat developers of uitgevers het minimale van het minimale doen om maar het hokje ‘raytracing’ te kunnen afvinken..

Dat zorgt er, in mijn ogen, voor dat de perceptie van veel mensen negatief is. Begrijpelijk ook want ik word zelf als liefhebber ook niet warm van de lackluster implementaties.

Bij consoles kunnen ze het wat mij betreft zelfs beter helemaal weglaten en wachten op de volgende generatie want de hardware is simpelweg gewoon niet in staat om het fatsoenlijk te implementeren. Je levert de halve framerate (die vaak al niet hoger dan 60 fps is) in voor een paar minimale effecten die niet eens opvallen.

[Reactie gewijzigd door DLSS op 4 december 2024 14:40]

Cyberpunk is een mooi voorbeeld inderdaad, die 'effect op atmosfeer' brengt het resultaat dat ik amper 40fps haal bij de 'fishes', zoals ik zeg.. het effect op gameplay is mij te groot om het 'nodig' te vinden.

Misschien heb ik gewoon geen zwak voor mooi lampjes en reflecties in plassen, maar het voelt voor mij geen absoluut toegevoegde waarde tegenover de prijs waarmee het komt. En zijn, al jaren, genoeg trucjes geweest om bepaalde lichteffecten te neppen, wat trouwens ook in cyberpunk gebruikt is, waar absoluut geen realtime RT voor nodig is.

En prima op een 4090TI of straks 5090 dat het allemaal mooi en prachtig en gaaf is, zonder teveel inleveren op je framerate, blijft het simpele feit.. het gros heeft dit niet en kost het teveel. En dan komt het aspect wat ik wel als negatief ervaar, die zware zut compenseren door framegen/DLSS, de schermfilters van tiktok, het makeup van programmeurs die elke poging van performance maskeren door simpel DLSS/framegen in te schakelen, neem bv Ark Ascended vs Ark Evolved.

En dan gaat het echt niet meer om de 'realistische' games, er zijn genoeg games die de hype van RT hebben opgepakt, maar in een gamesetting die ronduit... cartoonisch op z'n best is. World of warcraft, Doom, Fortnite, Forza, Deathloop of zelfs BF2042, games die of grafisch geen peak zijn, of de game een andere focus heeft dan 'mooie graphics', met name gameplay of snelle engines.
Het is meer dan reflecties en lampjes hoor haha 😅. Maar ik begrijp helemaal wat je bedoelt.

Ik heb zelf een 4090 en in die bovengenoemde singleplayer games is het echt krankzinnig mooi. Ik ben al 20 jaar liefhebber van graphics maar zelden ben ik zo enthousiast geweest over een leap forward.

Hiervoor had ik een 3080, en cyberpunk was gewoon nauwelijks speelbaar met hoge ray tracing settings. Heb dat spel toen 3 jaar in de ijskast gedaan omdat ik de game met de atmosferische RT effecten wilde ervaren.

Ik denk dat het langzamerhand op begint te komen. Implementaties worden beter en hardware wordt ook beter. (Een 4090 is met ray tracing bijna 2x zo snel als een 3090, laat staan een RX 6900).

Ik verwacht dat met de volgende generatie de 5070 kaart krachtig genoeg gaat zijn voor path tracing. Als een xx70 klasse product de effecten aan kan ga je waarschijnlijk een stroomversnelling krijgen al verwacht ik dat het pas bij de RTX 60xx generatie mainstream gaat worden.

Tot die tijd zullen we denk ik meer diamantjes gaan zien zoals Alan Wake 2 en cp 2077, maar het grootste deel zal nog steeds halfbakken implementaties hebben zoals de games die jij opnoemt.
Forza is wel echt een voorbeeld van hoe het niet moet. Die ray traced reflecties zie je pas wanneer je bijna tegen iets aan rijd omdat de ray distance zo kort is. Niet dat je daar überhaupt op aan het letten bent tijdens een race.

Maar ik maak zelf een stylized game en vind RTGI veel toevoegen. En volledig optioneel natuurlijk dus valt weinig over te klagen.
Het verschil in dit spel is waarschijnlijk dat er geen fall-back is voor als je geen ray-tracing hebt. Dus geen baked lighting, geen shadow maps, geen ssr, geen ssao. Dit was vast een bewuste keuze van de ontwikkelaars geweest omdat meerdere systemen te hebben die hetzelfde doen vaak leidt tot complexere software die moeilijker te onderhouden is.
Is dat niet het hele punt van raytracing voor developers? Geen gedoe met baked lightning en veel sneller en efficiënter kunnen werken?
Dat en dat er geen restricties zijn in hoe dynamisch je wereld is. Maar tot nu toe kwam dan nooit van de grond, deels omdat de RT hardware (en software, er zijn in de jaren ook veel efficiëntere algoritmen ontwikkeld) nog niet zover was en deels omdat de spellen ook oude consoles moesten ondersteunen dus sowieso ook baked lighting moesten doen.
Ja maar op low settings met een RTX 2070 of 3060 spelen met RT on, of medium + RT uit is een no-brainer. Vandaar mijn vraag.
Ja helemaal eens. Ik denk dat ray tracing pas vanaf de 4070/3080 een beetje bruikbaar is met settings die een verschil maken.
is er ook ondersteuning voor AMD Fluid Motion Frames of alleen DLSS 3.0?
Zo - dat zijn stevige eisen!

Ik hoop dat het een beetje fatsoenlijk draait op mijn RTX 4060 dan. Hoger dan 1080P hoeft niet eens, en 30fps is op zich ook prima, als het er maar een beetje mooi uitziet.

Op dit item kan niet meer gereageerd worden.