Intel brengt XeSS 2 uit voor alle ontwikkelaars, komt met Unreal Engine-plug-ins

Intel heeft een sdk voor XeSS 2 uitgebracht. Ontwikkelaars kunnen de upscalingtechniek daarmee integreren in hun games. Het bedrijf komt ook met plug-ins, waarmee XeSS 2 gemakkelijk kan worden toegevoegd aan Unreal Engine 4- en 5-games.

De XeSS 2-sdk is vanaf nu beschikbaar op GitHub. Intel bracht op maandag XeSS-sdk 2.0.1 uit; het is de eerste versie die de nieuwe features van XeSS 2 bevat. Los daarvan komt het bedrijf met plug-ins voor Unreal Engine 4 en 5. Ontwikkelaars die gebruikmaken van die engines, kunnen de upscalingtechiek met zo'n plug-in gemakkelijk toevoegen aan hun game, zonder dat daar extra ontwikkkelwerk voor nodig is. De Unity-plug-in is op het moment van schrijven overigens nog niet bijgewerkt naar XeSS 2.

Intel kondigde XeSS 2 in december al aan. Het wordt al gebruikt in onder andere F1 24. Met de release van een sdk is XeSS 2 nu echter beschikbaar voor alle gameontwikkelaars. De techniek bevat verschillende nieuwe features ten opzichte van zijn voorganger.

XeSS 2 bevat nog steeds een upscalingtechniek, waarbij games op een lagere resolutie worden gerenderd en vervolgens opgeschaald voor een hogere framerate Daarnaast introduceert XeSS 2 framegeneration, net zoals Nvidia en AMD die bieden. XeSS 2 bevat ook een techniek die de inputlag van pc's moet verlagen.

Intel XeSS2

Door Daan van Monsjou

Nieuwsredacteur

17-03-2025 • 21:49

101

Reacties (101)

101
101
35
2
0
56
Wijzig sortering
Heb een AMD RDNA 2 kaart. Ik heb even de Xess 2.0 DLL in Horizon Zero Dawn Remastered geprobeerd (gewoon libxess.dll vervangen) en het werkt gewoon! Helaas is de performance een paar fps minder dan de FSR 3.1.3 DLL bij gelijke instellingen. Minder ghosting maar ook meer 'knipperende' dingetjes, zoals het haar van de main character.

[Reactie gewijzigd door kikibu op 17 maart 2025 22:18]

Goed om te lezen dat het werkt! Of je FSR of XeSS wil gebruiken verschilt altijd al een beetje per spel, maar er zijn in ieder geval twee opties. En in tegenstelling tot FSR blijft XeSS zich wél doorontwikkelen voor dit soort kaarten, want de ontwikkeling van FSR 3 zal nu wel dood zijn.
Denk je? Ik neem aan dat nieuwe games op de huidige consoles wel gebruik wil maken van FSR ook, die kunnen namelijk niet FSR4.

[Reactie gewijzigd door kikibu op 18 maart 2025 01:16]

Tsja Sony zal nu meer focussen op PSSR, dus dan zou Microsoft het moeten doorontwikkelen. Op zich natuurlijk mogelijk.
Nee hoor. Volgens mij had Sony gezegd dat ze in de PS5 Pro de frame gen van FSR4 willen gebruiken geloof ik.
Dat zou best kunnen, maar daar heb je niks aan als FSR4 niet werkt op je videokaart.
Werkt FSR niet gewoon op alle videokaarten? Of is dat veranderd met FSR4?
FSR4 werkt alleen op RDNA4. Op driver niveau dan. Want als ze met PSSR FSR4 gaan gebruiken, welke een RDNA2-kaart heeft, snap ik niet waarom dat dan zo is.
De PS5 Pro heeft ML-hardware aan boord die in principe krachtig genoeg is voor FSR4. Desktop-RDNA 2-kaarten hebben die hardware niet.
Maar RDNA3 daartegenover weer wel
RDNA 3 heeft ML-hardware aan boord, maar ik weet niet of die geschikt en krachtig genoeg is voor FSR4. Dat zou je op moeten zoeken. De requirement voor FSR4 is volgens mij gewoon openbaar.
Nee. De techniek van FSR4 gaan ze gebruiken. Waarschijnlijk in samenwerking met AMD. Maar het zal denk ik gewoon PSSR heten en dus niet FSR4.
Ga er maar vanuit dat het huidige fsr 3.1 het eindstation is voor fsr3 ja.
Nu chips niet met het tempo van de wet van Moore kleiner gemaakt kunnen worden komen ze met deze prachtige technieken. Het geeft gaming een des te langer leven en ik verheug me des te meer dat Nvidia concurrentie heeft op het mid-range segment. XeSS, DLSS en FSR komen op hetzelfde neer en alle drie de kampen ondersteunen dit mét frame-gen en dat is een goede zet. Vroeger moest je de resolutie omlaag schroeven voor leuke framerates en nu hoeft dat niet meer. Dat is stiekem een heel groot pluspunt.
Vroeger moest je de resolutie omlaag schroeven voor leuke framerates en nu hoeft dat niet meer
Nee, dat doet xess voor je, die zet de resolutie omlaag voor de renderpass om het daarna weer omhoog te krikken. De totale set van bewerkingen zal wel een performance winst opleveren... Maar ten koste van wat? Conversies hebben altijd kwaliteitsverlies. En renderen op lage resolutie moet detailverlies opleveren.

Concurrentie voor NVidia is altijd goed. Maar het blijft mij verbazen hoe happy mensen zijn met een frame-pje meer. De mensen zijn dwaas gemaakt door marketing. De race om de "grootste" te hebben. :) Ik zou wel eens willen weten of hier verschil optreed tussen mannelijke en vrouwelijke gamers.
Maar ten koste van wat? Conversies hebben altijd kwaliteitsverlies. En renderen op lage resolutie moet detailverlies opleveren.
Nee hoor, super resolution geeft soms betere beeldkwaliteit dan native
Maar het blijft mij verbazen hoe happy mensen zijn met een frame-pje meer. De mensen zijn dwaas gemaakt door marketing. De race om de "grootste" te hebben. :) Ik zou wel eens willen weten of hier verschil optreed tussen mannelijke en vrouwelijke gamers.
"grootste"? Je hebt duidelijk geen idee.
Ik speelde cyberpunk op 4k veel mods, ultra detail, path tracing.
Zelfs op een 4090 is dat 25-30 fps, onspeelbar dus.

Enkel met dlss kan je dat opschroeven naar 60-70 fps zonder dat je dat merkt. Speelbaar,

[Reactie gewijzigd door k995 op 17 maart 2025 23:52]

Haha, ja ik heb inderdaad geen idee, ik heb 40 jaar aan gaming meegemaakt en wat jij onspeelbaar noemt was ooit normaal en was prima speelbaar. Ik kan alleen maar tot de conclusie komen dat de gamers verwend zijn geraakt en totaal overtuigd van marketing onzin om geld uit hun zak te kloppen tot zulk een niveau dat ze dat hand en tand zullen verdedigen.

En iedereen die het niet eens is heeft natuurlijk geen idee. Waar heb ik dat eerder gehoord, oh wacht, maga fans e.d
Haha, ja ik heb inderdaad geen idee, ik heb 40 jaar aan gaming meegemaakt en wat jij onspeelbaar noemt was ooit normaal en was prima speelbaar. Ik kan alleen maar tot de conclusie komen dat de gamers verwend zijn geraakt en totaal overtuigd van marketing onzin om geld uit hun zak te kloppen tot zulk een niveau dat ze dat hand en tand zullen verdedigen.
Wat ben je ontzettend bitter voor iemand van 45 zeg...
Prima dat 25-30 fps 40 jaar geleden als speelbaar werd gezien. 40 jaar geleden waren auto's die zure regen veroorzaakten en waarvoor met de hand de choke gesteld moest worden voor een koude start ook nog normaal. 40 jaar geleden rookte een stuk groter deel van de samenleving nog dan vandaag de dag. 40 jaar geleden was de autogordel pas 14 jaar verplicht en was het hardstikke normaal als je bij een klein verkeersongeluk gewoon dood ging. Kortom, tijden veranderen. Er is vandaag de dag gewoon veel meer rekenkracht beschikbaar voor de consument en gamen is een hobby. De hobbyist bepaald zelf hoe hij zijn/haar hobby uitvoert.

Moeten de rest van de gamers nu genoegen nemen met 25/30 fps en daardoor minder lol hebben in hun dure hobby omdat jij, een of andere willekeurige zuurpruim op internet met een slecht humeur, vindt dat dat "verwend" is? Weet jij het beter omdat jij meer ervaring hebt met naar pixels op een scherm staren? Geeft dat jou het recht om andermans mening over hun hobby te minachten?

Het staat iedereen vrij hoe veel geld ze uit geven aan hun hobby. Daar hebben ze echt geen tirade bij nodig van de een of andere veertiger die zich al 80 jaar oud en zuur waant.

[Reactie gewijzigd door youridv1 op 18 maart 2025 09:19]

Nee, ze hoeven niet genoegen te nemen met 30fps.
Maar ze moeten zich ook niet gek laten maken. Het is uiteindelijk hun eigen keuze. Maar iedereen lacht hier om audiofielen met kabeltjes van duizenden euros. Maar als je hetzelfde gedrag onder gamers aan de kaak stelt dan wordt men boos. En het is duidelijk hetzelfde gedrag.

Ik ben er niet bitter over. Ik vind het alleen maar triest dat de gameplay en de fun, tweede of derde plaats neemt tegenover technische specs. Een Indy studio kan een perfect leuke game maken die niet gespeeld wordt door een groep omdat ze niet willen kijken naar iets dan niet een de hoogste framerate heeft. En dat vind ik raar.
Niet naar 30 fps willen kijken heeft gewoon te maken met koppijn. Ik weet niet hoe het met jou zit, maar mijn brein kan erg slecht om gaan met een 3D wereld die schokt. Hoe hoger de framerate, hoe minder last ik ervan heb. Heel veel mensen hebben hier last van.
Maar hele generaties konden het ooit prima zonder die hoofdpijn van jou... En film is ook gewoon die framerate. Film is geen 400fps.

Prima dat je voor 60 of 120 fps gaat. Dat was in de tijd van de monitoren ook een verbetering. Maar 400 of meer? Er is een grens aan wat een mens werkelijk kan zien en verwerken.

Ik heb je andere comments gezien, dus dat moet je al weten denk ik zo
Maar hele generaties konden het ooit prima zonder die hoofdpijn van jou... En film is ook gewoon die framerate. Film is geen 400fps.
Die generaties speelden veelal 2D games.
Film is niet interactief, games wel.
Prima dat je voor 60 of 120 fps gaat. Dat was in de tijd van de monitoren ook een verbetering. Maar 400 of meer? Er is een grens aan wat een mens werkelijk kan zien en verwerken.
Tot 240 snap ik het. Dat kan ik zelf ook zien, al moet ik zeggen dat het verschil met 120 klein is.
3d is ouder dan je denkt. :)
30 FPS is echt wel het meest minimale en als er snelle bewegingen zijn in beeld kan dat dus iets inzakken, vandaar dat gamers wel spreken van een onderkant van 60 FPS zodat het als het inkakt niet minder dan 30 of 40 FPS is. Maar het fijnst gamen is echt tussen de 120 en 180
Daar wil ik prima in meegaan, maar het is niet meer 120 en 180, je hoort overal over gamers die het dubbele daar nog eens van nastreven. En wat ik "erger" vind, dat ze framerate belangrijker vinden dan of iets leuk is.
Daar ben ik het wel mee eens, gamers die veel meer FPS willen hebben en te veel geld en zijn te verwend. Ik ben een student dus kan niet lukraak overal veel geld aan uitgeven. Als ik om de 5 tot 10 jaar 1000 euro kan sparen voor een game PC is dat al heel wat. Daarom overweeg ik dus om een console te kopen want ik wil gewoonweg niet te veel uitgeven om even snel op de bank een keer te gamen. Heb toch al en Steam Deck.
Ik vraag mij af of je met een console zo veel goedkoper uit bent. Die worden iets goedkoper in de markt gezet, maar dat verlies klauwen ze terug in de game prijzen. Om maar niet te spreken over al die online only aankopen waar je niets bezit, het elk moment kan verdwijnen en je het niet zomaar naar een ander merk kan overstappen. Wat dat betreft ben je beter uit met je steam deck denk ik. Dat is gewoon een open x86 machine waar je van alles op kan draaien. Inclusief een hoop retro spul, waar een zooi leuke dingen tussen zitten. En die kosten weinig via de schimmige routes als je budget gelimiteerd bent.

[Reactie gewijzigd door bzuidgeest op 18 maart 2025 17:05]

Vandaar dat ik er over zit na te denken. Ik wil ook iets aan de TV hangen. Ik had vroeger een GameCube, Wii en de orginele Xbox. Ik vond het wel relax en chill dat ik op de TV samen met anderen kon gamen.

[Reactie gewijzigd door Remzi1993 op 19 maart 2025 11:14]

Die drie consoles vind je nog steeds in kringloop winkels voor weinig. Kan je dezelfde lol opnieuw beleven. Geen grote investering nodig. Als je iets meer gemak vind pak je een ps3 of xbox360 uit de kringloop. Cheap, fun en met een hdmi uitgang voor makkelijk aansluiten op een enigzins moderne TV.

Dus wellicht een optie om je nostalgie uit te leven?
Misschien, maar ik wil ook met medestudenten gamen 😉 Dus ga misschien in de zomervakantie een console kopen of eind dit jaar ipv game PC. Heb al een Steam Deck voor PC games.
Wat je keuze ook word, have fun!
Ik game al sinds digger en jekraamt onzin uit.
Ja digger op een satbiele 30fps is perfect speelbaar een fps zoals cyberpunk die schommelt tussen de 20 en 40 fps is dat veel minder. Dat is gewoon een feit.

Techieken zoals dlss helpen daarmee en zijn fantastisch, niks met maga te maken zelfs als jed aar fan van bent.
Ondersteun dat feit dan met onderzoek anders is het een mening. Niet anders dan mijn mening.
Je klinkt als een audiofielen maar dan de gamer variant. En je hebt de maga vergelijking duidelijk niet begrepen, wat mijn punt strekt.
YouTube: Is DLSS Really "Better Than Native"? - 24 Game Comparison, DLSS 2 vs...

jaar oud gezien de verbteringen sindsdien zullen nog een pak meer games er evengoed/beter uitzien.
Realiseer je je dat de games in 40 jaar ook flink verandert zijn? Bij (2D, singleplayer) lemmings is het inderdaad niet erg dat je <30FPS hebt, maar als je in een online 3d wereld rondkijkt om een sniper te zoeken terwijl er auto's met grote snelheid op je af rijden, dan is het misschien wel fijn om >30 fps te hebben en voldoende fidelity om de sniper te kunnen zien.

Toen ik wat meer Counter Strike GO speelde, merkte ik zelfs het verschil tussen een cap op 300FPS en uncapped. En ja, dit heb ik getest.

De vrouwelijke gamers die ik ken, vinden allemaal dat de spellen op mijn computer veel soepeler draaien. Of het van 30fps naar 60Fps is of van 60 naar 180, dat verschil merken ze allemaal. Of 180 FPS nodig is voor alle spellen is een andere discussie. Merkbaar is het zeker. Als je dat gewend ben dan is het een zware dobber om op 30fps te spelen. Of mensen het ervoor over hebben is weer een andere disussie. Sommige zijn tevreden als ze hun spelletjes op hun werklaptop kunnen draaien met lage instellingen/fps, anderen geven weer duizenen euro's uit omdat ze totaal uit de ervaring worden gehaald als de fps te laag wordt. Fijn in ieder geval dat jij er geen last van hebt.
Ja ik realiseer mij de veranderingen. Ik realiseer mij ook dat het menselijk lichaam in die tijd niet veel veranderd is, de ogen, de hersenen, allemaal hetzelfde. De manipulatie om maar te blijven verkopen is daarintegen enorm gegroeid. Het model van eeuwige groei.

Ik zeg overigens niet dat framerate geen invloed heeft. Ik zeg dat de aantallen boven het niveau van noodzaak uitgekomen zijn. 60fps was nog een verbetering, 120fps word al twijfelachtig. 400fps? Net zo zinnig als die magische kabels van audiofielen en met zo hard verdedigend door de fanaten.

En die vrouwelijke gamers? Die heb je zelf vertelt dat het beter was, dus die zijn of aardig tegen je of zien wat ze verwachten te zien. Dat is hoe mensen werken. Als je echt wil testen, zal je een "blinde" studie moeten doen, waar je mensen niet vertelt wat ze moeten zien en minstens een placebo groep die alleen vertelt dat ze hoge framerates krijgen zonder dat het zo is. Na zo een studie praten we nog wel een keer. Niet na een anecdote.

Maar je hebt wel gelijk dat mensen zelf moeten weten wat ze uitgeven. Ik zou adviseren om je niet gek te laten maken. Maar ieder zijn lol.
Persoonlijk kijk ik eerst of iets leuk is, dit in tegenstelling tot mensen die eerst kijken naar de framerate.

[Reactie gewijzigd door bzuidgeest op 18 maart 2025 12:02]

Ik zeg overigens niet dat framerate geen invloed heeft. Ik zeg dat de aantallen boven het niveau van noodzaak uitgekomen zijn. 60fps was nog een verbetering, 120fps word al twijfelachtig. 400fps? Net zo zinnig als die magische kabels van audiofielen en met zo hard verdedigend door de fanaten.
Het gaat dan ook langs geen kanten om 400fps maar over 60fps halen in de meeste grafisch vragende spelen.

Dat jij nog tetris speelt is goed en daar heb je idd geen 5090 voor nodig, maar voor de nieuwste games die graphics verder duwen dan dat ze ooit waren zijn die wel nodig om het eftig speelbaar te houden.
Je hebt geen idee van wat ik speel en hoe. Je bent alleen maar boos omdat iemand vraagtekens stelt bij je mening.
Vragen?
Conversies hebben altijd kwaliteitsverlies. En renderen op lage resolutie moet detailverlies opleveren.

Concurrentie voor NVidia is altijd goed. Maar het blijft mij verbazen hoe happy mensen zijn met een frame-pje meer. De mensen zijn dwaas gemaakt door marketing. De race om de "grootste" te hebben. :) Ik zou wel eens willen weten of hier verschil optreed tussen mannelijke en vrouwelijke gamers.
Dat heeft niks te maken met "vragen" dat is gewoon jouw mening die het duidelijk maakt dat je dit nog nooit gebruikt hebt. Dat je nu pissed word omdat je verkeerd zit is jouw probleem.
Ik had Cyberpunk op 900 fps. Met een Radeon 6650 XT. Dat ding flink moeten onderklokken.
Sorry maar 30fps was altijd al slecht.
Ik game dan slechts 30 jaar, maar zelfs toen al was tomb raider op mijn crt monitor slecht onder de 60fps. Liefst zette ik mijn instellingen zo dat ik rond de 80 a 90fps haalde.
Lcd is niet helemaal hetzelfde van gevoel, maar dan nog heb ik liefst minimaal 60fps en is het een stuk beter vanaf 90 tot 120fps.
Freesync/g-sync kan de ervaring ook wel beter maken.
Inderdaad, ik zou nooit meer dan 600 tot 800 euro uitgeven voor een videokaart en dat vind ik eigenlijk te veel. Ik heb tijden meegemaakt dat je voor tussen de 300 en 500 een goede videokaart kon kopen.

Nvidia zit elke gamer uit te melken en AMD doet gewoon mee nu. Het is triest een duopolie.
Ik heb tijden meegemaakt dat een huis een 40-50 000 euro kostte.
Daarom dat ik pertinent weiger om meer dan 80-100 000 euro uit te geven voor een huis .
Huis eigenaars zit elke koper uit te melken en verhuurders doet gewoon mee nu. Het is triest een duopolie.
Niettemin als je kijkt naar Nvidia prijzen op dit moment, de beschikbaarheid, de kwaliteits issues. Ja dan kan je zeker spreken van uitknijpen.

Het prijsverschil tussen het nieuwste van het nieuwste en een goede midrange kaart zit ook op een exponentiële curve. En puntje bij paaltje is het verschil in praktijk eigenlijk verwaarloosbaar. Maar dat is weer de oplichting van marketing gekte
Hoe is dit "oplichting en marketing gekte" ?
Verhuurders zijn bijna altijd eigenaars van huizen. Ik ben iemand van 31 dus die mooie huizenprijzen heb ik nooit meegemaakt. Maar de inflatie wordt steeds gekker. Elke 5 tot 10 jaar verdubbeld alles, maar de lonen en uitkeringen verdubbelen niet in die tijd kan ik je zeggen.
Dat is juist mijn punt, inflatie is een realiteit en doen alsof iets hetzelfde zou moeten kosten als 30 jaar geleden is absurd.
Er is inflatie en hebberigheid. Wat Nvidia doet is hebberigheid. Met maar 2 spelers is dat ook makkelijk, er is gewoonweg weinig keuze voor de gamers. Het is Nvidia of AMD.
Veel van de prijs is wat de retail en scalpers er boivenop vragen, nvidia krijgt echt niet de verkoopsprijs hoor.
Dat snap ik, maar Nvidia doet er een ook schep bovenop. Het is niet zo dat ze geen miljarden omzet en winsten hebben gehaald.
Vooral uit AI gpu's, gaming is maar een klein deeltje meer van hun omzet en winst.
Ja, ik vind Nvidia ook heel zielig. Jammer dat ze niet meer winst kunnen maken /sarcasme
Gaat niks over hoeveel winst men maakt gaat erover dat de winst van nvidia vooral komt uit AI en weinig te maken heeft met gaming gpu's. Doen alsof al die omzet en winst van gaming gpu's komen slaat nergens op. Het gaat over 7% van hun omzet, en 5% van hun winst.
Ik ga geen grote miljarden bedrijven verdedigen dat doe jij.
Gaat over feiten niet "verdedigen", snap die irrationele haat dat veel tegenwoordig hebben voor bedrijven niet eerlijk gezegd.
Ik begrijp dat jij dat niet snapt. Ik neem dus ook aan dat je een van de oudere generaties bent. Ja die snappen niet hoeveel schade er is aan het milieu en dat kapitalisme niet echt werkt, vooral als er geen of te weinig regulering is. Afin, laten we het ophouden met deze discussie want het heeft geen zin. Onze mening over veel dingen is gewoonweg anders.
Ik denk dat het juist het tegenovergestelde is en dat je weinig besef hebt hoeveel goeds dat ook deed.
Ik ben gerust voor meer regulatie van bedrijven, maar als je communisme begint te pushen moet je goed beseffen dat dat veel slechter was hoor.
Ik push geen communisme, dat is net zoals kapitalisme een gefaalde experiment. Maarja, deze discussie is onzinnige en tijdverspilling.
Welk systeem stel je dan wel voor?
Nee hoor, super resolution geeft soms betere beeldkwaliteit dan native
Super Resolution ja, maar dat is niet wat XeSS, FSR en DLSS zijn. Dat zijn upscale technieken.

Upscale technieken beginnen inherent met een beeld van lagere resolutie. Er is dus minder beeld informatie. Het is dan technisch onmogelijk om een plaatje van betere kwaliteit te genereren.

[Reactie gewijzigd door youridv1 op 18 maart 2025 09:07]

Super resolution= upscale technietk

En neen dan is het technisch mogelijk, game engine leveren niet het perfecte beeld op, dit kan bepaalde fouten wegwerken
Super resolution= upscale technietk
Dat heeft de marketing afdeling van met name AMD ervan gemaakt, om te voorkomen dat mensen hun nieuwe techniek zouden afkeuren omdat het upscaling is.

Super Resolution (of "Dynamic Super Resolution" zoals Nvidia hun implementatie noemde) bestaat al langer in games. Het houdt in dat je de game op een resolutie HOGER dan native rendert en daarna downsampled. Het idee was een nog beter alternatief voor anti aliasing voor mensen die meer GPU kracht hadden dan ze nodig hadden voor de resolutie van hun monitor.
En neen dan is het technisch mogelijk, game engine leveren niet het perfecte beeld op, dit kan bepaalde fouten wegwerken
Het werkt geen fouten weg. Het smeert ze uit. Je kunt geen informatie bij verzinnen om het beeld beter te maken. Wat jij bedoelt is het denoisen wat Nvidia doet omdat path/ray tracing een ontzettend veel ruis produceert. Dat is geen super resolution of upscaling, maar een losse stap in de pipeline.

De marketing afdelingen van AMD en Nvidia willen maar wat graag dat mensen geloven dat DLSS/FSR beter is dan gewoon ouderwets de hele frame renderen op de beoogde resolutie, om te voorkomen dat hun product wordt gezien als wat het is: een pleister voor een gebrek aan ruwe rekenkracht.
Bewust informatie weg laten om die later te laten interpoleren door een fancy upscaling model is niet beter dan de tijd besteden om die informatie netjes te berekenen. Het is sneller en meestal efficiënter, maar levert niet hetzelfde eindresultaat.

Dat is ook waarom DLSS en FSR en wat voor techniek dan ook uitsluitend in games worden ingezet. Omdat je daar real time moet blijven voor de gebruiker en dus een bepaalde deadline moet halen. In alle andere situaties waar 3D rendering gedaan moet worden, wordt niet met upscaling technieken gewerkt, maar wordt gewoon gewacht op het eindresultaat van alles volledig doorrekenen.
En dat komt omdat "super resolution" of eigenlijk upscaling niks toevoegt als je gewoon iets langer kan wachten tot je render klaar is. Al die fancy technieken heb je alleen maar nodig wanneer je de tijd niet hebt om dat netjes door te rekenen.

[Reactie gewijzigd door youridv1 op 18 maart 2025 09:49]

Dat heeft de marketing afdeling van met name AMD ervan gemaakt, om te voorkomen dat mensen hun nieuwe techniek zouden afkeuren omdat het upscaling is.
Dat is de generische term waaronder de meeste het begrijpen, super sampeling noemt nvidia het. Het is gewoon upscaling. De term zelf maakt weinig uit.
Het werkt geen fouten weg. Het smeert ze uit.
Onzinnige semantiek, de fouten zijn niet meer of minder zichtbaar en je beeld verbetered.
Wat jij bedoelt is het denoisen wat Nvidia doet omdat path/ray tracing een ontzettend veel ruis produceert. Dat is geen super resolution of upscaling, maar een losse stap in de pipeline.
Neen daar heb ik het niet over.
De marketing afdelingen van AMD en Nvidia willen maar wat graag dat mensen geloven dat DLSS/FSR beter is dan gewoon ouderwets de hele frame renderen op de beoogde resolutie, om te voorkomen dat hun product wordt gezien als wat het is: een pleister voor een gebrek aan ruwe rekenkracht.
Bewust informatie weg laten om die later te laten interpoleren door een fancy upscaling model is niet beter dan de tijd besteden om die informatie netjes te berekenen.
Ik kan het zelf zien, ik heb weinig marketing nodig voor mijn eigne ogen.
Ik heb een 4090 die ik kocht toen die uitkwam "gebrek aan rekenkracht" is wel heel grappig dan als je die kaart ziet.
Je praat gewoon, het internet na om "edgy" te zijn.
Je praat gewoon, het internet na om "edgy" te zijn.
Nee, ik ben hier daadwerkelijk voor opgeleid, in plaats van dat ik de marketing bullshit napraat.
Onzinnige semantiek, de fouten zijn niet meer of minder zichtbaar en je beeld verbetered.
Nee, je beeld vervaagd waardoor je de fouten niet kan zien. Dat is geen semantiek. De fout wordt niet opgelost. Er wordt geen extra informatie aangeleverd, dus er kan niks "verbeterd" worden. Wat weet DLSS volgens jou wel wat de render pipeline niet weet?

Je beeld "verbetert" ten opzichte van de lage basisresolutie waarop gerenderd wordt. Niet ten opzichte van de native resolutie waar de upscaling techniek naartoe werkt.
Ik kan het zelf zien, ik heb weinig marketing nodig voor mijn eigne ogen.
Wat denk jij te zien dan? Wat haalt DLSS volgens jou weg aan fouten?
Ik heb een 4090 die ik kocht toen die uitkwam "gebrek aan rekenkracht" is wel heel grappig dan als je die kaart ziet.
Je zegt zelf dat je 25 fps hebt in cyberpunk als je full path tracing aan zet op 4K. Dan heeft je 4090 dus te weinig rekenkracht om te doen wat er gevraagd wordt binnen minder dan 40ms. En dat is exact de reden waarom full path tracing gewoon nog niet zo'n goed idee is met de GPU techniek van vandaag de dag. Dus wat doe je, je rendert gewoon op 1080p of 1440p zodat je framerate acceptabel wordt en daarna trek je het door een upscaler.
Het formaat van je koeler heeft daar niks mee van doen.

[Reactie gewijzigd door youridv1 op 18 maart 2025 12:19]

Nee, je beeld vervaagd waardoor je de fouten niet kan zien. Dat is geen semantiek.
YouTube: Is DLSS Really "Better Than Native"? - 24 Game Comparison, DLSS 2 vs...

meer dan een jaar uit dus nu gaan er nog meer games zijn waar het effectief evengoed of beter is.
Je zegt zelf dat je 25 fps hebt in cyberpunk als je full path tracing aan zet op 4K. Dan heeft je 4090 dus te weinig rekenkracht om te doen wat er gevraagd wordt binnen minder dan 40ms.
Neen want met dlss geeft die mij dezelfde beeldkwaliteit en meer fps en een betere response tijd. Dat dit via andere delen van de gpu en software gebeurt kan me gestolen worden.
De conclusie van die video is letterlijk "nee, dat kun je niet zo stellen"

En in de gevallen waar dat wel zo is, is dat de upsampling die in DLSS zit beter is dan die in TAA. Dat TAA ruk is voor te veel bewegend beeld, is al langer bekend. Hier worden dus twee upsampling technieken met elkaar vergeleken DLSS wordt niet vergeleken met een native image, maar met TAA. TAA is ook een workaround voor het gebrek aan genoeg rekentijd voor MSAA.
De artifacts, shimmers, flickers die DLSS "oplost" komen niet uit de source image, maar uit andere post process stappen.

In alle gevallen geldt nog steeds dat je de beste kwaliteit krijgt door je resolutie zo ver mogelijk op te voeren en zo min mogelijk TAA, MSAA, FXAA, DLSS, FSR, XeSS te gebruiken.
Daarom worden al deze technieken niet gebruikt in elke andere toepassing dan gamen en wordt er gewoon op een veel hogere interne resolutie gerenderd dan de monitor waarop het beeld weergegeven wordt.

Maar goed, het is duidelijk dat je gewoon een youtube video napraat zonder dat je de inhoud van de video goed begrijpt. Dat verklaart een hoop.

[Reactie gewijzigd door youridv1 op 18 maart 2025 12:37]

Dan moet je beter kijken de conclusie is: dat hangt af van game per game. In sommige is het beter in andere hetzelfde in andere slechter.

en zoals al gezegd dit was dlss 3 sindsdien was er 3.5 en nu 4 :

YouTube: DLSS 4 is now BETTER than Native... HUGE quality improvements!

YouTube: NVIDIA DLSS 4 Super Resolution in 5 Games - The Ultimate Graphics/Pe...

...

Je kan nog zoveel excuses verzinnen de realiteit is gewoon dat het een enorm voordeel is dat dit bestaat.
Nog steeds geldt dat DLSS/FSR in die gevallen beter is dan andere, oudere trucjes die hetzelfde doel hadden en niet beter dan gewoon op een hogere resolutie renderen.

Jij noemt het excuses, maar je snapt gewoon de inhoud van je eigen bronnen niet. Ja, het presteert vaak beter dan andere technieken zoals TAA. Maar al dat soort andere, oudere trucjes kunnen ook uit als je source image maar van hoog genoege kwaliteit is. Dan heb je die artifacts ook niet meer.

Als je je game gewoon op 8K interne resolutie rendert en alle vormen van AA en SS uitzet, dan krijg je de beste kwaliteit, maar dat kan jouw 4090 niet in cyberpunk want dan heb je 5 fps. Dat kun je in bijna geen enkele game van de laatste paar jaar.

[Reactie gewijzigd door youridv1 op 18 maart 2025 12:42]

Je kraamt gewoon steeds meer onzin uit.
vergeet niet dat DLSS vooral dient om meer fps/lagere latency te hebben.
De beeldkwaliteit is maar bijkomstig.

Je hebt dus EN dezelfde of betere beeldkwaliteit (op dezelfde resolutie natuurlijk absurd te beginnen over hogere resoluties) EN meer fps/lagere latency.
Je kraamt gewoon steeds meer onzin uit.
Nee, jij snapt het gewoon niet en dat is echt heel iets anders.

Elke vorm van upsampling heeft maar één doel. Een hogere resolutie image kunnen renderen in minder tijd. Daarom krikt het fps op en verlaagt het latency.
op dezelfde resolutie natuurlijk absurd te beginnen over hogere resoluties
Dat is niet absurd. Dat wordt buiten gaming overal gedaan met renderen. Gamen is de enige toepassing waar een plaatje of object niet eerst op een veel hogere resolutie wordt gerenderd en daarna gedownsampled. En dat wordt in gaming niet gedaan omdat videokaarten de rekenkracht niet hebben om dat 60 keer per seconde te doen.

En soms wordt dit in gaming wel gedaan. Je kent het als de "render scale" slider die je dan hoger dan 1 zet.

[Reactie gewijzigd door youridv1 op 18 maart 2025 12:46]

Je blijft gewoon over zaken bezig die hier niks mee te maken hebben.

Zonder dlss heb je game A die je 60fps geeft op 4k ultra met PT met 16ms latency
Met dlss heb je 100fps op 4k ultra met PT met betere/zelfde beeldkwaliteit en 12ms latency

Niks te maken met "marketing" of "smeert het uit" of dat het beeld louter beter is dan de lagere resolutie , neen het is beter dan de zelfde native resolutie.
Heb je als eens in de spiegel gekeken? Wees voorzichtig voor het iemand van het internet napraten beschuldigd.
De hoeveelheid simpele conclusies en aannames die vanaf jouw kant opkomen zonder bewijs doet mij vermoeden dat je lekker aan het trollen bent, of al 40 jaar teveel op het internet zit. In beiden gevallen is het goed om even naar buiten te gaan, van het zonnetje te genieten en even te voelen hoe het gras voelt.
En welk bewijs hebben anderen geleverd? Het is allemaal opinie hier. Mijn opinie is onwelgevallig voor gamerfielen. Een andere mening hebben is niet trollen. Ik ben nergens aan het schelden of wat dan ook. Misschien ben ik niet degene die simpele aannames en conclusies doet en even in de zon moet gaan staat. Want jou reactie is de definitie van die dingen.
:+ dus

Leuk dat je nu aangeeft dat het allemaal opinie is hier, maar wel om bewijs vraagt. Als jij aangeeft dat >120FPS niet merkbaar is dan onderbouw je het niet, maar als iemand anders aangeeft dat die het wel merkt moet degene het onderbouwen. Een andere mening is prima. Meteen beginnen dat iedereen dwaas is geworden door de marketing is trollen. Zeker als je dit doet zonder onderbouwing. Het feit dat iemand aangeeft dat de fps van 30 naar 60 gaat dmv upscaling is blijkbaar niet voldoende en begin je weer een ander argument. Je begint dan dat 30fps genoeg was voor iedereen, maar later geef je aan dat het gaat om die hoge >400fps die onzin is. Prima dat je het wilt vergelijken met HIFI kabels van duizenden euro's, maar het verschil tussen je 'twijfelachtige' 120 fps en 400 fps is doodsimpel te berekenen. Of het het waard is is aan de koper.

Ook erg leuk om een discussie over FPS te hebben terwijl het artikel over upscaling gaat. Jij begint meteen over een framepje meer en dat mensen dwaas zijn door de marketing. Ik zie wel dat je lekker in een fuik zit. Niemand sprak nog over extreem hoge FPS.

Over mijn eerste bericht maak je ook een behoorlijk aantal aannames en kom je met allerlei drogredenen. Nee het menselijke lichaam is inderdaad niet veel veranderd sinds die tijd. Betekent dat dat de techniek toen goed genoeg was om de ultieme ervaring voor de mens te creeeren? Natuurlijk nemen mensen genoegen als ze nog nooit iets hebben gezien wat sneller/scherper is.
Leuk ook dat JIJ weet wat ik tegen mensen zeg die bij mij thuis komen. Met dat argument verlies je meteen alle geloofwaardigheid. Juist dit doet mij aan MAGA denken. Mij een beetje vertellen wat ik heb gedaan terwijl je er niet eens bij was. Komt ook zeer trollerig of narcistisch over.

Je hebt in ieder geval je aandacht weer gehad. Fijne avond!
Leuk dat je nu aangeeft dat het allemaal opinie is hier, maar wel om bewijs vraagt. Als jij aangeeft dat >120FPS niet merkbaar is dan onderbouw je het niet,
Niemand onderbouwd iets. Dus als ze mij willen overtuigen moeten ze met iets beters komen dan hun opinie. Anders is het gewoon opinies tegen elkaar. Dus daar mag ik toch om vragen.

Je lijkt het je nogal aan te trekken. Een hele "psycho" analyse. Een die je beter op jezelf los kan laten om je af te vragen waarom je zo over de emmer gaat over zoiets eigenlijk totaal onbelangrijks. Misschien moet je een iets dikkere huid kweken.

O en wellicht: https://journals.plos.org...1371/journal.pone.0298007

Er zijn nog wel wat artikelen te vinden over dit onderwerp. nagenoeg iedereen is het er over eens dat er een groot verschil is tussen 30 en 60fps. Dat 120-150 nog steeds voordelen heeft. Dat winst boven de 150 in heel rap tempo afneemt tot bijna onmerkbaar. Sommige studie vinden dat straaljager piloten e.d. een iets hogere grens hebben en zo, maar dat is nauwelijks relevant. Het is in ieder geval niet echt waar voor je geld. En perceptie boven de 150hz komt bijna allemaal van hele specialistische situatie onder zeer specifiek omstandigheden.

[Reactie gewijzigd door bzuidgeest op 19 maart 2025 10:41]

Heb je zelf het artikel gelezen? Wat wil je ermee zeggen? Ik kan proberen te bedenken wat je hiermee wilt zeggen, maar ik wil niet zomaar aannames doen.

Over het nut van >120fps hebben we het meerdere malen gehad. De 'noodzaak' is er in onze ogen vrijwel niet, hier zijn we het ook over eens. Het enige wat ik zeg is dat het voordeel er wel is. In het meest positieve geval heb je tussen 400fps (2.5ms/frame) en 125 fps (8ms/frame) een voordeel van 5.5ms in reactietijd. Zien mensen iets 5.5ms eerder, dan zullen ze gemiddeld 5.5ms eerder reageren. Op een reactietijd van 210ms is dit dan een voordeel van ~2,5%. Of het het waard is om hier veel meer geld aan uit te geven is weer aan de koper. Is het een onomstotelijk voordeel? In mijn ogen wel. Ben benieuwd of je dit anders ziet. In mijn ogen gaat je vergelijking met de HIFI kabels dus niet op, frametimes zijn meetbaar.

Ik denk dat ik snap wat je bedoelt met de perceptie boven de 150hz, maar ik denk dat dat heel moeilijk vast te leggen is in een studie. Het gaat te snel voor mensen om het goed te benoemen en gaat dan meer over 'gevoel' of 'de ervaring'. Ik kan me wel voorstellen dat een hogere FPS zal helpen om sneller de snelheid van iets in te schatten of helpen bij een 'flick' omdat de latency tussen je arm en hoofd lager is. In hoeverre dat echt zo is, weet ik niet. Maar ook hier weer, het is wat de gek er voor over heeft.

In mijn geval vond ik het fijn dat CSGO >400FPS draaide, maar dat was een bijproduct van het hebben van een goede videokaart. Ik had namelijk een goede videokaart omdat ik ook andere spellen speelde op 4K met alle toeters en bellen en dan wilde ik wel 60FPS hebben. De duurste videokaarten kunnen nog steeds niet alle games consistent op 120FPS spelen met alle toeters en bellen aan. Dus ik snap je reactie over dat ' de marketing mensen dwaas maakt' niet.

Je eerste reactie was op een reactie van iemand op een artikel over upscaling. Ik denk niet dat er veel mensen zijn die upscaling gebruiken om een FPS van 400 te verbeteren. De persoon had het over dat mid-range kaarten hierdoor aantrekkelijker worden en dat er misschien geen keuze meer gemaakt hoeft te worden tussen fps en resolutie. Jij begint erover dat marketing mensen dwaas maakt. Hoe leg jij de link tussen de reactie van die persoon en jouw reactie?
Waarom DLSS toch beter beeld kan geven dan ouderwetse rendering, is omdat DLSS wél meer info heeft dan de ouderwetse berekening. Zoals bewegingsvectoren en andere meuk.
En hiermee doet het niet alleen slimme upscaling maar ook anti aliasing en ook een soort "anti-schimmering", het flikkeren van pixels bij bijvoorbeeld fel licht op de hoek van een glimmend object of door kiertjes van 1 pixel breed.

Hierdoor kan het beeld misschien toch beter zijn?

Het beste beeld zal wel zijn als je DLSS toepast op native resolutie, dus zonder het upscalen-deel.
Zoals bewegingsvectoren en andere meuk.
Die bewegingsvectoren worden aangereikt door render pipeline van de game zelf, waar ook het native image vandaan komt.
Technisch klopt het wel wat je zegt.
Ik zie het nog steeds als een grote minpunt, developers worden "lui" en optimaliseren niet meer.
Dat idee heb ik ook en om eerlijk te zijn vind ik het verschil met native in de games die ik speel toch vaak echt heel erg groot.
Blijkbaar zijn wij in de minderheid als men me al bijna op -1 zet, het is gewoon zo, games worden slechter en slechter en ploppen maar Xess op of DLSS of FSR om het speelbaar te maken.
Het is simpelweg nonsens, een variant op ‘vroeger was alles beter’, en het is irritant om het steeds te moeten lezen.
Nee het is niet irritant om steeds te het te lezen, wat irritant is dat mensen maar gewoon alles als schapen over zich heen laat gaan en de vollebak betalen voor een sub par optimalisatie. DLSS was oorspronkelijk in de wereld gebracht om nieuwe games met oude hardware te draaien. Nu is het nieuwe games met nieuwe hardware om te kunnen draaien. En ja soms is een engine zoals die van Cyberpunk bedoelt voor een generatie of twee verder dan de GPU die op dat moment er was ( Raytracing voornamelijk ). Maar over het algemeen is de vooruitgang gestagneerd omdat mensen tools krijgen om dingen te skippen. End of story.
DLSS was oorspronkelijk in de wereld gebracht om nieuwe games met oude hardware te draaien.
Heb je hier een bron voor? Hier heb ik zelf nog nóóit van gehoord. Voor zover ik me kan herinneren (let wel, dit is 6-7 jaar geleden) werd DLSS juist geïntroduceerd om voornamelijk de performance cost van ray-tracing tegen te gaan. DLSS begon immers als feature van de RTX 20 series (de GPU series waar realtime ray-tracing is begonnen).

Dat gezegd hebbende, ik geef je verder geen ongelijk. Tegenwoordig heb je vrijwel altijd upscaling nodig, ongeacht de grafische make-up van een spel. Ook frame-generation, wat eigenlijk bedoeld is voor native framerates vanaf 60fps, wordt inmiddels gebruikt om 60fps te bereiken in sommige spellen (zoals Black Myth Wukong in performance mode op PS5).
Nee, je praat gewoon de rest van het internet na. Er waren zat games die ongelooflijk zwaar of zelfs jaren lang onspeelbaar waren op hoge resolutie. Oblivion, far cry en Crysis, om maar wat te noemen. GTA5 draaide ook heel matig op high end hardware als je een high rest scherm had. Nu kan je upscaling gebruiken om het te ondervangen.

Het was vroeger precies zoals nu, en dat VroEgEr Was AlLeS BeTeR gezeur moet echt stoppen. Het is bandwagon gedrag.
Op het moment dat je zegt dat vroeger alles beter was wordt je oud.
Fair enough, maar ook vroeger moest je in de weer met resoluties. In de tijd van CRT's een heel normaal verschijnsel (Windows op 800*600 en games op 320*240). Nu kun je native blijven draaien en regel je het met deze technieken. Je kunt ver terug in schaling, maar ook minder ver en dat maakt het een mooie techniek. Op dat gebied zijn we vooruit gegaan. Games zijn niet altijd slecht geoptimaliseerd want als het te erg wordt lopen de verkoopcijfers terug en schiet de developer in zijn eigen voet.
Nee het is niet irritant om steeds te het te lezen, wat irritant is dat mensen maar gewoon alles als schapen over zich heen laat gaan en de vollebak betalen voor een sub par optimalisatie.
Zoiets heet een hobby en dat mag wel wat geld kosten. Het kan altijd beter, maar zo beroerd liggen de kaarten er ook niet bij ;)
Omdat het onzin is, internet onzin die men graag herhaalt.

Far cry was pas speelbaar op max alles jaren nadat men het uitbracht, ook luiheid?
Het zal ook een beetje het publiek zijn. Laatst werd er een uitgebreide post gemaakt met dezelfde mening als jij en die kreeg een +2. Je bent misschien wat korter, maar zegt gewoon hetzelfde. Het is iig zeker niet off topic dus de mensen die je 0 of -1 geven mogen zich eigenlijk gewoon schamen.
Dlss + dsr en je hebt scherpere beeldkwaliteit. Heb je natuurlijk niet meer extra frames maar echt wereld van verschil.
Zeker in VR ziet het er voor geen meter uit
Ik zie het nog steeds als een grote minpunt, developers worden "lui" en optimaliseren niet meer.
Je bedoelt eerder het korte termijn denken van managment. Ik als softwareontwikkelaar heb niet veel te zeggen over de deadlines en het beleid van een bedrijf kan ik je zeggen.

Want optimaliseren kost tijd en dat wilt managment niet te veel tijd in laten steken.

[Reactie gewijzigd door Remzi1993 op 18 maart 2025 12:56]

Werkt dit eigenlijk nog steeds op AMD-kaarten?
Ja. Maar geen idee hoe het met performance en kwaliteit zit. Dat zal wel wat ingewikkelder liggen.

Ik gebruik het bijvoorbeeld in Civ7 (op een nV kaart) omdat die om een of andere bizzare reden XeSS en FSR maar geen DLSS hebben (ik kan wel een gokje wagen natuurlijk). FSR (3) is misselijkmakend maar XeSS2 is best goed. Ik zou verwachten nog beter op Intel.

[Reactie gewijzigd door Darkstriker op 17 maart 2025 23:12]

Nu nog de B770 uitbrengen.

Op dit item kan niet meer gereageerd worden.