Intel brengt XeSS-plug-in uit voor Unreal Engine 4 en 5

Intel heeft een officiële XeSS-plug-in voor Unreal Engine 4 en 5 uitgebracht. Daarmee kunnen ontwikkelaars de upscalingtechniek gemakkelijker in hun Unreal Engine-games integreren. Intel bevestigde eerder al dat een dergelijke plug-in zou verschijnen.

Intel maakt de XeSS-plug-in beschikbaar via GitHub, zo merkte TechPowerUp op. Ontwikkelaars kunnen daar een zip-bestand met de benodigde binaries downloaden en deze vervolgens in de installatiedirectory van Unreal Engine plaatsen. Er zijn plug-inversies voor Unreal Engine 4.26 en nieuwer. XeSS ondersteunt alleen de DirectX 12-renderer en werkt momenteel niet in combinatie met stereorendering voor VR of splitscreenmodi, blijkt uit documentatie van Intel.

XeSS is een upscalingtechniek, net als bijvoorbeeld Nvidia's DLSS en AMD FidelityFX Super Resolution. De techniek wordt gebruikt om een game op lagere resolutie te renderen en vervolgens op te schalen naar een hogere resolutie. Dat moet leiden tot hogere framerates zonder veel verlies aan beeldkwaliteit. XeSS werkt op videokaarten van Intel, AMD en Nvidia. Tweakers publiceerde eerder een achtergrondverhaal over de technische werking van Intel XeSS, Nvidia DLSS en AMD FSR 2.0.

Door Daan van Monsjou

Nieuwsredacteur

18-11-2022 • 12:16

31

Lees meer

Reacties (31)

31
31
16
2
0
12
Wijzig sortering
Alhoewel de kaarten nu nog nauwelijks interessant zijn, is intel wel flink aan de weg aan het timmeren. Even een nieuwe markt instappen die zo afhankelijk is van jarenlange ontwikkeling van drivers en features is niet niks. Ik ben dan ook, zeker met het oog op concurrentie en prijsdaling, enthousiast over deze zet. Benieuwd naar de volgende generatie intel gpu's dus, en voortgang die ze met hun dx11 performance kunnen maken.

Wat ik alleen niet helemaal snap is de verwarring die ze nu al creëren met XeSS. De niet-Intel variant kan gewoon niet tippen aan de andere vendor neutrale upscaler, FSR. Dit lijkt niet echt tot een beter imago te leiden voor de technologie.
Hoezo kan de "niet intel variant" niet tippen aan FSR? De "niet intel variant" word veel meer gebruikt en heeft iets betere beeldkwaliteit. Dat de "niet intel variant" niet aan FSR kan tippen klopt niet. Of ik begrijp de laatste alinea verkeerd?

[Reactie gewijzigd door ItalianStyle op 30 juli 2024 20:05]

Achter de naam XeSS zit eigenlijk twee verschillende implementaties. De ene is gemaakt voor Intel Arc videokaarten en maakt gebruik van de XMX cores die alleen op die kaarten zijn te vinden. Die versie werkt wat beter dan FSR 2, maar slechter dan DLSS 2. De andere implementatie werkt op niet-Intel videokaarten, maar is veel slechter dan zowel FSR 2 als DLSS 2.

Aangezien Intel vrijwel geen marktaandeel heeft met hun Arc kaarten, zullen de meeste mensen die XeSS uitproberen, dat doen met een Nvidia of AMD GPU, waar ze zullen zien dat het niet erg goed werkt.

Door beide implementaties dezelfde naam te geven zullen de meeste consumenten gaan denken dat XeSS slechter is dan FSR 2, al is dat dus niet zo voor de Intel Arc variant van XeSS.
Ik denk dat Intel nu gewoon pech heeft dat FSR bestaat.

FSR is namelijk op een zelfde manier begonnen maar toen was er alleen DLSS en hadden mensen geen keuze als ze dat niet konden gebruiken.

FSR was veel slechter dan DLSS.
Nu is FSR een stuk verder en komt een derde partij met een implementatie die ook nog wat iteraties kan gebruiken maar nu is er al een alternatief.
Als ik Intel was geweest had ik voor de niet-Intel variant van XeSS gewoon FSR 2 gebruikt. Dat is immers open source. Dan werkt XeSS altijd even goed of beter dan FSR 2 en hoeven ze al dat extra werk niet te doen om twee varianten te maken. Dan kunnen ze de vrijgekomen capaciteit steken in het verbeteren van XeSS of in andere zaken. Er is immers nog genoeg te doen op softwaregebied bij Intel om de Arc drivers en software echt lekker te laten werken.
Om te verduidelijken, Intel heeft XeSS. Op zijn eigen grafische kaarten is XeSS anders dan als je XeSS op bijv. een AMD of Nvidia grebruikt. Echter, deze XeSS versie is vrijwel altijd slechter dan FSR, vooral omdat je er veel minder performance wist mee boekt, soms zelfs minder dan native. Zie https://www.youtube.com/watch?v=8pFCd76eV0U
Even een nieuwe markt instappen die zo afhankelijk is van jarenlange ontwikkeling van drivers en features is niet niks.
Ik zie dat veel geroepen worden, maar dat is niet waar. Intel brengt al decennia graphics hardware + software uit. In het verleden hebben ze al eens een (of meerdere) dGPU('s) uitgebracht en daarnaast al heel lang iGPU's, meest recent in de vorm van hun Intel Iris en Xe series.

Daardoor, en door het feit dat het een miljardenbedrijf met ontzettend veel ervaring is, is het voor Intel een veel haalbaarder doel dan voor het gros van de tech bedrijven.
Ik ben dan ook, zeker met het oog op concurrentie en prijsdaling, enthousiast over deze zet.
Helemaal eens! Fijn dat Intel probeert hun GPU afdeling te vergroten en daarmee probeert in te breken in de (gaming) GPU markt.
De niet-Intel variant kan gewoon niet tippen aan de andere vendor neutrale upscaler, FSR.
Volgens mij presteren FSR en XeSS wisselend op verschillende vlakken, maar is FSR niet per definitie de beste.
Dat klopt op zich wel, maar een hele nieuwe architectuur brengt blijkbaar toch een hoop nieuwigheid met zich mee, want de dx11 performance loopt ver achter. Daarnaast zijn we hardware versnelde opnames (NVENC bijv.) gewend, game integratie, upscalers, etc. Dingen die allemaal niet aanwezig waren in hun integrated graphics zover ik weet. Verder eens dat als iemand het kan, het intel is.

Wat betreft XeSS / FSR doel ik de versie van XeSS die op nvidia en amd kaarten wordt aangeboden, en die doet echt zwaar onder voor FSR omdat je soms zelfs performance verliest, ondanks dat je op een lagere resolutie rendert.
Intel heeft bij hun IGP integer scaling etc. Daarnaast bestaat hun encoding/decoding hardware op de IGP's al eeuwen en zijn die echt niet slecht.

Je hebt helemaal gelijk dat FSR 2 beter presteerd dan XeSS van Intel als dat via het DP4a pad loopt (de variant die op AMD en Nvidia kaarten draait). De andere variant zit ergens tussen FSR 2 en DLSS 2 in.

Bron:
https://www.youtube.com/watch?v=8pFCd76eV0U
Ja Quicksync, ik herinner het me nu. Wbt XeSS wist ik dat al, mijn comment baseerde zich daar ook op. In ieder geval, laat maar komen die concurrentie.
Ik vind dat ze het best goed doen door een budget kaart op de markt te brengen die niet direct ondersneeuwt wordt door AMD of Nvidia. Die AV1 encoder van de Arc is bijvoorbeeld op het moment de beste
Zijn daar dan al reviews van uit; waar ook een vergelijking wordt gemaakt met de AV1 encoder in de 4xxx van Nvidia?
Het is namelijk makkelijk om te stellen dat die van Intel het beste is als er geen andere nog op de markt is, wat nu is veranderd.
Maar helaas zijn de A770 16GB kaarten op dit moment nergens te koop(alsin niet een pre order oid).
Misschien hopen ze dat AMD ook wat vaart zet achter machine learning?
Dat doet amd al, FSR 3.0 heeft machine learning.
De techniek wordt gebruikt om een game op lagere resolutie te renderen en vervolgens op te schalen naar een hogere resolutie. Dat moet leiden tot hogere framerates zonder veel verlies aan beeldkwaliteit.
Iedere keer als ik dit lees vraag ik me af: Kan die technologie dan niet gebruikt worden om direct efficiënter te renderen op een hogere resolutie, zodat deze extra tussenstap niet meer nodig is?
Het lijkt me dat het weglaten van de 'upscaling stap' ook leidt tot extra performace...
Op zich zitten de upscalers gewoon in de render pipeline. Een "stap" meer of minder is niet per se erg, wat we ook zien in DLSS2 die daadwerkelijk input latency verlaagt ten opzichte van native.

Overigens een technologie die erg lijkt op wat jij misschien bedoelt is variable rate shading, voor meer uitleg zie digital foundry https://www.youtube.com/watch?v=YMf2GDvT-aE
Niet helemaal. VRS is eigenlijk het tegenovergestelde van MSAA. Waar MSAA kijkt naar plekken waar een hogere resolutie vereist is (randen van geometrie), kijkt VRS naar plekken waar lagere resolutie volstaat (punten met weinig detail). Er word dan alsnog upscaling gebruikt om het resultaat op native resolutie te tonen.
Dat is omgekeerd toch wat michaelkamen bedoelt? Op een hogere resolutie renderen en dan met VSR wat performance terugwinnen, iets wat consoles vaak doen bijvoorbeeld. Dat lijkt op waar hij om vraagt in ieder geval, maar ik kan zeker niet voor hem spreken natuurlijk.
Maar upscaling is juist het hele verhaal van deze technologie. De extra performance komt door het renderen naar een kleinere framebuffer.
Weet je zeker dat je begrijpt wat @michaelkamen probeert te zeggen?
Als ik het het goed begrepen heb werkt het 'maken van een frame' simplistisch uitgelegd als volgt.

Er worden diverse versies van 1 beeld gemaakt. Bijv. 1 met de juiste textures (de basis voor kleuropbouw), 1 met schaduwen, 1 met lichteffecten, 1 met allerlei vervormingen in oppervlaktes, 1 met scherptediepte, en nog een aantal van dit soort lagen. Als deze allemaal gemaakt zijn worden deze over elkaar heen gelegd en platgestampt tot het definitieve beeld.

Als je normaal een 4k frame moet maken moet je al deze stappen in 4k doen, al deze losse afbeeldingen worden ook niet gecomprimeerd, dit is rauwe data en elke layer uit zo'n frame bestaat al uit een aantal honderden mb's per stuk aan data. Dit moet dus allemaal door de GPU verwerkt worden, verstuurd worden en opgeslagen worden en weer opgevraagd worden.

Nu wordt het proces dus anders aangepakt. We doen dezelfde stappen als boven, maar dan op 1080p. Elke stap is dan een heel stuk sneller klaar, veel tijdwinst gemaakt bij elke stap. Het definiteve plaatje wordt dan met AI technieken in één extra laatste ronde opgeschaald naar 4K. Die extra stap kost tijd inderdaad, maar omdat het op lagere resolutie renderen van een frame zoveel sneller is gegaan heb je in het totaal toch tijdwinst geboekt op het maken van 1 frame.

uhm ... zoiets dus geloof ik.

[Reactie gewijzigd door BenVenNL op 30 juli 2024 20:05]

Upscalen is een vrij simpele snel uit te voeren actie. Renderen op een hogere resolutie kost veel meer tijd dan renderen op lage resolutie plus upscalen.
Een 4K-beeld van 3840x2160 pixels heeft vier keer meer punten die je moet tekenen dan een 1080p beeld van 1920x1080. Als het upscalen hetzelfde resultaat geeft als vier keer meer pixels renderen maar minder rekenkracht kost, is upscaling de betere optie.

Kost upscalen meer dan renderen, dan is het natuurlijk precies weer net andersom.
Dit soort technieken gebruiken niet alleen de pixel die gerendered wordt maar ook de pixels die in the buurt liggen (temporeel en/of ruimtelijk). Een upscaling stap is dus inherent aan deze techniek, en kan niet worden wegoptimaliseerd.

Het zou ook zeer inefficient zijn om het zonder tussenstap te doen, omdat dan de omgeving pixels meerdere keren berekent moeten worden omdat ze overlappen.

[Reactie gewijzigd door masterchi op 30 juli 2024 20:05]

De prijzen van de 4000 serie zijn dusdanig hoog dat het nog wel even duurt voordat het grote publiek van deze techniek(en) kan genieten.
Dit heeft alleen niet zoveel te maken met de 4000 serie, aangezien deze techniek bedoeld is voor de tegenhanger van het blauwe (intel) kamp :)
Ik vraag me af waarom NIS van Nvidia niet wordt genoemd, is meer vergelijkbaar met FSR dan dlss.
Ik gebruik het nu met Elden ring op een 4k scherm en het werkt echt goed.
Omdat Nvidia NIS een spatial upscaler is net zoals DLSS 1 en FSR 1. De reden dat XeSS wordt vergeleken met FSR 2 en DLSS 2 is omdat alle drie temporal upscalers zijn.

Daarnaast heeft NIS nog een extra probleem, namelijk ook de GUI wordt op een lagere resolutie gerenedered. FSR 1 heeft dat probleem niet omdat het door de game developers in de pipeline wordt geimplementeerd voordat de GUI is getekend.

NIS kan je het beste vergelijken met RSR van AMD wat als basis FSR gebruikt maar dezelfde limitatie heeft als NIS. Volgens mij is zowel RSR als FSR (los van de vorige genoemde reden) net iets netter dan NIS.
Als je de mogelijkheid hebt in Elden Ring (ik heb het niet) dan zou ik eerder FSR 1 aanzetten dan NIS.
Jammer dat het niet werkt met VR, daarmee is de plugin voor mijn projecten helaas niet bruikbaar, hopelijk dat ze die daarmee toch nog compatible maken.
Er wordt veel gezegd over slechte dx11 performance. Hoe relevant is dat nog, nu dx12 al jaren uit is?

Op dit item kan niet meer gereageerd worden.