Intel deelt nieuwe details en prestatieclaims over DLSS-tegenhanger XeSS

Intel heeft voor het eerst in maanden een update gegeven over XeSS, zijn tegenhanger voor DLSS en FSR 2.0. De fabrikant deelt onder meer prestatieclaims voor verschillende games. XeSS zou begin deze zomer uitkomen, maar die deadline is niet gehaald.

Intel meldt onder andere dat Call of Duty: Modern Warfare II bij de release ondersteuning krijgt voor XeSS. Die game komt op 28 oktober uit, dus XeSS zou in ieder geval voor die tijd moeten verschijnen. 3DMark krijgt daarnaast 'binnenkort' een XeSS-featuretest. Er zijn negentien games waarvan momenteel bekend is dat ze XeSS-ondersteuning krijgen, waaronder Hitman III, Shadow of The Tomb Raider, Ghostwire Tokyo en Death Stranding.

Intel toont ook nieuwe prestatieclaims voor XeSS, op een pc met Arc A770-videokaart en een resolutie van 2560x1440 pixels. Dat doet het bedrijf voor de performance- en balanced-modi van XeSS. De balanced-modus levert volgens het bedrijf framerateverbeteringen van 26 tot 75 procent, afhankelijk van de geteste game. In het geval van de performance-modus liggen die verbeteringen tussen de 37 en 111 procent, claimt de fabrikant. Cijfers voor de quality- en ultra-quality-modi, die een betere beeldkwaliteit moeten leveren, deelt het bedrijf niet.

Intel XeSS-prestatiesIntel XeSS-prestatiesIntel XeSS-prestatiesIntel XeSS-prestaties

XeSS is upscalingtechniek voor games, waarbij frames op een lagere resolutie worden gerenderd en vervolgens worden opgeschaald naar een hogere resolutie. Dat moet leiden tot betere framerates zonder veel kwaliteitsverlies. Het betreft daarbij een implementatie van temporal upscaling. Daarmee wordt informatie uit voorgaande frames gebruikt om het huidige frame te verscherpen. De werking van XeSS is daarmee vergelijkbaar met DLSS van Nvidia en FidelityFX Super Resolution 2.0 van AMD.

Intel XeSS wordt open source en werkt ook op videokaarten van andere fabrikanten. Daarvoor is wel ondersteuning voor Shader Model 6.4 of nieuwer nodig. AMD-videokaarten vanaf de Radeon RX 400-serie en Nvidia GeForce GTX 1000-kaarten en nieuwer kunnen met SM 6.4 overweg. Tweakers schreef eerder een uitgebreid achtergrondverhaal over temporal upscaling, waarin de werking van Intel XeSS, Nvidia DLSS en AMD FSR 2.0 naast elkaar worden gelegd.

Door Daan van Monsjou

Nieuwsredacteur

26-08-2022 • 10:23

41

Submitter: Xtuv

Lees meer

Reacties (41)

Sorteer op:

Weergave:

Waarom zou Intel hun eigen versie ontwikkelen als AMD al het meest werk heeft verricht en een opensource versie heeft uitgebracht?
Marketing?
Vind ik ook jammer ja. Momenteel loopt Nvidia nog steeds voorop, maar op een gegeven moment (en Nvidia is daar al wat mij betreft) wordt de winst dusdanig klein in de graphics en performance dat het weer gaat om 1-5 FPS winst per jaar ontwikkelingen. Ik speel nu Metro Exodus op 4K Ultra met RTX en DLSS op 120FPS+. En ik weet waar ik naar moet kijken wat de artifacts van DLSS betreft, maar als ik gewoon de game speel en niet twee afbeeldingen naast elkaar leg zie ik er helemaal niks van. Echt supergave techniek, net als raytracing.
Nouja voorop, ik zie 't meer als naast elkaar. De performancewinst bij DLSS is over het algemeen kleiner, maar daar tegenover staat dat de kans groter is dat de kwaliteit beter is en het is natuurlijk alleen compatible met Nvidia. En het implementeren door ontwikkelaars is omslachtiger.

DLSS heeft ook in sommige gevallen weer andere display artifacts en op een TV vanuit een console of PC vanaf de bank geef ik altijd de voorkeur aan FSR, want die levert meer performancewinst en de kwaliteitsverschillen zie je toch alleen als je met een vergrootglas per pixel gaat kijken en dat zie je op een bruikbare afstand van een TV gewoonweg niet.

Ik denk dus niet dat ze altijd met elkaar concurreren, maar elkaar aanvullen. Als ik nou op 30cm van een 30 inch monitor zit dan kies ik wel voor DLSS2.x.

[Reactie gewijzigd door fapkonijntje op 25 juli 2024 08:07]

Vind ik ook jammer ja. Momenteel loopt Nvidia nog steeds voorop, maar op een gegeven moment (en Nvidia is daar al wat mij betreft) wordt de winst dusdanig klein in de graphics en performance dat het weer gaat om 1-5 FPS winst per jaar ontwikkelingen.
Die periode heeft nooit bestaan. Wellicht ben je in de war met de jaarlijkse refresh die we vroeger hadden? Een 4 serie had een nieuwe architectuur en de 5 serie was dan op basis van dezelfde techniek met hooguit wat andere clocks. De serie erna had dan weer een nieuwe techniek. Tegenwoordig is die refresh er niet meer (bij Nvidia). Je hebt dan gewoon 2 jaar lang dezelfde kaarten in de winkel.

[Reactie gewijzigd door sdk1985 op 25 juli 2024 08:07]

4k op 65inch ziet DLSS er wazig uit in motion en native 4k zonder AA ziet er in mijn ogen velen malen beter uit :)

De marketing is free fps en daar trappen veel mensen in, je levert visueel in.
Wat is beter? 4K @ 50fps en DLSS of 4k @ 5 fps zonder DLSS?
Waarschijnlijk het idee dat ze het beter kunnen als AMD. Wat ook is met veel open source is dat je je eigen verbeteringen ook moet terug brengen naar het platform. Dat zorgt er voor dat je geen USP hebt maar confirmeert naar de markt.

Als je het goed doet, dan is het een USP. Als je het slecht doet, dan is het een hele dure hobby welke je onaantrekkelijk maakt.
Op dit moment denk ik niet dat Intel zich hier al druk over hoeft te maken. Überhaupt een voet aan de grond krijgen in deze markt wordt al moeilijk genoeg. Zeker gezien de tegenvallende prestaties van de eerste serie GPU’s.
Ik stel ook zeker niet dat ik denk dat het verstandig is. Ik reageer hier enkel inhoudelijk waarom een partij niet meer zou doen met een Open Source project.

Indien Intel de overtuiging heeft het beter te kunnen doen, dan is er wat voor te zeggen. Het kan zijn dat ze met drivers nog veel te doen hebben. Dat is ook gewoon een gigantische hoeveelheid Tweaken voor specifieke games. Een AI trainen is minder effort als retroactief games optimaliseren.
of je neemt veel inspiratie in de open-source variant, maakt het opnieuw zelf, en dan kan je het 'verkopen' als een extra feature, en claimen dat je het ook nog beter gedaan hebt.
Gezien bedrijven dan bij een aantoonbare verwachte copyright schending inzage kunnen eisen kan dat nog fors duurder worden.
Nvidia en Intel werken met AI upscaling geloof ik en FSR 2.0 is meer traditionale temporal upscaling zoals developers al jaren doen.
Alleen een paar console devs deden motion compensated upscaling (Insomniac) en Unreal Engine met TAAU is pas redelijk recent toegepast in games. Op PC geen onafhankelijke implementaties en werd TAAU ook praktisch niet ondersteund.
Idd, op PC waren er weinig reconstructie technieken tot dat DLSS met AI upscaling op de markt kwam. Op console gebeurt reconstructie al bijna 10 jaar geloof ik, checkerboarding en temporal upscaling. Kan me nog die lawsuit herrinneren van de PS4 launch title Killzone Shadowfall omdat de game niet echt op 1080p was gerendered maar temporal upscaling gebruikte.

https://www.eurogamer.net...g-to-deliver-native-1080p
Toen Intel begon was er nog geen FSR 2 en versie 1 was niet motion compensated.

[Reactie gewijzigd door Pinkys Brain op 25 juli 2024 08:07]

FSR 1 is inderdaad een spatial algoritme wat je in principe altijd toe kan passen. Dus ook op oude spellen zelfs als ze geen native ondersteuning hebben. FSR 2, XeSS en DLSS 2 zijn temporal upscaling technieken.
DLSS 1 is overigens net zoals FSR 1 een spatial upscaling filter; en waar DLSS 2 vaak net wat beter is dan FSR 2 is DLSS 1 echt troep en vind ik persoonlijk FSR 1 beter.
https://en.wikipedia.org/wiki/Deep_learning_super_sampling
Ik snap het principe erachter, het is leuk, het is grappig, maar het is en blijft game-afhankelijk.

Wat heb ik aan een videokaart die Tomb Raider 10% beter draait dan een AMD/Nvidia, maar vervolgens een niets-supported game met 20% lagere fps dan een AMD/Nvidia? Natuurlijk, 90% van de gamers zal 90% van die ondersteunde games draaien, maar wat doe je met de rest? Waar krijg je daar de prestaties te zien?
Dit lijkt mij inderdaad de crux. Als ik die titels zie, die Intel hier getest heeft, dan denk ik niet 'Oh ja, dat speel ik regelmatig'. Sterker; van een aantal van deze games heb ik nog nooit gehoord.
En daarom is AMD FSR 2.0 beter. Dat werkt gewoon in elke game.
Intel kan beter kappen met al deze features. Ga eerst eens je performance fixen. Alle hens aan dek om zo veel mogelijk games te optimaliseren. AMD en Nvidia sleutelen al decennia aan DGPU's en DLSS is pas een paar jaar oud. Introduceer je eigen equivalent lekker later ofzo

Totdat de driver meer optimalisaties krijgt voor problematische games is Arc een beetje een kansloos product namelijk

[Reactie gewijzigd door youridv1 op 25 juli 2024 08:07]

behalve dat deze feature net de performance dramatisch verhoogd...
Verschrikkelijke band aid fix dit. Je videokaart zuigt, dus ga je maar op de achtergrond de resolutie bijstellen om ervoor te zorgen dat je AMD's aller laagste videokaart iets beter bij kunt benen
nee, de AMD en Nvidia kunnen hoge resoluties toveren met hoge framerates, door feitelijk kleiner te renderen, en dan upscalen.

Als jij als concurrent dat niet kan, ben je op hoge resolutie feitelijk heel slecht in vergelijking. Dus als straks een lompe reviewer de Intel vs. AMD/Nvidia vergelijking doet, kom je sowieso slechter uit. En nog veel slechter als ze DLSS/FSR aanzetten, wat je dus niet kan/kon bij Intel.

Deze techniek zorgt voor hogere framerates, soms met grote versnellingen (door ik geef toe, te 'cheaten').

Deze techniek kan ervoor zorgen, dat je wel comfortabel kunt spelen. Is dat niet het doel van een videokaart?
het hoofddoel moet blijven om hoge native performance te hebben.
Ik ben het er mee eens dat Intel dit soort features beter kan laten zitten tot Arc gewoon een stabiel en betrouwbaar product is. Maar ik snap wel dat ze geen oude games optimaliseren. AMD en NVidia hebben dat over een tijdsspanne van vele jaren gedaan, als Intel dat ook wil gaan ze daar héél lang mee bezig zijn en tegen de tijd dat ze klaar zijn worden die oude games toch al niet meer gespeeld.

Maar dan nog hebben ze genoeg te doen: hun huidige drivers en software zijn brak en instabiel, en bevatten hippe features die simpelweg nog niet werken. Dan al over nieuwe features beginnen is een teken van verkeerde prioriteiten.
Mweh, dat probleem los je op door van nieuw naar oud te werken. Dan kun je stoppen wanneer je bij te oude games aan komt.

Als ze niet aan DX9 support gaan timmeren, blijft CSGO problematisch. Laat CSGO nou een van de meest gespeelde games op aarde zijn en een ideale usecase voor bijvoorbeeld de A380.

Zelfde met fortnite. Dat draait ook als dikke stront op Arc en is een DX11 titel.

Kun je wel leuke DX12 support hebben, maar het product is gewoon niet aan te raden als er tussen de meest gespeelde games die er zijn meerdere probleemgevallen zitten. Dan vallen er zo veel potentiele klanten af

[Reactie gewijzigd door youridv1 op 25 juli 2024 08:07]

Mweh, dat probleem los je op door van nieuw naar oud te werken. Dan kun je stoppen wanneer je bij te oude games aan komt.
Precies, en op dit moment werken de drivers überhaupt nog niet lekker dus dat ze nog niet aan CSGO beginnen is dan niet meer dan logisch. ;)
Ik doe een gok dat dit ontwikkeld wordt door een team welke niet op de driver afdeling van de DGPU's zit.

Als je ziet dat hier SM6.4 voor nodig is en dat ook gewoon op verschillende iGPU's van Intel draait hebben ook de iGPU's hier voordeel aan.

Het is niet alsof er nu 10 of 20 of 50 mensen niet aan de DGPU performance hebben gewerkt.
Maar er wordt wel budget aan uitgegeven dat ook naar het driver team had gekund
Je hebt mensen aangenomen met een (vast of meerjaren) contract in een bepaald team. Je kunt niet zo makkelijk mensen en/of budget switchen van het ene naar het andere team.
Aparte redenering. Juist omdat ze op dit moment niet echt op performance kunnen concurreren met NVidia en AMD, zijn dit soort upscaling technieken toch super nuttig? Als ik zo'n Intel GPU zou overwegen dan zou ik liever vandaag 20% betere performance halen met zo'n upscaling techniek, dan dat ik weet ik veel hoe lang moet wachten totdat Intel zijn drivers voor elke game die ik wil spelen heeft geoptimaliseerd. Als dat ooit al gaat gebeuren. Ik ga er tenminste van uit dat XeSS op Intel betere performance gaat geven dan FSR op Intel.

Het lijkt wel of Intel het nooit goed kan doen als het op GPU's aankomt, zelfs als ze met nuttige technologie komen die de prestaties verbeteren wordt er geklaagd. Als je zo'n Intel GPU koopt voor andere redenen dan 'best mogelijke performance' (bijvoorbeeld: betere Linux ondersteuning, lagere prijs), dan is dit gewoon een nuttige feature lijkt me.
Betekent dit dat mijn mobile 1050ti een extra driver kan krijgen om ook gebruik te maken voor xess? Of hoe gaat dit werken op de niet-intel gpu's?
Zit in het spel, net als FSR. Het algoritme staat los van de drivers en werkt op een ander niveau.
Klinkt ook logischer nu je het zegt. bedankt voor de info
Tjas mooie sheets maar dit is natuurlijk echt een totaal nutteloos nieuwsartikel. er word niet vermeld vanaf welke resolutie in balanced naar 1440p word geupscaled en er word geen woord gerept over de beeldkwaliteit terwijl deze technieken toch beeldkwaliteit kosten. 75% is leuk maar als je beeld er niet uit ziet betekend het niets.
Als ik upscale van 720p naar 4k heb ik ook 800% prestatiewinst maar het ziet er niet uit. Tot de echte reviews is dit allemaal niets zeggend.

Daarnaast valt dit type technieken bij de implementatie. bijna alle games die ik gespeeld hebben hebben geen DLSS, FSR of XeSS support dus het betstaat maar gebruiken kan je het niet. RSR is de enige nuttige upscale techniek vandaag de dag (NIS ziet er niet uit) de rest is allemaal een gimmick.

[Reactie gewijzigd door computerjunky op 25 juli 2024 08:07]

Ik snap die negatieve houding richting Intel niet zo hoor. Ze hebben pas sinds kort de 1e serie ' serieuze' videokaarten op de markt gezet, die ze zelf hebben bedacht, gefabriceerd ed.. En ja, zo'n eerste serie lanceren tussen giganten als Nvidia en AMD is altijd lastig omdat deze al veel verder zijn. Althans AMD borduurt nog voort op wat ze destijds voor veel te veel geld van ATI hebben overgenomen, dus die heeft vanuit de basis zelf nog nooit een eigen VGA kaart ontworpen. Intel dus nu wel en je ziet dat ze erg goed in hardware zijn maar het aansturen van deze hardware is een vak apart. Dat zijn ze nu langzamerhand aan het ontwikkelen en ik ga ervanuit dat dit wel goed gaat komen. Geef het nog een paar generaties en dan verwacht ik dat iedereen hier met een blauwe bril oploopt i.p.v. een groene of een rode. De zure zulten en Intel haters zullen altijd wel hun eigen kleur bril ophouden (waarschijnlijk tegen beter weten in) maar voor de rest, die open staat voor verandering, zal het de komende jaren weer spannend worden met 3 fabrikanten ipv. 2.
1) Intel fabriceert deze generatie niet zelf.
2) hoe zie je dat ze goed zijn in hardware? De kaarten lopen voor geen meter, wat is er dan goed aan de hardware?
3) ik zie geen "haters". Maar de kaarten zijn gewoon troep op moment, en dus zeggen mensen dat ze troep zijn.
Hoe meer spelers en onderlinge concurrentie hoe beter voor de consument. Ik hoop dat Intel een volwaardige speler wordt in de gpu space…
Ben benieuwd, maar ga ze nu maar eens leveren, dan zien we wel wat de prestaties irl zijn
Doe maar Intel - u komt er qua GPU's nooit meer in. U heeft ons te vaak in de steek gelaten in het verleden. De laatste keer voor mij is 't met die microcode-updates geweest die beloofd zijn maar nooit gekomen. Voor mij is Intel = RIP (en ik denk hetzelfde over de geheimdoenerij van Apple - een product dat out of support gaat - dat maak je op tijd zichtbaar, liefst vanaf het moment dat het gekocht wordt - is die datum bekend, of op zijn minst de voorwaardes - dat geldt eveneens voor android e.v.a. speeltjes!).
Intel XeSS wordt open source...
Ik had begrepen dat het meer aan een open plugin-gedeelte zat te denken, dus misschien dat de generieke wrapper daarvan opensource is. Maar de daadwerkelijke XeSS implementatie (of eigenlijk de twee implementaties, eentje voor Arc kaarten en eentje voor 'de rest') zouden niet perse open source worden geloof ik? Kan zijn dat dit ergens over kleine details gaan die fout gerapporteerd worden, dus wie weet heb ik het fout.


Dat leek me namelijk juist het leuke aan het Intel idee. Game doet het 1x, en vervolgens kunnen andere mensen er mee los om er een DLSS implementatie achter te hangen, of een FSR2 implementatie, of zelfs een 'laat maar zitten we gebruiken lanczos-scaling implementatie'.

Het 1 sluit het ander niet uit natuurlijk...

Op dit item kan niet meer gereageerd worden.