'Igpu van Intel Arrow Lake bevat XMX-ondersteuning voor snellere XeSS-upscaling'

De Intel Arrow Lake-processors krijgen naar verluidt een 'Xe-LPG Plus'-igpu. Dat zou gaan om een verbeterde variant van de Xe-LPG-architectuur van de Meteor Lake waarbij XMX-ondersteuning is toegevoegd. Daarmee kunnen onder meer snellere XeSS-berekeningen uitgevoerd worden.

Dat de graphics-tile-architectuur van de Arrow Lake-cpu's door Intel vermoedelijk Xe-LPG Plus wordt genoemd, blijkt uit de patchnotes van de Intel Graphics Compiler, bij de update die Arrow Lake-S-ondersteuning toevoegt, zo ontdekte Coelacanth's Dream. Het gros van de functies lijkt hetzelfde te zijn als de Xe-LPG-gpu van Meteor Lake, waarbij LPG voor Low-Power Graphics staat, maar de Plus-variant beschikt daarnaast naar verluidt ook over XMX-matrixengines. Die zorgen voor betere AI-prestaties en moeten volgens de fabrikant snellere XeSS-berekeningen mogelijk maken.

XeSS is, net als Nvidia DLSS en AMD FSR 2.0, een techniek voor temporal upscaling. Daarmee worden games op een lagere resolutie gerenderd. Vervolgens wordt informatie uit de huidige en voorgaande frames gebruikt om het beeld op te schalen naar een hogere resolutie. Dat moet betere framerates opleveren zonder veel beeldkwaliteit te verliezen.

Meteor Lake biedt geen ondersteuning voor XMX. Waarom is niet helemaal duidelijk, maar Coelacanth's Dream vermoedt dat Intel daarvoor gekozen heeft om ruimte te besparen. Meteor Lake kan overigens nog steeds gebruikmaken van XeSS, maar dan door middel van de DP4a-instructies. Dat werkt wel minder optimaal dan met XMX. Intel heeft nog niet bevestigd dat de Arrow Lake-processors daadwerkelijk XMX-ondersteuning bevatten. De vijftiende generatie Core-cpu's worden in de tweede helft van 2024 verwacht.

Patchnotes IGC met XE-LPG Plus-ondersteuning voor Arrow Lake

Door Kevin Krikhaar

Redacteur

25-11-2023 • 10:40

26

Reacties (26)

Sorteer op:

Weergave:

DLSS, FSR, XeSS. Allen hebben één ding gemeen en dat is dat het allemaal upscalers zijn. Hier kun je elk platform rekken. Ze worden gerenderd. Met AI wordt het beeld zo gemaakt dat ze 'native' benaderen terwijl de PC dan werk uit handen wordt genomen.

Een hele mooie techniek die heel veel potentie biedt. Laten we eerlijk zijn, maar:

Games worden wel zo zwaar/slecht geoptimaliseerd dat het teveel leunt op de behoefte van een upscale-techniek en daar maak ik me soms wel zorgen over. Door de potentie van een upscaler worden games minder geoptimaliseerd en dan vergeldt je het kwade om het goede en kom je alsnog niet verder. Het zegt genoeg dat titels zoals Alan Wake II en Starfield bijna een upscaler vereisen omdat ze anders niet goed te spelen zijn. Niet iedereen heeft een 7900XTX of RTX4090 in huis.

Vooral met ray tracing heb je al heel snel een upscaler nodig. Ray tracing is geweldig, maar wie gamed op een RTX4060(Ti) of lager kan zich geen ray tracing permitteren.

Hier een zuiver spagaat.
Als je het verschil niet meer ziet tussen upscaling en native maakt het in principe niet uit. Ja dat betekent dat er games zullen komen die zonder upscaling niet soepel te spelen zijn. Maar is dat een probleem? Wat mij betreft is upscaling weer een nieuwe techniek die we gebruiken om iets sneller te maken, zoals ray tracing vroeger gewoon niet in real time kon.
Dat kán een probleem zijn. Ze zeggen dat een upscaled frame er beter uit kan kan zien dan native, en juist dat baart me zorgen, of is het een zegen? Als ik DLSS zou moeten gebruiken dan heb ik daar vrede mee, maar wat ook meespeelt is dat ik een rtx4080 heb op een 1080p resolutie. Ik heb echt geen DLSS nodig voor een mooie framerate, maar mijn zorgen zijn meer als ik Starfield wil spelen; dat ik wél DLSS nodig ga hebben voor een leuke framerate. De kwestie dat het niet meer native kan maakt dan games wel heel erg zwaar zijn; door niet geoptimaliseerd te zijn. Het wordt de game-creators te makkelijk gemaakt.
Hoe erg is het als ik met mijn config DLSS nodig ga hebben? Op het eerste gezicht heb ik niets te zeuren wánt de game loopt lekker, maar over 2 a 3 jaar? Het idee dat een rtx4080 het eventueel niet meer kan bolwerken op 1080p native maakt me zeker zorgen. Nu kan ik nog CP77 spelen op DLAA.

Het punt is dat ik vind dat het de game-makers te makkelijk wordt gemaakt.

Je gaat gewoon niet blij zijn als je DLSS ultra performance moet gaan gebruiken voor een deftige framerate. Game je op 4K dan moet het beeld gerenderd worden op 1280*720. Ga je daar blij mee zijn? En als je op 1080p gamed en je hebt DLSS ultra performance nodig, dan renderd je game op 640*360!! Je gaat mij niet vertellen dat dit gezond is. How low can you go?
Als de upscalers zo goed dat je het verschil niet ziet met een native frame zie ik niet zo zeer het probleem. Als het algoritme iets er bij bedenkt en wij vinden het er beter uit zien dan het native frame is daar niks mis mee. Het is een techniek die iets wat we nu al kunnen sneller maakt, en als het goed gedaan wordt lever je geen performance in.

Maar ik ben het met je eens, het voelt als cheaten, je kan iets op de helft renderen en dan gewoon upscalen en het ziet er gewoon net zo goed uit als het origineel. En soms zelf beter? Black Magic! Die game-devs moeten gewoon goede code kloppen (en meer tijd krijgen).

Bedenk wel dat dit soort technieken bottlenecks in de render pipeline oplossen, als een game cpu bottlenecked is dan helpt upscaling niet heel veel.

[Reactie gewijzigd door codeneos op 23 juli 2024 09:02]

Slecht geoptimalizeerde games zijn van alle tijden. Een upscaler is een extra stuk gereedschap.
Precies, dit probleem had je al toen machines meer RAM en hd-space begonnen te krijgen, waarom nog tot in den treure optimaliseren om het allemaal in je ram gepropt te krijgen of het op je hd op te slaan, als dat soort apparatuur toch al tientallen, zo niet honderden malen meer bieden dan nodig. Of je game nou tegenwoordig een paar mb meer verstookt, lekker boeiend.

En zo zal het zijn met elke techniek die iets kan verlichten.

Dit praat dat gedrag niet goed ofzo, ja luie programmeurs zullen dit gebruiken om hun shitty games enigszins draaiend te krijgen, dat is niet de schuld van de techniek natuurlijk.
Clippen de house muziek vinden sommigen ook lekkerder klinken. Teferentie geluid klink flat. Sommige genres film kijk je lever met warmere kleur setting wat ook afwijkt van kleur echtheid.
Post processing maakt beeld mooier maar niet realistischer
Native is beste al het andere is benadering. Maak je mooier valt het meer onder post proccesing waar je effecten introduceert die soms over de top ook mooier ervaren worden.
In real live kan je ook photoshoot spelen met belichting zodat mooier uit ziet. In game een moment waar licht net niet goed uitkomt kan je met AI verbeteren maar dat is cheat in reallife als dienst doet een tour of duty in oekain wat kan je niet heven betere belichting doen fijner find. In hollywood films wordt dat wel gedaan. Dan is dat on realistisch meer licht in donkere scene hebt. Ook om specifieke sfeer te op te zetten.

Se stap mode-x 32-x240 naar 640x480 naar 800x600 naar 720p is gigantisch.
1080p is cqc of corridor games zag 1440p is meer waarde subtiel fijn in sambox game als je zoekt in omgeving 4k zul je ook grotere scherm moeten hebben en groter fov.
Maar dan shift je ook naar de meer slow pace exploring games. In competive games valt de detail en highres weg en werkt tegen je vooral als de scene complex en veel objecten tellen waardoor opfor in weg vallen.
Voor Arma is 4k low setting beter om opfor in long asault range al vroeg te spotten. In COD shipment 1080p voor 14jarige stuiterbal 240hz meer waarde.
Ik 50plus liever 120hz vrr ps5 Maar 60/72hz monitor kan er ook mee door dan maar wat lagere k/d.
Naast aangezien ik geen high-end gkaart zal gebruiken is gamen op normaal reso 1080p of 1440p zat. Upschalen van low res naar normale res bv 500p naar 1080p is kwaliteit slechter van 1440p naar 4k of 8k is kwalitietnhoger. Maar ja op 1440p zal game experience of gfx experience ook niet dramatisch minder zij .
Speaking of lore: clipping in muziek "war of loudness" is iets waar ik me toevallig heel lang mee bezig heb gehouden. De verloren audio haal je er niet mee terug, maar ik kon wel de wavevorm weer rond krijgen zodat het minder schadelijk is voor je boxen. Een goed gemasterd stuk muziek klinkt alles behalve flat. Ik beluister dan ook regelmatig Hi-res audio, en niet omdat het mooier zou klinken, maar om clipping te vermijden.

Enough said ;)

Ik zeg niet dat DLSS slecht is, maar waar er rek komt in de prestaties vullen game creators deze weer op, vaak door slechte optimalisatie. De setting DLSS quality is nog heel goed te doen, maar als je super performance kiest dan ga je dat zien en wel goed ook. Het is geen lapmiddel om eeuwig te doen met jouw videokaart.

90%+ van de mensen kunnen geen ray tracing draaien zonder DLSS te gebruiken en gelukkig heb je heel veel mogelijkheden om een game zo af te stellen dat deze goed loopt, maar DLSS moet dingen gaan verzinnen en zeker bij de de zwaarder settings.

Het feit dat mijn rtx4080 prima matched met mijn 1080p scherm zegt al genoeg. Ik heb geen DLSS nodig en ik kan ray tracing voluit zetten, maar wie gamed er op 1080p als die een rtx4080 in huis heeft? Daar komt DLSS om de hoek kijken ;)
Frame interpolatie is niet goed voor VR, dus dan krijgen we weer dat probleem dat mainstream inzet op een techniek die VR ports moeilijk maakt net zoals deferred vs forward.

PS. Goede VR games hebben al minimale button to photon latency, een paar parameter tweaks voor de driver voor luie devs gaat niet helpen. VR games hebben extrapolatie nodig, niet interpolatie.

[Reactie gewijzigd door Pinkys Brain op 23 juli 2024 09:02]

XeSS ziet er op lagere resoluties veel beter uit dan FSR. Maar het is wel zwaarder, dus minder FPS winst. Dan is acceleratie zeker welkom.
Uiteindelijk hebben dit soort ML upscalers waarschijnlijk de toekomst. Ik zie FSR meer als een manier om de RDNA2 chips (van game consoles) te rekken, want dat is het gros van AMD's GPU verkopen.
Je weet toch dat AMD Xilinx gekocht heeft he en dat de eerste laptop cpu Phoenix een ML unit heeft... Kwestie van wederom weer niet te denken dat Intel de enige is...
Ik heb niet veel vertrouwen in Intel en hun Arc integratie met apu's. Amd's Phoenix is leuk maar het wordt volgend jaar nog leuker met Strix apu's. Ze gaan een grote zet doen op de laptop en mobiele markt en Intel heeft niet echt een goede counter.

Ik begin me wel een beetje zorgen te maken om Intel want de markt heeft eigenlijk wel een derde speler nodig.
Intel is financieel gigantisch. Hebben goede vooruitzichten komende jaren met hun procestechnologie richting 18A op orde. Die blijven zeker van de partij. Dat het eventjes een paar jaar wat minder ging lijken die alweer achter zich te laten.
INtel is gigantisch maar heeft ook gigantische running kosten ze zijn laat met de tile aanpak maar hun tile aanpak maakt sku duurder waar chiplets juist productie efficienter zijn. Naast dat de grote melk koe server data center EPIC het zeer goed doet. Als een branch waar overstap juist grotere barrierre is. En men er toch voor gaat. Asp vs kosten dus marges bij intel niet optimaal zijn. Afdelingen afgestoren worden zo ook innovatie r&d down sized zie ik juist een zwaar moeizame intel die moeilijk heeft.
Vergeet ook niet dat ze in betere dagen ook zwaar innovatief groot hebben uitgepakt met R&D zoals itanium dat heavytin conncurenten de nek omdraaide later AMD64 dat met itanium deed. Larabee ook dure brug te ver was. Optane niet van de grond kwam.
Dat is kapitaal dat weg is. Nu vele jaren op server ver achteraan lopen. Zeer moeizame stap in gpu. Denk eerder dat prioriteit op gpu gebied pro gpgpu is.
De intel reserves krimpen. Naast met hun fab kapaciteit moet je ook een groot deel van matktnhebben. Dus hun open foundry aanpak helpt wel. Maar ja als monolitiche low budget cpu low ASP lage marges het moet hebben tov AMD die door chiplet resources goede chiplets niet wil verspillen aan low budget markt. Moet je heel veel verschepen voor winst te maken. 12th 13th 14th gen xx400 cpu waar AMD liever alles boven midrange leverd tot server sku heb je minder market maar betere ASP met productie efficientie ook betere marges. En flexibiliteit. Ke kan makkelijk de productie schuiven naar andere sku. Een intel fab of lijn, die productie run op 14400 cip gooi je niet effe om naar 14700 met tile aanpak voor nextgen komt die flexibilieit ook voor intel bij.
https://www.intc.com/news...er-2023-financial-results
Intel investeert per kwartaal nog altijd vijf miljard dollar in research&development en overnames. Dat ze nu weinig winst maken moet je vooral zien als vertrouwen in aankomende productieprocessen en producten. Ze klimmen nu al uit het gat van de afgelopen jaren en stoppen veruit het meeste geld dat ze kunnen besteden in het uitbouwen naar de toekomst. Maar 10% gaat naar aandeelhouders.

Zoals je zegt, die nextgen flexibiliteit is volgend jaar, Intel en haar investeerders zien dat duidelijk vol vertrouwen tegemoet, die verwachten komende jaren zoveel meer geld dat ze nu met iets minder dividend genoegen nemen.
ze klimmen nergens uit hun gat, ze gaan gewoon wat mee in mobile en desktop met de seasonal uplift en in datacenter krijgen ze elk kwartaal gigantisch op hun kop kwa verkoop, daarbovenop moeten ze bij elke DC tender gigantische kortingen geven om toch maar deals te halen... ze geven 4 socket aan de prijs van dual socket, dual socket aan de prijs van single socket allemaal om maar kompititief te blijven op DC niveau en niet nog meer marktaandeel te verliezen.

als je een generieke workload hebt in DC en je koopt nu INtels dan ben jejezelf iets wijs aan het maken, je moet al een grondige (bijna onbestaande) reden hebben om zulke omgevingen verder te zetten kwa performance/power tenzij je wat "validated intel only SAP ofzo draaiende hebt" en die smijt je dan wel op apparte groep servers......
https://www.servethehome....on-in-stunning-fashion/8/

je hebt te veel hoop op intel en te veel geloof in hun marketing... Patje doet het overal goed met veel blabla en marketing rondstrooien maar op eenzelfde moment zetten ze meer en meer op TSMC en ja de marketing term 18A klinkt fantastisch maar ondertussen hebben ze al een downscaling van NA gedaan op die 18A om toch hun marketing termijn aka doel te halen....

https://www.anandtech.com...production-in-future-node

[Reactie gewijzigd door d3x op 23 juli 2024 09:02]

Ze kopen marktaandeel in het server segment met geld dat ze hebben liggen. Maken miljarden winst per kwartaal. Het duurt echt nog vele jaren voordat AMD in zo een luxe situatie zit.
Of Intel wat aan die 18A gaat hebben, we gaan zien waar de concurrentie tegen die tijd tegenaan loopt. Want die moeten er ook maar komen, en zullen vast ook compromissen sluiten op allerlei vlak voor de yields en technische chip prestaties beiden geoptimaliseerd zijn.
Altijd mooi als er concurrentie is en blijft. AMD is een mooi merk, Intel ook, TSMC ook, Samsung semiconductor ook. Ook al is AMD geen chipproductent meer, hoe meer zielen hoe meer vreugd!

[Reactie gewijzigd door OruBLMsFrl op 23 juli 2024 09:02]

Pfff die marketing namen maken het wel heel lastig lezen, het zou fijner zijn om in de eerste paragraaf de algemene termen te gebruiken ipv de hoofdletter soep…

Edit: achter een pc, dus typo's gefixed, en ff voorbeeldje geschreven van hoe het zou kunnen:
De Intel Arrow Lake-processors krijgen naar verluidt een 'Xe-LPG Plus'-igpu. Dat zou gaan om een verbeterde variant van de Xe-LPG-architectuur van de Meteor Lake waarbij AI versnellingsondersteuning (XMX) is toegevoegd. Daarmee kunnen onder meer snellere opschalingsberekeningen (XeSS) uitgevoerd worden.
't is maar een ideetje. Ik zit best in de tech en volg Tweakers goed, maar deze paragraaf kon ik weinig mee - pas na de 2e en 3e in het artikel wist ik waar het om ging.

De Big Tech firms poepen maar rare termen en acryniemen uit, maar dat moet je toch ff uitleggen... liefst wat eerder in het artikel ;-)

[Reactie gewijzigd door Superstoned op 23 juli 2024 09:02]

'IIntel Arrow Lake krijgt nieuwe grafische chips met geavanceerde functies'

Het huidige stuk tekst zou een mooie 'slecht voorbeeld' case zijn in een technische marketing cursus (sorry Kevin:) ); ik heb het na de titel en de header al opgegeven en had nog geen idee waar het over gaat.
Ergens rond 1997 kwam de Pentium met MMX ondersteuning uit. En nu zijn ze pas bin XMX? Pfff.
It's all about the Pentiums baby!
Weird Al zei het al, en nu binnenkort dan echt XMX with a hundred Gigs of RAM... nu ja, 128GB zal hopelijk haalbaar worden :9
En over 10 jaar komt er weer iets uit waarbij je denken dat het eerder mocht. De techniek achter de automatisering kijkt logischerwijs eerst naar wat voornaam is (voor het bedrijf in spe). Ik begrijp je reactie. Nu pas...als DLSS in het tijdperk van DOS zou zijn dan kun je Duke Nukem 3D op een 80386 spelen.
Er zal vast een reden zijn dat ze er nu pas mee komen en deze reden is dat er winst moet worden gemaakt want anders gaan ze de soep in. Spring dan meteen het water in en zwem het succes toe.

Dit is automatisering ;)
Het plaatje is van een header file met marcro's en daarvan is nu eenmaal de conventie dat daar hoofdletters gebruikt worden. Heeft verder weinig met marketing te maken. Ontwikkelaars en marketing, die combinatie zie je niet zo veel (eerder aversie tegen hypes en hijgerigheid).
Intel gaat volgens mij de aankomende jaren omhoog kruipen als concurrent met integrated pc graphics want nu verliezen ze dik van Amd.
Wat betreft bezitten van een 4090 of 7900 gpu is het echt voor enthousiasten, en dat was ik vroeger ook. Maar met m'n bijna 50 jaar kan ik nog zoveel fps hebben en toch afgemaakt worden door de jeugd online en zo hoort het ook.
Laat ik het zo zeggen. In een ps5 zou naar zeggen een amd 6700 gelijke gpu zitten met 16Gb op minimaal 256-bit bus. Wat dat betreft is amd fsr aannemelijk van belang om de ps5 hot te houden.
Wat ik eigenlijk wil zeggen als reactie op de angst dat nieuwe spellen verwaarloosd geoptimaliseerd raken, denk ik van niet. Want ze zullen de games voor ps5 moeten optimaliseren en daar profiteer je waarschijnlijk vaak op de pc van mee. Je moet niet alles willen raytracen maar gewoon schaduw en wat licht.
Wat mogelijk wel impact kan hebben is de energiebesparing van Ai frame genereren, maar heeft weinig zin als je jouw gpu 100% laat draaien omdat +500fps halen je hobby is.
Zeg je dat Intel-graphics een niche markt is?

Intel is een totaal nieuwe speler op de 3D markt en moet Nvidia en AMD ruim voor laten gaan. Echter ben ik wel benieuwd waar dit zal eindigen.

Op dit item kan niet meer gereageerd worden.