Intel: meer dan 150 games ondersteunen XeSS

Er zijn momenteel meer dan 150 games op de markt die ondersteuning voor de XeSS-upscalingtechnologie van Intel bieden. Dat zegt Intel. Het is niet duidelijk hoeveel games de nieuwste variant van de XeSS-upscalingtechniek hebben geïmplementeerd.

Intel heeft het nieuws op X meegedeeld, maar gaf verder geen details. Het is dus ook niet duidelijk welke games in de nabije toekomst Intel XeSS zullen ondersteunen.

Intel bracht XeSS in 2022 uit. Het is een concurrent voor technieken als Nvidia DLSS en AMD FSR 2.0. De game gebruikt een AI-model om games op een lagere resolutie te renderen en vervolgens op te schalen naar een hogere resolutie. Dat moet hogere framerates opleveren zonder veel kwaliteitsverlies.

In december 2024 heeft Intel XeSS 2 uitgerold, samen met de introductie van de Intel Arc B580. Deze nieuwe variant van de upscalingtechnologie bevat enkele nieuwe functies zoals Frame Generation en Low Latency. De framegeneration, ofwel XeSS-FG, voegt optical flow en motion vector reprojection samen om nieuwe frames te genereren op basis van interpolatie. XeSS Low Latency moet de systeemlatency verlagen voor soepelere gameplay. Behalve op de gpu's van Intel werkt XeSS ook op moderne videokaarten van AMD en Nvidia. Tweakers schreef eerder een achtergrondartikel over de werking van Intel XeSS, Nvidia DLSS en AMD FSR 2.0.

Door Jay Stout

Redacteur

03-02-2025 • 11:38

61

Lees meer

Reacties (61)

61
61
23
1
0
33
Wijzig sortering
Bart ® Moderator Spielerij 3 februari 2025 11:46
De paar games die ik heb gezien met xess, hebben ook dlss en fsr. Ik neem aan dat mensen met een kaart van nvidia gaan voor dlss, en mensen met een kaart van AMD zullen denk ik voor fsr gaan. Dus mooi dat 150 games xess ondersteunen, maar hoe veel mensen maken er daadwerkelijk gebruik van?
Het is mooi meegenomen dat XESS beschikbaar is als de gekochte kaart niet snel genoeg is om het native te draaien, maar volgens mij draait AMD FSR op alle videokaarten (dus ook die van Intel). Iemand met een Intel GPU zou dus XESS of FSR kunnen kiezen.
Mogelijk dat er verschil zit in kwaliteit oid en dat XESS daarmee beter uit de bus komt?

Ik hoop dat het uiteindelijk wat wordt met hun videokaarten om een beetje te concurreren met NVIDIA/AMD, dus het is goed nieuws dat ze er actief mee bezig zijn
Voor mijn eigen gemaakt spul heb ik deze lijst met fallbacks:
* DLSS voor Windows en nVidia GPU's
* XeSS voor Windows en niet nVidia GPU's
* FSR3 voor Linux/MacOS
* SGSR voor mobiel (Android) inclusief stand-alone VR (bv Quest/Pico4)
Let wel dat XeSS op niet-intel kaarten minder goed presteert voor zover ik begrepen heb. XeSS op een Intel kaart is volgens mij wat beter dan FSR op een AMD kaart. Maar ik weet niet of de variant van XeSS die op elke kaart draait beter is dan FSR.

(En daar komt bij dat er een nieuwe versie van FSR aankomt die waarschijnlijk verbetering biedt voor de nieuwe AMD kaarten.)

[Reactie gewijzigd door DLSS op 3 februari 2025 15:56]

Beide varianten van Xess zijn beter dan de huidige FSR voor upscaling. Maar, op niet-Intel kaarten is de kwaliteit ietsje minder dan de 'proper' Intel-hw-ondersteunde schaler. Het kost ook een stuk meer performance dan FSR als je op een niet-Intel kaart zit.

Zeker omdat de prijzen van AMD veelal beter zijn dan nVidia is Xess eigenlijk de gouden middenweg voor AMD gebruikers. Je levert iets aan performance in voor een upscaler die niet veel onderdoet voor DLSS.

Het is eigenlijk alleen jammer dat relatief zo weinig games deze upscaler native ondersteunen. Maar, zoals voor zoveel dingen is ook hier een user-made oplossing voor: https://github.com/cdozdil/OptiScaler; Xess in vrijwel alle games die ook DLSS ondersteunen.
Dank voor de uitleg. Inderdaad jammer dat het relatief weinig gebruikt wordt 🤔. Hopelijk blijft Intel volharden en brengen ze een derde generatie dedicated GPUs uit.

Als er meer intel kaarten in omloop zijn zal het ook meer lonen om XeSS te ondersteunen.
Kan over een maand weer anders zijn,
Amd schijnt aardig progressie geboekt te hebben met FSR 4.
Althans dat zeggen de outlets die toegang hadden tot de closed beta drivers en nieuwere AMD hardware.

Toch wel heel mooi dat Intel's upscaler en hun nieuwe betaalbare GPU's (B580) het heel goed doen.

Geeft meer moed dan hun huidige line-up aan CPU's. We hebben meer concurrentie nodig, niet minder.
FSR 4 straks niet meer. Die draait enkel op RDNA4 kaarten dacht ik
XeSS kent twee varianten, eentje die gebruikt maakt van Intel's eigen hardware (XMX?) en eentje die software matig is zoals huidige AMD FSR versies. Daarom kan je met Intel's GPU betere performance verwachten met XeSS dan bijvoorbeeld met een NVIDIA of AMD videokaart met XeSS.
Eigenlijk iedereen met een Intel processor die geen dGPU heeft als een Nvidia of AMD. Dus waarbij de Integrated GPU van Intel gebruikt wordt én XeSS ondersteund.
Dat zijn héél veel mensen. Maar niet persé mensen die ook echt gamen.
Gezien de lijst (https://game.intel.com/es/xess-enabled-games/) staan er weinig games op die ook daadwerkelijk door het 'mainstream' publiek worden gespeeld.

Alsnog leuk dat het steeds meer kan.
Ik hoop dat Anno 1800 ook ooit deze ondersteuning krijgt...
Staan toch nog best bekende games tussen met onder andere meerdere CoD, Fortnite, F1, Payday. Maar uiteraard, meer is beter :)
Maar vele mensen die de spellen spelen die jij noemt, hebben vaak wel een GPU'tje. (Alhoewel fortnite tegenwoordig op elke aardappel wel draait)

Maar de mensen die af en toe wel een spelletje willen spelen maar gebonden zitten aan een laptop met alleen een Intel Integrated/Arc., die kunnen zouden veel beter teren op XeSS support.

Vrouwlief wilt wel eens Anno 1800, The Sims (4) en Hogwarts Legacy spelen.
Hogwarts Legacy is nu beschikbaar met XeSS dus hoeft dit wellicht niet meer op mijn PC ;)
Nu die andere 2 nog ha.
Hogwarts Legacy is nu beschikbaar met XeSS dus hoeft dit wellicht niet meer op mijn PC
Dat is toch die game die zelf op stevige PC hardware soms al tegen de limieten aanloopt? vooral met een 8GB kaart

Behalve als je een laptop met een 680M of beter hebt gaat dat echt niet lekker draaien op een onboard Intel GPU

YouTube: Hogwarts Legacy With No Graphics Card
Op een normale PS5 is Hogwarts Legacy "Fidality Raytracing" ook niet te spelen op 4k. Als je de PS5 op 1080P instelt, is het wel (op hier en daar storende stutters na) met RGB 12b TM speelbaar.
Ja, dit is inderdaad fijn als je een casual gamer bent, dat je hardware ook een spelletje kan draaien.
Al moet ik eerlijk zijn, als casual gamer, dat ik het vervelend vindt om per game te begrijpen of die wel of niet op mijn hardware draait. MS heeft natuurlijk ooit een soort meetmethode geprobeerd of de computer dan bepaalde applicaties kon draaien, maar dat is nooit echt een succes geworden en weer verdwenen.
Resultaat is eigenlijk dat ik alleen nog hele oude games een keer speel van 20 jaar terug of zo.
Wat ik dan zo bijzonder vind is dat de 'niet mainstream' game develloppers hier wel tijd en energie voor hebben. Als het daar al uit kan, dan kan die tijd in en moeite toch ook wel uit voor games die in de miljoenen exemplaren verkopen.
Kleinere ontwikkelaars gebruiken volgens mij veelal toolkits voor het ontwikkelen van games. Grotere ontwikkelaars willen toch veel custom dingetjes toevoegen wat hun games uniek moet maken.

Maar moet eerlijk zijn dat ik niet begrijp wat de daadwerkelijke impact van iets als dit is.
Ook mensen die een intel ARC GPU gebruiken neem ik aan. Intel probeert natuurlijk ook meer voet aan de grond te krijgen in die markt.
En dat is ze aardig gelukt dit keer met Battlemage.
Ik heb in bepaalde games gekozen voor xess ipv fsr ondanks dat ik een amd kaart heb. De prestaties zijn hetzelfde maar de beeldkwaliteit is beter. Dus nee je kiest niet vanzelfsprekend voor eigen "merk" upscaling. Fsr laat qua beeldkwaliteit een hoop te wensen over.
Dat wordt per FSR versie wel steeds beter gelukkig. FSR 4 is echt weer een hele sprong t.o.v. FSR 3 als ik Digital Foundry mag geloven.
Maar FSR4 draait alleen op RDNA4. Dus de nieuwe 9xxx reeks. De meeste gamers zullen die nog niet hebben.
Nee dat is helaas inderdaad het grote nadeel van FSR 4.
Ik ook. Ik prefereer XESS boven FSR3 op mijn Radeon kaart. Net wat betere beeldkwaliteit.
Ik hoop dat ik er straks wel gebruik van kan gaan maken. Ik heb een B580 kaart gekocht voor een LAN-party PC en waarop vooral spellen zoals Tom Clancy's Ghost Recon: Wildlands en Call of Duty: Black Ops 6 op gespeeld gaat worden. Zijn niet de meest zware spellen, maar met ondersteuning van XeSS hoop ik wel iets langer plezier te hebben van de kaart.

Zonder fatsoenlijke ondersteuning voor XeSS zal een Intel GPU niet makkelijk een valide optie gaan zijn wanneer je een GPU gaat aanschaffen.

[Reactie gewijzigd door mvds op 3 februari 2025 11:51]

Denk best wat mensen. In behoorlijk wat vergelijkingstests komt XeSS er beter uit dan FSR.
Ik heb een game op mijn Steam Deck waarbij XeSS er beter uitziet dan FSR (voor mij in ieder geval). Met FSR zijn de textures heel wazig en XeSS zijn ze een stuk scherper. Ik dacht dat het de laatste Dragon Age was maar dat weet ik niet helemaal zeker. Dat verbaasde me wel omdat ik zou verwachten dat FSR betere resultaten op een AMD APU zou hebben (al kan beeldkwaliteit ook subjectief zijn).
Nu Intel met de Intel Arc grafische kaarten zich richt op gamers is het voor de potentiële koper van zulke kaarten natuurlijk prettig om te zien dat zij net als AMD en Nvidia aan een eigen upscalingtechniek werken. Dat ze die ook openstellen voor AMD en Nvidia-bezitters vind ik ook positief van Intel. Meer concurrentie op dat vlak is beter voor iedereen. Het lijkt mij namelijk duidelijk dat geen van de drie bedrijven achter wil lopen wanneer hun upscaling technieken met elkaar vergeleken worden. En al helemaal niet op hun eigen videokaarten door een upscalingstechniek van de concurrent.
Als een game Xess ondersteunt gebruik ik deze ook met mijn AMD kaart, veel betere scaling als FSR.
Alternatieve upscalingmethodes zijn altijd welkom. Ook mooi dat bijvoorbeeld FSR open-source is, ik las met XeSS dat alleen de SDK beschikbaar is en niet volledig open-source is. Dat is ook prima zolang het maar werkt. Pluspunt is dat het werkt op NVIDIA/AMD/Intel kaarten. Ik merk ook dat modders FSR toevoegen aan oudere games en als XeSS d.m.v. de SDK makkelijk te implementeren is, dan is dat een mooi alternatief.
Ik merk ook dat modders FSR toevoegen aan oudere games en als XeSS d.m.v. de SDK makkelijk te implementeren is, dan is dat een mooi alternatief.
Zag ik laatst nog een video over, hoe modders universele mods hebben om DLSS om te bouwen naar FSR 3.1 en XeSS (waar de ingebouwde FSR implementatie nog versie 2 gebruikt, of helemaal niet bestaat), waardoor je in de game gewoon DLSS beschikbaar krijgt die onder water vertaalt naar FSR 3.1.

Zijn developers nou echt zo laks daarin dat ze alleen DLSS ondersteunen of is dat Nvidia die geld strooit naar developers?
Zijn developers nou echt zo laks daarin dat ze alleen DLSS ondersteunen of is dat Nvidia die geld strooit naar developers?
NVIDIA helpt (grote) game developers daar mee en misschien worden ze er ook wel voor betaald.
Heb je hier een link van?

Vooral nu nvidia ook DLSS override heeft in hun driver management tool, snap ik niet waarom AMD en vooral Intel dit ook niet introduceren. Volgens mij hebben alle upscaling technieken gewoon ongeveer dezelfde data/parameters nodig. Er zijn veel games met DLSS maar zonder XeSS. Is het niet mogelijk om dit in de Intel driver toe te voegen? Een DLSS -> XeSS tool. Voor nieuwe games is het goed dat XeSS native wordt ondersteund, maar er zijn heel veel oude games die nooit geüpdatet zullen worden met XeSS..
Gewoon even googlen naar 'dlss to fsr 3.1 mod'. Sinds pas is er ook een tooltje op de Steam Deck gekomen als plugin, waarmee je met 1 druk op de knop bijvoorbeeld FSR 3.1 in losse games kunt proppen zoals Hogwarts Legacy.

Heb ook bij Rebirth de mod van Nexusmods gepakt. FF7 Rebirth heeft enkel DLSS, die verborgen is als je een AMD kaart gebruikt. Met die mod activeer je DLSS (dus selecteerbaar in het menu) en onder water doet ie dan vervolgens FSR 3.1 upscaling i.p.v. TAA (ieuw) of TAAU. Want enkel de laatste 2 opties was ik aan gebonden met dit Nvidia sponsored game.
Ik vind het maar niets dat upscaling, geef mij maar native. Ontwikkelaars worden er ook lui van.
Lui niet direct het juiste woord, maar ik merk wel bij recente games het meer een 'quick fix' is geworden dan dat er nog meer tijd wordt besteed aan optimalisatie. Bepaalde scenes, locaties of 'acties in het scherm' worden dan simpel afgevangen door een gigantische drop in resolutie/detail.

Maar gelijktijdig is het ook onderdeel van hun verkoopargumenten, dat (zeker Nvidia) developers eerder worden 'gemotiveerd' hun specifieke upscaler te gaan gebruiken (of beter inzetten), dat in sommige gevallen games enkel DLSS hebben maar geen FSR/XESS.

Dus niet zozeer lui, maar wel 'makkelijker' in leveren of optimaliseren van hun game.
Upscaling levert in veel gevallen zelfs al betere beeldkwaliteit (en altijd lagere inputlag) op dan native, zeker de nieuwste DLSS4 Quality, dus waarom zou je het dan niet willen gebruiken?!? Games gerenderd op native resolutie spelen gaat gewoon verdwijnen (net als ooit softwarematige rendering dat deed en we overgingen op 3D(fx) rendering etc), wen er dus maar aan dat steeds meer games afhankelijk zullen worden van AI upscaling technieken wil je ze met fatsoenlijke fps kunnen draaien.. Cyberpunk 2077 of Indiana Jones etc zijn nu al voorbeelden, met full pathtracing aan etc op 4K haal je zelfs met een RTX 5090 nog geen 40 fps op native.. Zet je upscaling aan dan heb je wel goede speelbare fps met lagere inputlag (latency)..

Gameconsoles maken er ook allemaal al gebruik van.. Of dacht je nou echt dat een Xbox of Playstation al die games op 4K native renderde?!? Allemaal upscaling..

En daar komt nu sinds een paar jaar dan nog frame generation bij, die AI gegenererde frames toevoegt.. Dat loopt qua beeldkwaliteit nog achter op upscaling qua artifacts etc, maar ook dat zal steeds beter worden.. Aan alleen upscaling heb je voorlopig genoeg voor goede fps, framegen is alleen leuk voor als je perse dik over de 200 fps wilt halen ofzo.. Het voegt ook beetje inputlag toe i.p.v. dat die verlaagt wordt (upscaling is wat dat betreft een stuk interessanter dan frame generation)..

[Reactie gewijzigd door Inflatable op 3 februari 2025 14:00]

Maar als de output dan niet meer hetzelfde is (want in real time wordt er op de achtergrond vanalles gewijzigd), hoe moet je dan gpu's objectief gaan vergelijken?

3Dfx had bijvoorbeeld mooiere effecten dan nVidia, maar nVidia had meer ruwe snelheid.
Het resultaat was dat in alle reviews de nVidia kaarten bejubeld werden en 3Dfx er niet meer is (er waren nog oorzaken).

Moet ik nu gaan besluiten dat een minder krachtige kaart met extreem goede upscaler het in reviews beter gaat doen dan een krachtigere kaart met minder trucjes hoewel de output van de eerste minder van kwaliteit is dan de tweede?
Die tijd gaat inderdaad weer terugkomen, dat de beeldkwaliteit niet op elk merk GPU precies hetzelfde is.. Het was eigenlijk al uitzonderlijk dat dat een tijdje wel zo was/is.. Het wordt veel meer technieken als DLSS, FSR en XeSS met elkaar vergelijken, zowel qua prestaties als beeldkwaliteit.. Een stuk complexer inderdaad dan alleen simpelweg rasterization prestaties vergelijken tussen verschillende merken GPU's.. Het wordt voor reviewers een hoop meer werk, en voor gebruikers ook om het allemaal bij te houden en te bepalen wat ze zelf het belangrijkste vinden..

En eigenlijk is die tijd nooit echt helemaal weg geweest, want waarom verkoopt Nvidia vele malen meer dan b.v. AMD, terwijl AMD qua pure raterization prestaties eigenlijk helemaal niet zo slecht is, zelfs beter voor het geld bij veel modellen? Omdat kopers de andere features van Nvidia toch net ff wat belangrijker vinden kennelijk.. Features zoals dus o.a. DLSS, maar ook zaken als Gsync toen dat nog vrij nieuw was etc.. AMD (en nu Intel ook) komt daar eigenlijk altijd alleen maar met iets mindere open-source versies van uit, Freesync en FSR.. De concurrentie innoveert niet, die volgen alleen maar.. Nvidia is de koploper in zo'n beetje alles op GPU gebied..

[Reactie gewijzigd door Inflatable op 3 februari 2025 17:13]

Heel eerlijk... ik hoop dat deze techniek wel door de branche omarmd gaat worden zodat Intel een valide optie gaat zijn om te overwegen wanneer je een nieuwe grafische kaart gaat kopen. Ik heb onlangs ook een B580 kaart aangeschaft, helaas nog niet binnen gehad, dus nog niet kunnen testen, maar ik hoop dat ie wel een beetje mee kan komen in het segment waar ie door Intel geplaatst is (4060Ti/RX7600) en dat het geen kat in de zak blijkt te zijn.
Voorlopig blijven de prestaties achter op die van de concurrentie. En dat maakt dat ze relatief weinig verkopen, en dus een kleine kans hebben op een goede adoptie door de game branch. Daarbij is Microsoft druk bezig om upscaling te verwerken in DirectX. Dus of XeSS een lang leven beschoren is betwijfel ik. Nog los van het gegeven dat FSR (met uitzondering van de laatste versie) ook gewoon op Intel GPU moet werken. En dat is een stuk verder ontwikkeld dan XeSS en wordt in het overgrote deel van titels ondersteund (met als uitzondering alle titels die in samenwerking met Nvidia zijn gemaakt). En bij die titels zijn er vaak wel mods te vinden die de functionaliteit alsnog toevoegen.
Nou Intel, kom eens met een high end GPU voor videogames. Nvidia is belachelijk duur en AMD is voor de top tier generatie nergens te bekennen. Dit is de kans om bekend te worden maar de (nieuwe) generatie pc gamers.

Komt Intel met een GPU die sterk en stil is en die zeg maar 5090 performance levert maar dan een prijs kaart heeft van 1200 euro dan zou ik snel overtuigd zijn. Kom maar op.
Ze kunnen nu niet eens een kaart maken die fatsoenlijk met de midrange mee kan komen, laat staan een kaart die met de high end mee kan doen (hoewel hun laatste kaarten zijn niet slecht, maar hebben precies weer die paar dingen waardoor ik ze niet zou aanraden, zoals de overhead op tragere CPU's)

Hoop wel dat ze er ooit komen, maar denk dat ze nog een zeer lange weg te gaan hebben kijkend wat ze nu kunnen maken na al die jaren en jaren dat ze er mee bezig zijn
Je hebt gelijk en het is ook zeker niet makkelijk om mee te doen met de top kaarten/ snelste kaarten. Maar dit is wel het moment. Intel heeft veel geld en al heel veel ervaring met CPU's. Ik hoop dat ze aanhaken.
Haha,was het maar zo simpel. Het heeft ze miljarden gekost om de huidige kaarten te kunnen maken.
En als AMD het al niet lukt, dan lukt het Intel ook niet om kaarten die betaalbaar zijn en de prestaties leveren op Nvidia niveau te maken.
Er was een tijd dat Ford de enige was die auto's maakte. Vroeg of laat komen er echt wel concurrenten. En dan bedoel ik concurrerende producten en concurrerende prijzen. Wat er nu al een paar generaties gebeurt in het land van de videokaarten is een gigantische voedingsbodem en bedrijven zien dat.

Nvidia is niet voor altijd de alleen heerser op het vlak van GPU's die zal er niet altijd mee weg komen dat ze nieuwe producten tegen belachelijke prijzen kunnen lanceren. Ooit kijken ze terug naar deze periode en dan denken ze "achja toen waren we echt de baas/ alleenheerser" en als ze kritisch kijken hoop ik dat het verandert naar " achteraf hadden we meer moeten doen voor degene die ons zo rijk hebben gemaakt en niet moeten denken dat we het altijd zo konden spelen.
tja, heeft weinig met de echte wereld te doen...Daar draait het alleen om de pegels.

[Reactie gewijzigd door nutty op 3 februari 2025 21:02]

5090 hoeft van mij echt niet maar 5070ti/5080 specs en betaalbaar......


Meeste zullen bij gelijke prestatie/prijs voor nvidea gaan ivm dat is verder uit ontwikkeld/vertrouwd...
Dus ze zullen zoiezo goedkoper moeten inzetten.

Maar ga er echt een stuk onder zitten, genoeg voorraad en ze kunnen zich op de kaart zetten met GPU's.

Al zullen de prijzen daarna denk ik snel naar elkaar kruipen want met 3 of minder spelers is er zowat een monopolie.
de 9070XT zal om en nabij de 5070ti gaan zitten qua prestaties.
Misschien net wat minder. Sowieso minder interessante features.

De 5080 is niet veel beter, die is gewoon teveel gekortwiekt tov. de 5090.

Ik hoop dat Intel nog met een B780 komt, een dubbele B580 kan heel interessant zijn.
Ik zie door de bomen het bos niet meer. Sommige mensen gebruiken dan bijvoorbeeld XESS in games op een AMD kaart in bepaalde games, FSR in andere games, en in DLSS only games een mod die dan weer XESS en FSR 3.1 toevoegt, om dan weer 1 van de 2 opties te gebruiken.

Is er zoveel verschil tussen XESS en FSR 3.1?
Zit zeker verschil in ja, zowel qua prestaties als beeldkwaliteit..
Wat is beter om te gebruiken met een AMD RX 6800?
Geen idee, ik gebruik alleen DLSS met mijn RTX 3080.. Als je op Youtube zoekt zal je vast genoeg video's vinden waar de technieken vergeleken worden..

Zoals deze: YouTube: Upscaling Face-Off: FSR 3.1 vs DLSS 3.7/ XeSS 1.3 - Has AMD Improved?

Maar dit is alweer van 6 maanden terug.. DLSS3 is inmiddels DLSS4 geworden en stukken beter qua beeldkwaliteit.. Al die technieken zijn constant in ontwikkeling en worden steeds beter.. Je zal het dus zelf bij moeten houden via allerlei bronnen..
Ik heb van de week een Intel B580 kaart gekocht om Assetto Corsa (SRP, CM + mods) te spelen op mijn sim rig, ziek/triest hoe mijn GTX 1060 6GB op exact dezelfde settings op 30-40 fps stabiel bleef, terwijl de B580 tussen de 20-60 fps zat te springen afhankelijk van hoe druk het op de weg was. Onspeelbaar!

Gister op de post retour gestuurd :)

(Wel even getest met Like a Dragon: Gaiden TMWEHN, dit werkte als een trein, zolang jouw game ondersteund is.)

[Reactie gewijzigd door pierredorado op 3 februari 2025 13:28]

Heb je ondersteuning voor rebar ?
Zeker, ook aangezet. Bleef mij verbazen over de prestaties. Nu even doorsparen en een 7800XT op het oog, waarmee ik denk ik voor AC wel goed zal zitten komende jaren.
Of de 7700 xt, die zit wat meer in de buurt denk ik... ik ben zelf ook de b580 aan het overwegen, maar nogal mixed bag precies.
De 7700XT is ook erg goed, maar als ik daar op zoek op diverse fora, is de consensus meestal; spaar even door voor de 7800XT als je dan toch bereid bent om een bak geld uit te geven. Zit je gelijk goed voor de komende tijd / kun je op een later moment weer andere componenten upgraden :)
Niet echt gerelateerd, maar ik zou wel eens willen weten hoe de 580 het doet met AV1 video convertie tov software convertie.
Doe dat nu softwarematig met Handbrake, maar als het een keer of 5 sneller zou zijn hardwarematig...
Want het is echt superieur aan H265 is mij opgevallen.
Maar helaas draait het bij de reviews, waar je ook kijkt alleen maar om gaming, en worden de prestaties van het converteren overgeslagen, ook op Tweakers vaak.

[Reactie gewijzigd door nutty op 3 februari 2025 15:33]

Ik zocht een keer op youtube en kreeg al een hele lijst met video's die aan je wensen voldoen :)

Waaronder deze;

YouTube: DaVinci Resolve on a $250 GPU? Intel ARC B580 Video Editing Benchmark

Op dit item kan niet meer gereageerd worden.