'AMD brengt Radeon RX 8000 met Navi 48-gpu tijdens CES 2025 uit, Navi 44 in Q2'

AMD brengt volgens geruchten de eerste Radeon RX 8000-videokaarten, met een Navi 48-gpu, uit tijdens de CES-beurs begin januari. In het tweede kwartaal van 2025 zouden er lager gepositioneerde RX 8000-kaarten met Navi 44-gpu verschijnen.

De eerste AMD-videokaarten die gebruikmaken van de RDNA4-architectuur en waarschijnlijk op de markt komen als de Radeon RX 8000-serie, worden tijdens CES 2025 uitgebracht. Dat meldt @Kepler_L2, die vaker vroegtijdig informatie over gpu's deelt. Eerder dit jaar hoorde Tweakers van meerdere bronnen al dat er in 2024 nog geen RX 8000-kaarten zullen verschijnen.

Volgens de leaker worden de duurdere videokaarten het eerst onthuld. Deze krijgen naar verluidt een Navi 48-gpu, de hoogst gepositioneerde RDNA4-chip die AMD uitbrengt. Eerder meldde @Keplet_L2 al dat AMD geen high-end kaarten in de Radeon RX 8000-serie gaat uitbrengen, dus de Navi 48 wordt vermoedelijk een midrange-gpu. Volgens eerdere geruchten liggen de prestaties in lijn met de Navi 31-chip. Dat is de hoogwaardigste gpu van de RDNA3-generatie. Deze is onder meer aanwezig in de Radeon RX 7900 XTX- en RX 7900 XT-kaarten.

De lager gepositioneerde RX 8000-videokaarten krijgen naar verluidt een Navi 44-chip en verschijnen volgens de leaker 'waarschijnlijk' in het tweede kwartaal van 2025. De prestaties van deze gpu zouden tussen die van de Navi 33 en Navi 32 liggen. Wel krijgen alle RDNA4-gpu's een vernieuwde raytracingengine, zo schreef @Keplet_L2 in mei. De leaker beweert dat de PlayStation 5 Pro van deze engine gebruik gaat maken om de raytracingprestaties te verbeteren.

Door Kevin Krikhaar

Redacteur

07-07-2024 • 13:12

122

Reacties (122)

Sorteer op:

Weergave:

Ik hoop van harte dat AMD een generatie videokaarten met een goede prijs/performance verhouding op de markt brengt.
Dat zou goed zijn voor de markt en voor mij een instant buy. Hopelijk kunnen ze dan ook weer wat marktaandeel winnen.
Iets hogere raytracing prestaties, dezelfde algemene prestaties als de 7900xt voor een lagere prijs en met lager stroomverbruik.
Dat zou al mooi zijn en voor de meeste mensen ruim voldoende, ook voor 4k.

[Reactie gewijzigd door HugoBoss1985 op 22 juli 2024 13:21]

4k met hoge-ultra settings tegenwoordig, is zelfs met de 4090 nog lastig. 120fps is zeker geen garantie, en als je op 4k hoge settings wil je ook vaak 120+ fps.

met DLSS en FSR kom je een heel eind, maar is wel degelijk verlies van kwaliteit. daarnaast is het altijd een geklier om de juiste settings te selecteren, waar ik eigenlijk geen behoefte aan heb. om maar te zwijgen over de frame generation technieken.

4k 120+hz heeft zeker een krachtigere gpu nodig dan wat er nu op de markt is.
4k met hoge-ultra settings is zeker niet lastig, al helemaal niet met een 4090, alhoewel 120fps niet altijd een garantie is.

Op 4k zou ik ALTIJD FSR / DLSS / XeSS gebruiken, op 1080p speel je met een interne render resolution van maar 720p op quality, op 1440p zit je nog steeds maar op 960p terwijl je op 4k met quality upscaling speelt op 1440p, de kwaliteit daar is dus VEEL hoger, bijna onmerkelijk zelfs.

4K 120+fps is zeker mogelijk met de kaarten van vandaag, en je hebt daar zeker ook geen 4090 voor nodig, wel alleen als je RT of PT aan zet, I guess, maar voor die technologie is het nog zo ongelofelijk vroeg dat ik momenteel zeker RT of PT performance niet in rekening zal brengen bij het kopen van een GPU.
Met Unreal Engine 5 valt het echt nog tegen hoor met 4k 120fps; ook met een 4090.
Kijk eens naar een game als Bodycam en dan de Tumblewood map.
Ok, dit is geen geoptimaliseerde game maar het strookt met de Unreal Engine 5 tech demo's en gpu usage zit gewoon op 99%.
Unreal Engine 5 games tot nu toe zijn meer tech demo's dan echte games. Unreal Engine zelf is gewoon een extreem slecht geoptimaliseerde engine en ik snap niet waarom devs het gebruiken eerlijk gezegd, kijk naar de id Engine van de Doom games. De games zien er prachtig uit en runnen op mijn systeem met meer dan 400fps op native met max settings, dat is iets waar Unreal Engine alleen over kan dromen.

Het is dus meer dan mogelijk om een goede engine te maken. Unreal Engine 5 schuift gewoon de benodigde rekenkracht op de player door middel van lumen en nanite en dergelijke. Het is zeker ook mogelijk om dezelfde look als die technologie te krijgen zonder dat het zo'n grote impact heeft op de performance van de player, maarja, dan moet je ook als dev echt moeite doen.

Ook nog, GPU usage op 99% is ideaal, dat is wat je wilt hebben lol.

[Reactie gewijzigd door Vhxrsion op 22 juli 2024 13:21]

Is dat zo ?

Kijk eens naar Everspace 2. prachtige game, heeft pas nog een engine overhaul gehad en draait volledig op UE5 , inclusief Lumen. draait ongelofelijk goed, dus het kan wel degelijk. de engine is gewoon goed. Dat veel devs het beste er niet uit weten te halen is natuurlijk niet het probleem van Epic.
Het is gewoon een goede engine en de toekomst maar mede doordat je standaard Lumen én Nanite hebt is het gewoon zwaar voor een grafische kaart en dat snappen veel mensen niet/kunnen ze niet accepteren :P
Als je het nu naar je zin/acceptabel kan draaien dan kan het alleen maar beter worden (met optimalisatie) en kun je voorlopig heel veel games in de toekomst naar je zin/acceptabel draaien.

Zo zal het ook altijd blijven, toen Doom 3 uitkwam was de 6600 GT de shit daarvoor maar daar kon je vrijwel geen enkele game (Farcry, Half-Life 2, Fear, Battlefield 2) voluit mee spelen en 128mb was al vrijwel gelijk outdated.

Ik heb het hier nu een paar keer gemeld maar ik vind het bijzonder hoe Gray Zone Warfare de cpu belast (eruit haalt wat er uit te halen valt) :)

[Reactie gewijzigd door HugoBoss1985 op 22 juli 2024 13:21]

Het is gewoon een goede engine
De meeste programmeurs die er professioneel mee moeten werken vinden het anders een drama. Enorm complex, zwaar verouderde codebase met trage workflows en heel veel bugs.

Maarja, grote hype vanwege graphics. Eigenlijk geen alternatieven meer. Dus Epic heeft geen reden om het eens te gaan fixen.
Maar zijn dat de programmeurs die net van school komen, of al 30 jaar in het vak zitten? En de meeste, is dat bvb 51%, of 99%?
Zonder extra info is je claim nogal ongefundeerd.

En ongetwijfeld is de codebase oud, deze engine gaat al even mee natuurlijk. Maar ik verwacht dat een complexe engine ook een complexe workflow zal hebben. Ik ben er zelf niet mee bezig, maar sommige mensen verwachten alles.
Ik zit zelf meer in de commerciele hoek vd IT, daar kan het niet zowel goedkoop, goed als snel (opgeleverd) zijn. 1 van die 3 zal altijd moeten wijken, hie je het ook wendt of keert.
En ongetwijfeld is de codebase oud, deze engine gaat al even mee natuurlijk. Maar ik verwacht dat een complexe engine ook een complexe workflow zal hebben. Ik ben er zelf niet mee bezig, maar sommige mensen verwachten alles.
Ik zit zelf meer in de commerciele hoek vd IT, daar kan het niet zowel goedkoop, goed als snel (opgeleverd) zijn. 1 van die 3 zal altijd moeten wijken, hie je het ook wendt of keert.
Dat klopt wel, alleen is de commerciële kant van de gamedeveloper hierin ook interessant. Een beetje simpel gezegd: hoe meer tijd die aan optimalisering moet besteden omdat de engine dit slecht doet, hoe minder tijd die heeft om content toe te voegen. En hoeveel content een game heeft en of die lekker loopt bij de verschillende reviewers bepaald uiteindelijk toch een deel van de verkoopcijfers.

Dus als Epic een engine zou uitbrengen waarin optimalisatie makkelijker gaat is dat voor de gamedevelopers zeker winst, zonder aan kwaliteit te hoeven inleveren.

[Reactie gewijzigd door Empror1 op 22 juli 2024 13:21]

Mijn kijk erop is alleen maar vanaf de eindgebruiker (gamer) kant en dan is het (vind ik) een goede engine.
Grafisch indrukwekkend en gebruikt/benut hardware.
I.t.t. veel oudere (DX11) engines die een cpu bottleneck hebben omdat ze niet goed multithreaded zijn en je dus ook niet uit je grafische kaart haalt wat eruit te halen valt.
Bijvoorbeeld Hunt:Showdown (zit een engine upgrade aan te komen) en Hell Let Loose.
Een X3D (en/of snellere Intel cpu) aanschaffen is dan het enige wat er aan te doen valt.

Misschien had ik dat even moeten nuanceren want de engine is dus zo goed vanaf de kanten die jij belicht.
Dat veel devs het beste er niet uit weten te halen is natuurlijk niet het probleem van Epic.
Lijkt me toch wel..

Als een gemiddelde gebruiker van je product er niet goed mee overweg kan, ligt het dan aan de gebruiker? Of aan het product?
Alle tech demo's en games draaien inderdaad wel moeizaam.
Maar ik weet niet of dit nou echt slechte optimalisatie is of gewoon het feit dat dit een nieuwe engine is met meer features en meer grafische pracht.
id Engine is gewoon wat minder (en ouder) wat dat betreft.

De id Engine is verder wel een bijzonder goede en geoptimaliseerde engine.
Doom Eternal draait zelfs nog aardig op een HD7970 3gb.

Unreal Engine 5 heeft wel de mogelijkheid om alle resources van een systeem te benutten.
Ook een DX12 ding maar kijk naar Gray Zone Warfare met de enorme map.
Zelfs met Ryzen 3600 draait het nog prima en is er minder cpu bottleneck dan in andere (veel oudere!) games.
Omdat alle cores en threads van de Ryzen 3600 benut worden.
Daarom klagen veel mensen op Reddit dat hun cpu zo heet wordt en soms op 99%-100% usage zit (schijnbaar ook een AVX instructies ding).

Die 99% gpu usage bedoelde ik dus als iets goeds en positiefs he (geen cpu bottleneck) ;)

[Reactie gewijzigd door HugoBoss1985 op 22 juli 2024 13:21]

Maar ik weet niet of dit nou echt slechte optimalisatie is of gewoon het feit dat dit een nieuwe engine is met meer features en meer grafische pracht.
Beetje van beiden. Chaos Physics is langzaam, Blueprints zijn langzaam. Maar het is ook een stokoude engine met veel codestructuren die stammen uit de jaren '90. Dus veel grote classes met inheritance. Multithreading bestond toen nog niet dus gameplay code maakt daar over het algemeen geen gebruik van.

Je kunt heel snel iets maken in Unreal dat heel wat lijkt, maar om daar daadwerkelijk een afgewerkte game van te maken is veel lastiger dan in andere engines. En daar gaat de meeste tijd in zitten.

Epic stond zelf ook niet echt bekend om z'n gepolijste games (toen ze nog games maakten tenminste). De nieuwste techniek, maar wel altijd met zichtbare fouten. Het is jammer dat er zo weinig concurrentie is op de enginemarkt want dat is hard nodig.

[Reactie gewijzigd door Wolfos op 22 juli 2024 13:21]

Vroeger telden game designers elke polygon om te zorgen dat een game goed speelbaar was op het systeem waar het voor was bedoeld. Met uitzondering van Far Cry. Tegenwoorden proppen ze zoveel mogelijk polygons in een model om het er mooi uit te laten zien, maar heeft wel een grote impact op de prestaties. Ik denk dat de makers van Doom hier wel meer rekening mee hebben gehouden, maar veel game designers die UE gebruiken minder.
Far Cry was niet zo zwaar. Ik denk dat je Crysis bedoelt.
Zou kunnen... Crysis was ik helemaal vergeten, maar die was erg zwaar inderdaad
Ik kan me nochtans de release van Farcry 1 herinneren, had zelf een 9800 pro en goede vriend had een Geforce 4000 of 5000 serie toen. algemene prestaties daargelaten, verschil tussen onze systemen was ook al substantieel. 1 of 2 jaar laten had een vriend geupgrade naar de 6000 en toen liep far cry pas op ultra.
Er wordt wel degelijk aandacht besteed aan de hoeveelheid polygonen die gebruikt worden. Het limiet is gewoon hoger gelegd door de betere hardware van nu.
Over het algemeen loop je niet zo snel tegen een limiet aan qua *aantal*, maar meer hoe klein de triangles zijn. Moderne GPU's renderen fragments in blokken van 4x4. Heb je meerdere triangles op één van die blokken dan moet de fragment shader meerdere keren aangeroepen worden voor dat blok.
Met super kleine triangles heb je dus ook super veel overlap en veel weggegooide fragments.

Nanite voorkomt dit door de hardware rasterizer te omzeilen en een software renderer te gebruiken voor microtriangles. Maar dit complexe algoritme is wel veel zwaarder dan simpelweg verschillende LOD's te renderen op basis van afstand. Scheelt alleen werk. Ontwikkelaars hebben er geen omkijk meer naar en er is geen pop-in.

[Reactie gewijzigd door Wolfos op 22 juli 2024 13:21]

Lol unreal 5 is een van de meest voor op lopende engines ook in optimalisatir zeker met ue5.

Dat niet alle game devs het goed gebruiken is iets anders. Moet je de engine niet de schuld geven.

Kijk eens naar de tech demos of naar hellblad 5. Dat draai op max settings gewoon op een xbox.
De unreal engine is verre van slecht geoptimaliseerd, anders zouden juist zaken als nanite en lumen niet zomaar kunnen. Dat genoeg devs niet weten hoe je deze optimaal moet gebruiken is een andere zaak. En nee, het is zeker niet mogelijk om, op zo'n 'simpele' manier dezelfde look te krijgen, tenzij je alles baked, maarja DAT kan dus ook met de UnrealEngine als je wilt, en hoe het 'vroeger' gedaan werd.
En ja, tuurlijk wil je CPU/GPU 99% gebruiken, WTF heb je anders die fatsoenlijke CPU/GPU voor. Er wordt toch niet meer bij PC op specifieke CPU/GPU geoptimaliseerd want dat heeft geen ruk zin vanwege de ontelbaar aantal configuraties, in tegenstelling tot een console, waar je in principe maar 1(of 2) combi's hebt.
Ik weet het niet hoor, maar ik koop wel degelijk fatsoenlijke hardware zodat het niet op 100% hoeft te draaien :+

Ik vind het een fijn idee dat, die aantal momenten dat het nodig is, mijn PC kan performen.
De meeste games draai ik echter omlaag en ik vermijd 4K (Zit nu op 1440P) voornamelijk wegens de naar mijn idee onnodige power draw, warmte en dat soort zaken. -- Tevens heb ik liever 144fps op 1440 of 1080 dan 60fps op 4K.

Ook vind ik het een fijn idee dat mijn PC ontzettend zuinig is en zelden veel stroom verbruikt. Ik zet vaak ook settings uit welke mij niet zo boeiend lijken of gewoon de powerdraw en warmte of herrie niet waard zijn.

Nu zeg ik dit wel als iemand die niet voor de super top van GPU's gaat. Ik zit nog op een 3080 (12GB) met een ryzen 5900X --- En die 3080 kocht ik pas toen de 4070 net uit was, 2e hands.

Maar goed, jij zei "Die fatsoenlijke". Een 3080 lijkt mij binnen de range "fatsoenlijk" te vallen.

[Reactie gewijzigd door NoobishPro op 22 juli 2024 13:21]

De 3080 zit zeker nog steeds in de redelijk fatsoenlijke range. Tijdens gamen maakt het mij niet uit hoeveel die slurpt en warm wordt, als die bij idle maar zuinig is, want ik heb mn pc zo goed als 24/7 aan staan (al sinds 2013). Maaar op dit moment heb ik ook nog steeds maar een 2060 Super, moet binnenkort echt eens een compleet nieuwe aanschaffen.
De Id Tech engine en Unreal Engine doen echt aan stuivers wisselen elke paar jaar met welke engine beter is met enige afhankelijkheid van de hardware die generatie.

Doom draaide als stront door een trechter op mijn Ryzen 1700x icm RX 580 8GB. Alsof ik Arma aan het spelen was op de Bulldozer 8350 (Oh 8 cores, cool hier 6 floating point operation threads, gl&hf).

Terwijl, ondanks het Nvidia logo, Unreal Engine games praktisch altijd soepel draaien. Al maakte Scum er wel een beetje een potje van.

GPU wil je niet constant op 99% hebben, dan kakt je framerate in elkaar als het een keertje even wat meer pixels te verwerken heeft.

Unity is nog belabberder als je naar de de veelgebruikte engines kijkt.

Als het op hardware optimalisatie aan komt, tenminste met mijn AMD builds, staat de Frostbite engine redelijk alleen bovenaan. Mijn ervaring is daar indrukwekkend hoe veel pixels de Battlefields en NFS games op mijn monitors hebben weten te tekenen.
Doom draaide als stront door een trechter op mijn Ryzen 1700x icm RX 580 8GB. Alsof ik Arma aan het spelen was op de Bulldozer 8350 (Oh 8 cores, cool hier 6 floating point operation threads, gl&hf).
Die voel ik wel... had 10jr terug ook een bulldozer 8350 black (hot) edition, was met vrij veel "gl&hf!" Kwam niet als dunne door de trechter hahaha
Met mijn 6900XT vind ik 4K met hoge-ultra settings wel lastig in moderne games hoor. FSR helpt enorm, maar in sommige games ziet dat er werkelijk niet uit. Dan speel ik nog liever op native 1440p (of, nu ik erover nadenk, misschien 1440p met RSR). Het alternatief is vaak 4K met medium of high settings rond de 60 fps. Niet per se een slechte ervaring, maar als je scherm 144Hz is heb je liever een wat hogere framerate.
Onopmerkelijk zou ik het zeker niet noemen, ik verkies altijd native boven FSR (en DLSS, toen ik nog een Nvidia GPU had). Op Quality is het trouwens vaak iets hoger dan 1440P qua resolutie. Ik heb een 7900XTX.
Mwah, ik zeg dat dat wel zal verschillen per persoon, maar upscaling op 4K ziet er altijd veel, veel beter uit dan op niet-4K simpelweg vanwege de veel hogere interne render resolution. 1440p met quality upscaling zie ik gelijk, 4K met quality upscaling is al gelijk een heel stuk beter.
Op 4k zou ik ALTIJD FSR / DLSS / XeSS gebruiken, op 1080p speel je met een interne render resolution van maar 720p op quality, op 1440p zit je nog steeds maar op 960p terwijl je op 4k met quality upscaling speelt op 1440p, de kwaliteit daar is dus VEEL hoger, bijna onmerkelijk zelfs.
Je moet doen waar je zelf zin in hebt natuurlijk, maar ik bedank daar vriendelijk voor. Het verschil in kwaliteit met native resolution rendering is nog altijd te goed te merken voor mij om daarmee echt in zee te gaan. Ik wil hogere visuele kwaliteit, niet blurry textures. Ik koop immers een high end card juist om de visuele kwaliteit flink op te rekken. Misschien dat DLSS 7 oid tzt voldoende verbeterd is dat die calculus anders uitpakt, maar in elk geval is dat nu niet zo.

Wanneer daar dus 120fps bovenop moet komen wordt het alleen maar meer demanding en zie je dat je aan een 4090 al niet meer genoeg hebt soms, al helemaal niet met games die een gfx card generatie of 2 vooruit kijken met hun gfx settings.
Tja voor 4k 120+hz (zegmaar 120 fps) moet je voor veel games fsr én frame generation aanzetten.
En dan vaak FSR op performance of ultra performance en dan haal je nog geen 120 fps.
Maar het kan wel en is best speelbaar, in ieder geval voor controller/couch gaming.
Frame generation geeft vaak artifacts/flickering en helaas kun je er met Unreal Engine 5 games niet echt buiten als je nog een beetje boven de 60 fps wilt gamen op 4k (i.c.m. FSR) met een dikke AMD kaart.

Dus ik begrijp je punt.

Maar ik denk dat dit voor de meeste mensen gewoon prima is.

Als je echt meer wilt dan ontkom je op dit moment niet aan een 4090.
Een 4080 super of 7900 xtx vind ik geen grote meerwaarde bieden boven wat de geruchten zeggen over de Navi 48 (zegmaar 7900 xt prestaties).

[Reactie gewijzigd door HugoBoss1985 op 22 juli 2024 13:21]

Ze moeten FSR en Raytracing de prullenbak in gooien en gewoon degelijke kaarten produceren welke al die optionele softwarematige meuk niet nodig hebben om goed/beter te presteren. Een 4090 zou het meest veeleisende spel feitelijk op de hoogste settings moeten kunnen draaien op 4k met 144fps gezien het de sterkste kaart op de markt is. Zeker voor de prijs....
Juist,en jammer dat AMD niet met wat snellers komt, een goede 4K kaart 7900XTX+30% was mooi geweest.
Ik lees het vaker onder dit soort artikelen: ‘verlies in kwaliteit’, maar dat valt in de praktijk toch echt wel mee.

Ik, als eigenaar van een RTX 4090 en iemand die regelmatig gebruikmaakt van DLSS en Frame Generation, zie vaak geen verschil. :) En een ander voordeel: ik kan op een 4K-scherm genieten van de mooiste games en nieuwste grafische technieken, zonder teveel in te hoeven leveren. (y)

*Yonix supports this message and everything DLSS and Frame Generation related.
Het is nogal een verschil of je op een 4090 DLSS en Framegwnwration draait of op bv een 4070.

Die laatste zal dat doen op veel lagere settings.

Dus nee, het werkt niet altijd even mooi als op het € 1.800+ kostende topmodel.
Op mijn Asus ROG Strix 16 met RTX 4080 mag ik anders ook niet klagen.
daarnaast is het altijd een geklier om de juiste settings te selecteren,
lekker n console kopen dan
nee...ze moeten zorgen dat het spel maximaal gaat presteren adh van de geïnstalleerde gpu door automatische detectie. Nog even en je hebt 300 instellingen om aan/uit te zetten en dien je een diploma videokaart instellen halen...
maximaal gaat presteren
Dus alles op low? of toch liever wel wat pracht en praal?

overiges heb nvidia juist zo iets als jaren in geforce expierence zitte ..
Slim antwoord... Lees je wel? ADH van de geïnstalleerde kaart het maximaal haalbare.... Zo moeilijk is het niet toch?
En Geforce Experience evenals AMD software doen zelf wel iets maar dan nog heb je allemaal opties om aan en uit te kunnen zetten... (waarom?? Omdat het toch nog beter kan?? Of om het dus ingewikkelder te maken dan nodig). Natuurlijk wil iedereen dat het er een beetje relaxed uit ziet maar je moet ook een beetje fps halen anders is er geen winnen aan.... DAT moet de software dus fixen...
lees jij wel? -.-
Als je voor deze subtopper gaat dan is budget ook sub topper minus extra kosten voor al die extra nV features.
Dus als je favo game met een 4090 niet 120FPS 4K native haalt. Ligt dat meer aan de dev en jouw insane eisen.

Voor mij is slow pace game exploring 4K en super GFX belangrijker dan 120fps
Dus slow pace is bij mij 4K 60fps mag ook minder zij eer ik met geld ga smijten.
Eerder draai setting terug van extreem naar high zelfs medium. Als low ook goed uitziet dan zelfs dat.
Frantic FPS online is die 120fps belangrijker dan 4K vooral als kleiner dan 27” monitor
GFX speelt ook kleinere rol.

Afhankelijk van waar de prijs zal hangen zit je in 5070 tegenhanger

Crysis Vista op Medium. Farcry low gespeeld zag er beiden toen zeer goed uit.
Denk dat 1440P goede oplossing is als scherp zat

Tja als 4K 120FPS alle feature max dan 5090 wel gewenst maar dan zal je ook geld tegenaan gooien zo ook de top Gaming cpu met veel cache.
Vooral dat stromverbruik zal hopelijk naar beneden gaan, en vooral mid and mid-high range kan ze dat veel markt opleveren en prijzen van nvidia onder druk zetten.
Ik denk dat AMD ook het idee heeft dat juist dáár rondom dat segment het meeste te behalen valt. De steamsurvey spreekt natuurlijk ook boekdelen. Zoveel mogelijk prestatie onder zuinig gebruik zal ook de hoofdmoot zijn, zeker als ARM ook steeds beter wordt ofwel bruikbaarder wordt als o.a. gamingplatform.
Als je bereidt bent over 2-3 jaar al flinke consessies te doen aan je grafische instellingen in de nieuwste games op 4k resolutie, dan ja..

Ik vind het gewoon triest dat AMD kennelijk weinig tot geen prestatievooruitgang gaat bieden met hun nieuwe generatie GPU's.. Lijkt wel of ze dedicated GPU markt gewoon een beetje hebben opgegeven.. Beetje de tech optimaliseren/refreshen die ze al hadden en dat is het dan.. Mag wel flink wat van de prijs af dan, anders qua verkopen nog kanslozer vergeleken met waar Nvidia mee gaat komen in 2025 dan dat ze nu al zijn.. De RTX 5060/5070 etc die wel flink sneller zullen zijn dan wat de 4060/4070 nu bieden en dus waarschijnlijk ook op 7900XT(X) prestatieniveau zullen zitten want dan dus nog steeds de top is voor AMD.. Terwijl Nvidia daar met de rest (5080/5090) enorm ver boven zit, tot wel 2x zoveel prestaties.. Dan heeft Nvida dus echt bijna totaal geen concurrentie meer.. Ik mag hopen dat dit de technische grafische vooruitgang in PC games niet nog verder vertraagt dan de steeds grotere focus op gameconsole hardware (die ook lang stilstaat) al gedaan heeft de laatste 10-15 jaar.. Het bekende 'laagste gemene deler' verhaal..
Dat zou al mooi zijn en voor de meeste mensen ruim voldoende, ook voor 4k.
Helaas is dat niet voldoende voor AMD... ze moeten iets hebben wat het erg aantrekkelijk maakt tegen over nVidia die bijna in alles beter is

AMD heeft het volgende echt nodig om mensen naar hun producten te trekken

* Prestaties gelijkwaardig
* Raytracing gelijkwaardig
* FRS zelfde kwaliteit als DLSS
* Iets als CUDA wat ook echt werkt, zeker nu met de AI Hype

Zolang ze dit niet hebben, moeten ze een kaart neerzetten die gewoon veel goedkoper is als de concurrent en beter of gelijkwaardig presteerd, anders koopt niemand het

Overig boeit pure performance voor een mooie prijs mij het meest dus heb ik alsnog vaak een AMD kaart

[Reactie gewijzigd door Sinester op 22 juli 2024 13:21]

Raytracing maakt mij geen bal uit. Het is iets dat je framerate drukt en het verschil is zeer klein tot onmerkbaar.

Price/performance doet AMD het beter dan nVidia, vooral in de middensegment hebbben ze erg aantrekkelijk geprijsde kaarten.

[Reactie gewijzigd door Dekar op 22 juli 2024 13:21]

Dat doen ze nu al? Tenzij je je wijs hebt laten maken dat RT relevant is in midrange. Ik zie RT niets anders dan Tessellationgate 2.0. Een nutteloze feature om AMD's prestaties te slopen. AMD Driversuite is beter en hun rasterization performance is prima in lijn of zelfs beter dan Nvidia's aanbod. Tevens hebben ze op elk prijspunt meer VRAM, waardoor je langer met je product doet.

Ik had alle keuze toen ik mijn laatste GPU uitzocht, en ik zag absoluut geen reden om de 4070 over de 6800XT te kopen. En zo denk ik er nog steeds over.
Path Tracing is de toekomst voor videogame belichting, en AMD gaat daar niet aan ontkomen.

Is verre van een nutteloze feature, sterker nog het is voor developers makkelijker om games de belichten dan met baked lighting.
En nu hebben we al drie generaties hetzelfde gezien met RT: de volgende generatie is een stuk beter, in die mate dat de vorige generatie compleet nutteloos is op vlak van RT.

Het argument vervalt daarmee: sure, op lange termijn is RT een ding, maar je aankoop daar NU op baseren is belachelijk: een 3080 is op vlak van RT eigenlijk een nutteloze kaart omdat mande release van de 4000 serie games meer RT zijn gaan gebruiken als je het aanzet, en zodra de 5000 serie uitkomt zal dat ook gelden voor de 4080.

Over 3-5 generaties zou het best kunnen, maar nu is het een gimmick.
Je gaat er daarbij vanuit dat je
1: altijd de nieuwste games speelt
2: niet naar de nieuwe generatie kaarten gaat
3: dat omdat na 2 jaar er een nieuwe kaart is die rt beter doet het gelijk die 2 jaar daarvoor ook niet gewerkt heeft :?

RT is een high-end feature. Wil je dat bij de nieuwste games op de hoogste settings dan heb je high-end hardware nodig.

Ik heb overigens op mijn 3070 control gewoon met RT gespeeld. Zag er top uit. Ja framerate was wat lager maar was bij die game prima te doen (ik gebruik de gun nauwelijks, vooral throw). Ondertussen heb ik een 7900XT die veel beter presteert zonder RT maar soms mis ik het toch wel een beetje hoor.
Ik ben het eens met Kiang, RT / PT zal blijven, maar als ik nu kijk naar een kaart zou ik zeker weten niet kijken naar de RT performance, mensen kochten destijds ook 2080 kaarten voor RT die dat allang niet meer kunnen op nieuwe games, RT performance van kaarten loopt bijna exponentieel op generatie over generatie dus nu een kaart kopen voor RT heeft weinig zin.

RT is wel daarbij een high end feature, maar de mensen die elke generatie het beste van het beste halen zullen waarschijnlijk ook hier niet zitten.

Ik vind het daarnaast ook echt niet gek om ervan uit te gaan dat mensen nieuwe games zullen spelen en dat mensen ook niet veel upgraden, er zullen altijd wel mensen zijn die upgraden, maar in het algemeen houden mensen hun kaarten best wel lang, en als je nieuwe kaart maar voor de eerste jaar of 2 RT goed doet en daarna niet meer, heb je jezelf in de voet geschoten als je het aan mij vraagt, want dan heb je een kaart gehaald voor zijn RT performance en dan kan je RT maar max 2 van de x aantal jaren dat je die kaart zal houden gebruiken.
"Mensen" zullen dat inderdaad best doen, maar dat zijn dus ook over het algemeen niet de mensen die echte high-end belangrijk vinden.

Ik zie mezelf eigenlijk helemaal niet als iemand die altijd het nieuwste moet hebben maar langer dan twee jaar doen met een gpu vind ik al best lang. Vroeger hadden we elk jaar een nieuwe generatie en door twee jaar te doen met een kaart sloeg je al steeds een generatie over. Nu zijn de generaties trager geworden en het is prima als je er dan voor kiest om nog steeds een generatie over te slaan, wat geld te besparen en pas na 4 jaar te upgraden maar om dan te klagen dat je de allerzwaarste features niet goed kunt gebruiken vind ik echt waanzin.
Het is de toekomst, sure, maar NU is het compleet waardeloos. RT heeft niet genoeg impact op visuals om de performance impact waard te zijn, dus schrap dat sowieso al af, PT daarintegen heeft wel een mooie visuele impact, maar het probleem NU is dan weer dat maar 2 games PT hebben, 2, ik ga echt geen kaart kopen zodat 2 games uit miljoenen er beter uit kunnen zien dan normaal.
Half-Life heeft ook PT, en is op 1080p60 DLSS Q te draaien met een RTX 2060.

https://github.com/sultim-t/xash-rt/releases
Dit is RT, geen PT en bovendien ook geen officiele implementatie, ik heb het over games die echt PT hebben als optie vanuit de game devs, dan heb je alleen maar Cyberpunk en Alan Wake 2, al zou je HL hierin meenemen is het nog steeds maar 3, dat is nog steeds EXTREEM weinig
Xash3D: Ray Traced is a fork of the Xash3D FWGS engine with the added custom path-traced renderer.
Portal RTX is ook Path Tracing, en dat is ook de allereerste game gemaakt met RTX Remix. Waarschijnlijk Half-life 2: RTX de eerst volgende Remix Remaster game die uitkomt.

[Reactie gewijzigd door TheDeeGee op 22 juli 2024 13:21]

Ok nog steeds, 4 games uit miljoenen, waarvan 2 extreem oude games zijn die iedereen waarschijnlijk al tig keer hebben uitgespeeld. Moet ik nu PT performance in rekening brengen bij het kopen van een kaart omdat er niet 2 maar een GIGANTISCHE aantal ( 4 ) games PT hebben?
Ja het is in feite gewoon rekenwerk verplaatsen van dev naar consument. Minder tijd en werk aan het product kwijt.

Bonus is dat het er echt goed uit ziet.
Het is dat de consument dit graag ziet, want baked lighting is juist soms voor een dev minder hoofdpijn.
Path tracing is zelfs voor de 4090 zonder upscaling en FG geen optie in Cyberpunk, dus hoe doet dit mee in de midrange? Snap je punt, maar de hardware is er nog niet.

Raytracing buiten PT (RT overdrive) in Cyberpunk vind ik het echt maar minimaal wat toevoegen. Higher textures kunnen instellen over jaartje tijd doet meer, met 4GB extra VRAM...

[Reactie gewijzigd door Majestici op 22 juli 2024 13:21]

Het is wel degelijk een nutteloze feature, want gamers kunnen het verschil niet eens zien. Dus tot de dag komt dat het geen performance hit geeft en daadwerkelijk superieur beeld, is het een gimmick.
3 jaar oude video en nog van LTT ook, next?
Als je je RT skills wil testen: YouTube: Is Gaming with Ray Tracing worth it in 2024 ?

Succes.

[Reactie gewijzigd door Dekar op 22 juli 2024 13:21]

De Driversuite is geweldig en hun overlay al helemaal.
Zo gaaf dat je alle details van je hardware in een OSD kan zien en dat zonder iets als MSI Afterburner (wat leuk is voor Nvidia maar vaak problemen geeft met AMD).
Ik had gehoort omdat dit een soort van "refresh" is van rx 7000 dat de prijzen enorm omlaag gaan.
Had iets gehoord van RX 8800 XT voor minder dan 600 euro welke ongeveer gelijk zou staan met de huidige rx 7900 XT.
De 7000 series prijzen zullen in ieder geval enorm gaan dalen als dit allemaal blijkt te kloppen.
Niemand gaat meer/hetzelfde neerleggen voor een 7900xt die veel meer stroom vreet, warmte afgeeft en minder presteert in raytracing.
En dan is het nog kijken wat AMD verder nog meer verbeterd met de RX 8800 XT (ik ben verder niet op de hoogte).
Uit alles wat er gelekt is en geruchten lijkt het dat de 8000 serie gewoon een 7000 kaart is net wat bugfixes en betere raytracing. Niet echt schokkend qua prestaties of mogelijkheden dus AMD gaat inzetten op prijs.

Vind ik prima.
Pure speculatie, duurt nog een jaar voor de kaarten uitgebracht gaan worden, dus reken er maar niet heel hard op.
AMD heeft er geen belang bij de prijzen heel hard om laag te gooien als ze ze nu ook gewoon verkopen. Uiteindelijk kost ze dat gewoon marge, een echte prijzenoorlog zullen ze niet willen ontketenen met NVIDIA want die verliezen ze. Dus ze kijken gewoon naar het prijspunt waarop ze de meeste winst kunnen maken.
markaandeel weet ik niet maar het is highend spul wat amd op de markt brengt.
Plus ze zijn nog altijd goedekoper dan nvidia en misschien ook nog sneller.plus goedekoper is meer mensen die die dingen kopen
Dit doen ze al jaren. Prijs kwaliteit is er geen betere dan AMD, en als je weinig geeft om ray tracing en andere poespas dan zit je doorgaans met AMD Prima.
Nou, dat is dus in the eye of the beholder, precies juist oa om de redenen die je aangeeft.
Dat heeft AMD altijd al gedaan dus ik ben er gerust in.
Ik ben al super tevreden van mijn RX 7900XT, had volgens mij zelfde prestaties als RTX 4070 TI voor een lagere prijs toen ik hem kocht.
Dit doen ze nu al twee generaties: overall is de price/performance verhouding minimaal 10% beter dan wat nvidia biedt.

Alsnog kopen GaMeRz het niet want nvidia is erg goed in marketing.
En proffesionele gebruikers die wat AI en zo gebruiken zitten helaas vast aan nvidia door cuda.
Ik hoop op betere software, met de 7900xtx is het een drama.
Mijn 7900XTX blijft dus nog even zitten.
Is dit nu bewust de strategie van AMD, inzetten op midrange en niet teveel verbruik om een offset te hebben met Nvidia? Want wat ik gezien heb van de 5xxx serie is dat toch een enorme stroomvreter.

Niet dat AMD zo zuinig is op dit moment. Ik weet t als 7900XTX gebruiker.
Mijn 6800XT blijft ook nog even zitten hoor. Ik zie totaal geen reden om te upgraden op 1440p. Raytracing effecten zie ik toch niet.
En Half-Life 2: RTX dan? Dat wil je toch wel spelen?
Het is best logisch, AMD is heel erg sterk als het komt op price to performance en daarom zijn ze ook heel sterk in the low to mid range, high end zijn ze momenteel ook wel competitief maar ze hebben geen officiele 4090-contender. Nvidia blijft de titel houden voor de sterkste kaart, ongeacht van de prijs.

Ik denk dat ze even een stap terug nemen en zich erg gaan focussen op die low to mid range omdat daar de meeste mensen zitten dus ook het meeste geld en het grootste aandeel van mensen, het enige nadeel is dan ook weer dat Nvidia op de high end kaarten extreem slecht zullen prijzen omdat AMD daar dan niet in hun nek zit te hijgen zoals ze deden met de 7000 series ( zie prijs-drop van 4080 Super ).

Moet dan wel zeggen dat dit is wat ik denk dat er aan de hand is, neem dit niet aan voor feiten.

[Reactie gewijzigd door Vhxrsion op 22 juli 2024 13:21]

Toch hoop ik dat er in de 8000 serie wat kaarten komen met wat hogere specs. Ik denk dat ik rond die tijd een nieuwe PC ga aanschaffen en heb toch een lichte voorkeur voor een AMD kaart als dit kan, maar dan moet er wel een GPU zijn die een beetje betere specs heeft als wat er nu al is, want anders kan ik er net zo goed nu één kopen. Nu vind ik het echter nog niet waard daar waar de prijs-prestatie verhoudingen nog wel iets beter kan naar mijn mening. Bovendien wil ik als ik een hoop geld uitgeef aan een nieuwe PC wel een significante prestatie verbetering en de huidige van mij komt uit 2018.
Toch hoop ik dat er in de 8000 serie wat kaarten komen met wat hogere specs.
Ik ga er wel van uit. Wellicht met een rebrand naar 9000 maar alsnog gewoon kaarten met RDNA4 die sneller zijn dan waar ze initieel mee komen. Dat gaat AMD nu natuurlijk niet zeggen want dan gaat iedereen daar op wachten, maar het lijkt me niet meer dan logisch.

Initieel was het idee van AMD om hun grotere GPU's op basis van chiplets te bouwen (RDNA4 chips aan elkaar plakken), daar hoor je nu even weinig meer over dus wellicht is dat toch lastiger en/of duurder om nu al op de markt te brengen, maar het zou me niet verbazen als ze daar ~2026 alsnog mee komen, als de yields van RDNA4 hoger zijn en het goedkoper wordt kaarten met meerdere chiplets uit te brengen.

Hoe dan ook denk ik dat AMD het slim aanpakt, wat ze nodig hebben is meer marktaandeel en volume, niet de ultra high-end niche markt.
Ik hoop het. Zo niet bestaat er een kans dat ik toch weer voor een Nvidia kaart ga terwijl dat eigenlijk niet mijn voorkeur heeft. Misschien dat ik nog een generatie wacht. Het is niet alsof mijn huidige PC niet meer werkt, maar ik heb met mijn huidige RTX 2070 (non super) inmiddels wel een keer behoefte aan een performance boost. Voor de prijs vind ik die echter nog niet groot genoeg.

Hoe ze die kaarten uiteindelijk noemen boeit mij echt helemaal niets. Hoe ze inelkaar steken wel interessant, maar uiteindelijk is prijs/prestatie en additionele features dat geen wat bepaalt welke en of ik nieuwe hardware ik eventueel koop.
Van een 2070 naar ~7900 XTX performance is echt een enorme stap, dus als de 8000 kaarten goed geprijsd zijn en bijvoorbeeld veel VRAM en flink verbeterde raytracing gaan krijgen dan alsnog absoluut de moeite waard.

Ik heb nu een RTX3080 en eigenlijk is de performance daarvan gewoon dikke prima, ik geef niet om 4K resolutie (ik zie op de afstand waar ik op speel 0 verschil met 1440p) dus wat dat betreft voor mij geen enkele reden om te upgraden. Maar zit alsnog op deze kaarten te wachten omdat ik helemaal klaar ben met Nvidia op Linux. 7900 XTX performance voor een redelijke prijs en zuiniger/stiller dan mijn 3080 zou voor mij een prima upgrade zijn.
Zelf zou ik momenteel voor een RX 7900 GRE waarschijnlijk, maar ik heb al een tijdje niet meer gekeken.

Raytracing moet ik zeggen gebruik ik niet. Dat kost zoveel fps en ik heb doorgaans liever meer frames dan mooiere frames.

Ik wacht het sowieso nog wel even af tot de volgende generatie en misschien zelfs nog eentje meer. Ik vind de performance sprong te laag voor de prijs die ik ervoor neer moet leggen. Moreel niet te verantwoorden eigenlijk.
AMD RDNA 4 RX 8000 Leaked Specs, Price, & Release Date
YouTube: AMD RDNA 4 RX 8000 Leaked Specs, Price, & Release Date

Hopelijk is er terug een competitie tussen nVidia en AMD kaarten anno 2025.

AMD zal tevens ook GDDR7-geheugen van Micron gebruiken, iets wat het bedrijf onlangs verklaarde in het persbericht van Micron waarin het GDDR7-geheugen plaagde en zei dat het zou helpen om gaming "responsief en levensecht" te maken, dus we kunnen een aantal leuke aanpassingen verwachten aan de Radeon RX 8000-serie GPU's die GDDR7-geheugen gebruiken. ( https://www.tweaktown.com...t-ces-44-in-q2/index.html )
Worden deze kaarten dan ook aantrekkelijk voor ai toepassingen of niet?
Omdat ik het gevoel heb dat enkel de cuda cores op nvidia kaarten dit kunnen?
Kan ook prima op AMD kaarten, alleen AMD stak er tot op heden niet zo veel moeite in om de tooling voor die markt op orde te krijgen. Volgens mij steken ze daar nu wel iets meer moeite in maar heb er zelf geen ervaringen mee (alleen met nvidia).
Het kan ook op AMD maar "prima" zou ik de huidige situatie niet noemen. Het werkt alleen nog maar op Linux, en als eindgebruiker mag je er fors extra werk insteken om vervolgens behoorlijk mindere performance te krijgen. AMD heeft nog echt veel werk aan de winkel.
Ik hoop dat het stroomverbruik en de warmteproductie omlaag gaan met de nieuwe generatie videokaarten.
Niet iedereen kan een gpu met 3 fans kwijt in zijn case namelijk.
Dan zou je altijd gebonden zijn aan de low-range / low mid-range gpu's.
In mijn Case past wel een gpu met 3 fans denk ik, maar ik neem niet zo'n kaart omdat die vaak ook zwaarder wegen dan degenen met 2 fans.
Als de geruchten kloppen dan komt RTX5XXX uit in eind 2024 en dan heeft AMD toch wel een mega probleem voor zichzelf gecreëerd op de GPU markt.
Dat laat Nvidia prima in staat om geld uit de high end markt te zuigen en vervolgens met gemak te reageren op de GPU's van AMD.
Jammer dat alle hoop voor de toekomst zo bij Intel komt te liggen want AMD lijkt keep op de high end markt niet te willen/kunnen bedienen.

AMD zal dus of zeer goedkoop moeten zijn wat onwaarschijnlijk is want er zit maar weinig marge op low end GPU's of een zeer goede feeatureset moeten presenteren wat ook onwaarschijnlijk is.

Erg jammer, ik heb momenteel een AMD GPU en zou het persoonlijk overwegen voor Nvidia voornamelijk door RSR (werkt tenminste op alle games ipv een paar proicent) en de stroombesparing opties zoals dynamische fps limter. Ray tracing boeit me echt totaal niets omdat ik A. mijn brightness laag heb staan voor mijn ogen en het beter werkt met hogere brightness icm HDR (wat ik uit heb) en B. het er vaak onrealistisch uit ziet.

Aangezien ik alleen redelijk high end koop blijft er bij AMD dus geen optie over... En ik denk dat intel nog wel 2 a 3 generaties weg is van high end als ze dt al halen. Erg jammer.

[Reactie gewijzigd door computerjunky op 22 juli 2024 13:21]

Ik denk dat het wel mee zal vallen.
Want het high end is maar een kleine markt.
En Nvidia is eigenlijk overal (mid- tot highend) fors duurder dan AMD.
Als je alleen wilt gamen en niets om raytracing geeft, en wel om je centjes, dan koop je een AMD kaart.

Ik koop al een tijd geen Nvidia meer, mede omdat ik hun kaarten te duur vind in verhouding en omdat er te weinig vram op zit.
16gb is voorlopig zat, 12gb is te krap (in ieder geval voor 7900 xt presties / 4k resolutie ook met FSR! (GZW lust 14gb op 4k met fsr op performance.).

Dit wordt een RX4xx soort generatie van AMD.
Met die kaarten draait Unreal Engine 5 overigens zelfs nog.

[Reactie gewijzigd door HugoBoss1985 op 22 juli 2024 13:21]

De reden dat Nvidia fors duurder is is omdat AMD niet mee kan komen met de chips van Nvidia (helaas). Dit Geeft Nvidia vrij spel om te vragen wat ze willen. Daarom is het zo jammer dat AMD niet mee kan komen want nu heeft Nvidia waarschijnlijk helemaal geen motivatie meer om de prijzen in toon te houden.
Idd, valt zeker mee. Als je de steam charts mag geloven dan draait het grootste deel nog steeds met een 1070-achtige videokaart , 1080p reso (al is 1440p wel aan het inlopen) etc. 99.5% van de markt is echt wat een tweaker een low-midrange kaart zou noemen. en daar is AMD toch echt heer en meester.
Ik denk dat een 3060 12gb en een 6800 16gb (of 6700 xt 12gb) de betere kaarten zijn van de afgelopen jaren.
Mits de prijzen en de beschikbaarheid normaal waren :P
Het grote nadeel van de 1000 series en de 2000 series is 8gb vram (1080ti en 2080ti daargelaten).

[Reactie gewijzigd door HugoBoss1985 op 22 juli 2024 13:21]

Had de 3060 12 GB niet het probleem dat het onnodig geheugen was? Zet je de settings zo hoog dat je 12 GB nodig hebt, dan houdt de 3060 de berekeningen niet bij en zakt je FPS in. Eigenlijk wil je 8GB op de 3060, maar dat past qua bus niet. Als je settings wil gebruiken die 12GB vereisen, dan wil je voor de FPS een 3080.
Klopt!
Tja het is geen snelheidsmonster. Volgens mij had je in (sommige gevallen) Resident Evil en Doom Eternal al fps voordeel over een 8gb kaart (3070, 3070ti) met hogere settings.
Op lagere (niet door vram beperkte) settings zijn 3070 en 3070ti sneller ivm meer rekenkracht.
De 3080 12gb is meer gebalanceerd.
AMD heeft toch ook gewoon ray tracing toch?
Yep, en RTX Remix remasters kunnen ook gewoon met een AMD GPU gespeeld worden, alleen zul je niet het gewenste effect hebben.
Ja, alleen de raytracing prestaties van AMD lopen achter op Nvidia.
Valt met mijn ervaring gelukkig mee. Geen gesmolten power stekkers in ieder geval.
Je bent duidelijk gewoon aan het haten. Zoals Hugo zegt, AMD kaarten kunnen ook gewoon RT doen, alleen lopen ze achter qua performance, qua "kwaliteit" ziet het er exact hetzelfde uit ( ik ga ervan uit dat je bedoeld hoe het eruit ziet ).

Maar je kan even serieus echt niet zeggen dat gesmolten power stekkers geen probleem zijn, wellicht dat jouw unit geen gesmolten power stekker heeft, maar in het algemeen is dat 100% een probleem met de 4090 en zelfs sommige 4080 kaarten, populaire repair shops zoals Northwest Repair hebben niet voor niks dozen vol dode 4090 kaarten met gesmolten connectors..
Dna negeer je toch even de olifant in de kamer, DLSS

Ja xonder dlss is amd duurder maar als je het aanzet krijg je grofweg 2x de performance, en dat zonder verslechtering van het beeld.

Amd moet echt een neural upsampler krijgen on het gat te dichtten.
Ik wist niet dat DLSS geen enkele verslechtering van het beeld oplevert.
W.b.t. DLSS versus FSR heb je een punt, daar heb ik inderdaad niet naar gekeken/aan gedacht.
Ik ben niet op de hoogte van de prestaties/mogelijkheden/beeldkwaliteit van DLSS.

[Reactie gewijzigd door HugoBoss1985 op 22 juli 2024 13:21]

Er zijn een paar goede vergelijkingen van digital foundry.

De nieuwste dlss (super resolution)
Kan zelfs beter zijn dan native resolutie met Temporal Anti Aliasing (TAA)

Want dat heeft zijn eigen artifacten.

Dus ja DLSS is iets wat amd echt moet repliceren want een midrange kaart verslaat amd’s high-end als
Je het aanzet.

En dan kan men wel “puristisch” zeggen dat zonder de 7900xtx wel wint, das leuk, maar waarom zou je het niet gebruiken,

Btw ik spreek hier alleen over super resolution, niet frame generation btw even om dat duidelijk te maken, dat hebben ze beide, en beide introduceren artifacting.
TAA vind ik dan ook weer niets, dat maakt de boel weer veel te wazig.

Als de prestaties vergelijkbaar zijn met een DLSS/FSR dan wint de snelste kaart het wat beeldkwaliteit betreft (prijs en vram daargelaten) en dat is dus Nvidia volgens jou/volgens de vergelijkingen.

Verder mee eens, als de 7900XTX het wint zonder FSR met sub 60 fps maar op niet speelbare fps mét FSR dan heb je er nog niets aan!

Er zijn voor mij genoeg redenen waar ik niet (meer) voor Nvidia ga en zal gaan.

Nogmaals over de game Bodycam en resoluties/upscalers e.d.
In die game en de map Tumblewood heb je een heel groot voordeel over andere spelers als je op 4k native kan spelen.
Alles is dan zoveel scherper dan 1440p en je ziet de andere spelers veel eerder/duidelijker.
Dus beeldkwaliteit is wel belangrijk.
Maar op 4k heb je weer het nadeel van lage fps en dus veel input lag.

[Reactie gewijzigd door HugoBoss1985 op 22 juli 2024 13:21]

(DL)DSR combineren met DLSS levert ook heel goed beeld op een 1080p/1440p monitor.
de unreal engine draait op alle videokaarten, die heeft maar een paar meg nodig om te draaien wat videokaarten beterefd.
Ik kreeg het niet opgestart met een R9 290 4gb en de Nimez drivers.
Ja jij hebt het over de laatste nieuwe engine maar de editor en engine van ut99 draait op alles.
De laatste engine versie 5.1 nog niet daar moet je een zwaardere gpu voor hebben met veel geheugen.
Ik had het over Unreal Engine 5(.x) en jij reageert daarop en zegt dat "de unreal engine" op alle kaarten draait en dan heb jij het dus ineens over de engine van ut99. :P
Volgens mij hebben we het dan over twee verschillende onderwerpen dus ik begrijp je reactie niet.

[Reactie gewijzigd door HugoBoss1985 op 22 juli 2024 13:21]

Als je alleen wilt gamen en niets om raytracing geeft, en wel om je centjes, dan koop je een AMD kaart.
Deze houding is ook wat gedateerd. RDNA 3 kan prima ray tracing doen en 4 zal wel weer wat sneller zijn.
Maarja, Nvidia is scherper geprijst bij wat verreweg het populairste klassement is met de 4060.
"prima" is ook maar net wat je speelbaar/acceptabel vind qua fps.
Feit is wel dat het t.o.v. Nvidia achter loopt en dat bedoel ik eigenlijk met mijn houding w.b.t. raytracing.
Amd heeft daar geen probleem mee....het word wel een probleem als Nvidia de kaarten goedkoper maken wat ze niet doen.of denk je dat de 5 serie onder de 500 gaat kosten? De duurste zal wel 2500/3000 euro kosten 5090.dan gaat de 5080 1800 euro en de 5070 1200 euro.dus daar gaat geen ene Belg dat betalen.alleen onder ons met dikke portemonnee gaan die belachelijke prijzen weer neer tikken.

Dus Amd ligt er niet wakker van en ik ook niet.
Zolang mensen deze Ultra hoge prijzen blijven betalen en het normaal vinden.....tja
Je zal verbaasd zijn hoeveel idioten dat betalen. Als je de rijden van SLI nog kan herinneren weet je dat mensen zonder blikken of blozen 300 extra betalen voor een moederbord en 2500 a 3000 uitgeven aan kaarten voor 30% meer prestaties in sommige games.
Dat is ook een beetje waarom we in deze situatie zitten. Er zijn relatief heel veel gekken die deze prijzen betalen en de markt verzieken.
Probleem is dat het zonder concurrentie alleen maar gekker word.

[Reactie gewijzigd door computerjunky op 22 juli 2024 13:21]

Is de 7800 nog een beetje van deze tijd ?
De 7800gt van Nvidia in ieder geval al lang niet meer... :)
Is er al bekend hoeveel video geheugen de radeon ex 8000 serie krijgt?

Op dit item kan niet meer gereageerd worden.