AMD brengt Radeon RX 7900 GRE met 16GB GDDR6 uit voor Chinese markt en oem's

AMD heeft een Radeon RX 7900-gpu met 16GB geheugen uitgebracht. Deze kaart is voor zover bekend niet bestemd voor directe verkoop aan Europese consumenten, maar wel voor oem-systeembouwers. De RX 7900 GRE heeft minder compute-units dan de XT- en XTX-versies.

In tegenstelling tot eerdere geruchten brengt AMD de Radeon RX 7900 GRE niet alleen uit in China, maar ook wereldwijd, schrijft ComputerBase. De kaart is in China echter ook los voor consumenten te koop. In de rest van de wereld komt hij alleen beschikbaar voor systeembouwers, die de RX 7900 GRE kunnen gebruiken in voorgebouwde pc's, meldt het Duitse medium.

De RX 7900 GRE heeft een Navi 31-gpu, net als de 7900 XT en XTX. De kaart heeft daarnaast 80 compute-units, voor een totaal van 5120 streamingprocessors. De huidige RX 7900 XT heeft 84 CU's. De nieuwe videokaart heeft ook een memory cache chiplet minder dan de RX 7900 XT. Daardoor heeft de RX 7900 GRE een kleinere geheugenbus van 256bit en in totaal 64MB Infinity Cache.

De boostclock van de RX 7900 GRE ligt ook lager, evenals de tdp. ComputerBase meldt een adviesprijs van 649 dollar. Omgerekend met btw is dat 714,86 euro. De 7900 XT heeft een introductieprijs van 899 dollar; de 7900 XTX kreeg bij release een adviesprijs van 999 dollar.

Videokaart Radeon RX 7900 XTX Radeon RX 7900 XT Radeon RX 7900 GRE
Gpu Navi 31 (RDNA 3) Navi 31 (RDNA 3) Navi 31 (RDNA 3)
Compute-units 96 84 80
Boostclock 2500MHz 2400MHz 2245MHz
Geheugen 24GB GDDR6 20GB GDDR6 16GB GDDR6
Geheugenbus 384bit 320bit 256bit
Geheugensnelheid 20Gbit/s 20Gbit/s 18Gbit/s
Geheugenbandbreedte 960GB/s 800GB/s 576GB/s
Infinitycache 96MB 80MB 64MB
Tdp 355W 315W 260W
Releasedatum December 2022 December 2022 Juli 2023

Door Hayte Hugo

Redacteur

28-07-2023 • 13:07

47

Lees meer

Reacties (47)

47
46
26
3
0
15
Wijzig sortering
Ik weet dat het enigszins offtopic is, maar ik ben een modaal inkomen gamer. Ik snap de allure van AMD niet meer sinds DLSS2 of 3. Elke nVidia kaart ondersteunt FSR, AMD ondersteunt geen DLSS.

Ik game op 1440p met een 2060 OC en kan alles spelen met DLLS op Quality en settings zonder RT maxed out / een paar hele zware lager.

Ik ben geen fanboy, in mijn 20 jaar gaminggeschiedenis is het aantal jaren dat AMD of nVidia in mijn PC hebben gewoond ongeveer gelijk, maar in een tijdperk waarin grafische kaarten bij lange na niet snel genoeg zijn voor grafisch meest veeleisende games en AI Upscaling de enige oplossing is om het speelbaar te houden, waarom zou je dan voor AMD kiezen, als je geen aandelen hebt?

Edit: Het fanboyisme is insane hier: 2 kaarten van dezelfde prijs kunnen hetzelfde, maar 1v/d2 kan iets extra, en die is slechter omdat "allemaal AMD fanboy redenen"...

Zonder DLSS ben je in AAA Single player game-land nergens, tenzij je (ironisch genoeg) een RTX 4090 hebt :) AMD kan op 1440P en 2160P niet meekomen in grafisch veeleisende singleplayer games omdat de meeste daarvan DLSS prefereren over FSR. Ik krijg een 0, maar elke reactie onder mij een 1 of hoger, hoe kan dat dan, als het een reactie is op een 0 die over de reactie zelf gaat?
Dan kan vanwege:
Fanboyism Modding. Al 18 jaar een probleem op Tweakers omdat ze weigeren te betalen voor moderatie en de community het maar laten oplossen. Ondertussen worden die karmapunten steeds meer waard... leuk. (ben mijn oude account ww/pass kwijt, dus deze is nieuwer dan 20 jaar ja)

[Reactie gewijzigd door TV_NERD op 25 juli 2024 04:22]

FSR 2.x is nagenoeg equivalent aan DLSS als je het enkel over upscaling hebt. Jouw uistpraak dat de meeste gamers DLSS verkiezen is nergens op gebaseerd, behalve je eigen gevoel (dat default naar wat je eigen hardware doet).

Dan is er nog maar 1 verschil: DLSS3's frame interpolation. En dat is letterlijk stront die enkel benchmarks misleid, in echte gameplay maakt het de ervaring niet beter:
  • De kwaliteit van de geïnterpoleerde frames is bedroevend
  • Daardoor wordt de interpolatie ook enkel toegepast wanneer je framerate sowieso al redelijk hoog is: dan zijn de artefact minder erg, en je merkt ze minder op omdat ze minder lang op je scherm staan. het werkt dus enkel als je het toch neit echt nodig hebt...
  • ...En wanneer je framerate echt inzak, onder de 40 fps, doet de interpolatie zn werk niet meer. op het moment dus dat je het wel echt wilt. je 0.1% lows worden er dus niet echt beter op.
  • Je latency wordt hoger
  • Je gemiddelde framerate wordt wel hoger.
Alles bij elkaar is frame interpolatie dus een walgelijk slecht idee, maar nvidia doet het omdat het grotere grafiekjes oplevert, en gamers helaas zodanig rabiate blinde nVidia fans geworden zijn dat ze alles wat dit bedrijf doet goed vinden.

En voor jij mij een fanboy noemt: ik heb gewoon een 2070 Super, dus nee ik ben geen AMD fanboy ;)
Zonder DLSS ben je in AAA Single player game-land nergens, tenzij je (ironisch genoeg) een RTX 4090 hebt :) AMD kan op 1440P en 2160P niet meekomen
Door dit soort onzin krijg je dus een 0 of zelfs -1: een 7900XT kan prima AAA titels op hoge resoluties spelen: zodner FSR haalt die kaart 60 fps op 4K en 100 fps op 2160p in Cyberpunk, nog steeds een enorm veeleisend spel.

[Reactie gewijzigd door kiang op 25 juli 2024 04:22]

Upscaling FSR 2.0 is niet nagenoeg even goed als DLSS. Nog niet misschien. Ik heb het nog nooit aangezet zoveel dat het doet met je image qualiteit in beweging. Ik heb liever minder frames zonder upscaling dan.

Momenteel heb ik niets meer qua videokaart omdat ik een console heb gekocht... En daar zie die FSR dus mandatory ingebakken bij veel spellen zonder optie om het uit te zetten. Ik ben echt geneigd om het hele ding de deur uit te doen.
behalve je eigen gevoel (dat default naar wat je eigen hardware doet).
Bij sommige niet eens hoor, mijn voorkeur gaat al jaren uit naar AMD kaarten maar gebruik al sinds 2017 nVidia kaarten.
In 2017 heb ik een jaar gewacht op AMD kaarten voor ik had zat was.
2022 idem, na bijna 1,5 jaar jagen op een 6800 was ik het zat en heb ik maar weer een nVidia gekocht.
FSR is open source, DLSS is proprietary.
Nvidia verkoopt xx50 kaarten (performance) als xx60 kaarten (naam) met xx70 prijzen, met op de koop toe slechts 8GB VRAM voor €400+...
Ze hoeven die prijs ook niet echt te verlagen want dezelfde silicon verkoopt op de AI markt voor het exponentieel veel meer.
AMD is nauwelijks beter qua marketing, maar de AMD kaarten blijven historisch gezien wel langer relevant wegens hogere VRAM en goeie driver updates.
AMD biedt over het algemeen binnen dezelfde prijsklasse een hogere performance.
Tegenwoordig kan ik geen van beiden echt aanraden als een goede koop, ze profiteren van hun duopolie positie om te prijzen onredelijk hoog te houden. Hopelijk brengt Intel met Battlemage daar verandering in.
Bovendien zouden GPUS onbetaalbaar worden als iedereen nvidia koos en zij het monopolie konden opeisen.
Als Nvidia's proprietaire technieken niet betere resultaten opleverden dan zouden ze niet bestaan. Vrije markt en alles.
DLSS levert betere resultaten op dan FSR, net als dat CUDA vaak sneller is dan OpenCL en GPU's tig keer sneller zijn geworden in renders maken sinds RTX.

Als we iedere keer op AMD moesten wachten tot er een open standaard gemaakt kon worden dan hadden veel van deze technieken waarschijnlijk niet eens bestaan. Uiteindelijk is er soms gewoon speciale hardware nodig voor nieuwe technologie en daar is niks mis mee.
Een duopolie is geen optimale vrije markt, al helemaal niet wanneer er deals worden gesloten met ontwikkelaars en uitgevers om de invloedssfeer te vergroten. Laat staan wanneer één partij 80% of meer marktaandeel heeft.

Je laatste alinea is natuurlijk niet helemaal correct. Als Nvidia zich voor open standaarden in zou zetten waren de standaarden er, gezien hun R&D budget, een stuk eerder en zou dus iedere gamer er van profiteren omdat AMD en Nvidia samen de business tot nieuwe hoogten zouden stuwen.

Daarnaast nog de aanmerking dat we het aan AMD te danken hebben dat Vulkan er is, en daarmee dus Proton en de optie tegenwoordig een Windows-vrije game PC te bouwen. Dit in schril contrast tot de ervaringen van Nvidia gebruikers dankzij de closed source Linux drivers.
Zonder DLSS ben je in AAA Single player game-land nergens, tenzij je (ironisch genoeg) een RTX 4090 hebt :) AMD kan op 1440P en 2160P niet meekomen in grafisch veeleisende singleplayer games omdat de meeste daarvan DLSS prefereren over FSR. Ik krijg een 0
Nogal logisch dat je een 0 krijgt als je deze onzin neer zet

FSR en DLSS zijn leuk, maar bij lange na niet noodzakelijk om te kunnen gamen, waar je die onzin vandaan haalt is me echt een raadsel, letterlijk elk spel is prima te spelen zonder upscaling technieken, maar blijkbaar kan jij games opnoemen die alleen met DLSS te spelen zijn.. ik hoor ze graag van je

en dan ook nog over fanboisme gaan praten.. de hypocrisie spat er vanaf

iig vergeet je natuurlijk per ongeluk dat lang niet elk spel FSR of DLSS ondersteund.. pure rasterization blijft gewoon het allerbelangrijkste, en laat AMD daar deze generatie net wat beter in zijn voor een net wat lagere prijs.. prima reden om een AMD kaart te kopen

Daarom snap ik jouw redenatie totaal niet dat alleen nVidia er nog tot doet... die mening laad me eerder denken dat je in een soort eigen bubbel leeft, en je jouw eigen situatie op andere probeerd te projecteren

Mensen moeten gewoon kijken naar hun eigen situatie, hoeveel geld ze willen spenderen en welke games ze spelen om daarna een beslissing te maken welke kaart ze gaan aanschaffen... het is echt totale onzin dat alleen nVidia kaarten nog games fatsoenlijk kunnen draaien...
Ik heb altijd AMD i/GPU's gehad, maar sinds 2016 alleen nog maar Intel en Nvidia i/GPU's. Ik zie nog weinig redenen om AMD GPU's aan te schaffen vanwege het ontbreken van softwareondersteuning zoals OneAPI en CUDA. Voor het spelen van spellen zullen ze eventueel wel voldoen, maar daar zou ik niet zoveel geld voor uit willen geven.
heel specifiek doel en enkel proprietary SW, dus misschien 2 keer nadenken over je eigen toekomst en hoeveel geld je zal mogen ophoesten om dit te blijven gebruiken...

leuke keuze die Intel dan sinds 2016, iets daarna was er echt geen enkele reden om er eentje te kopen tot 2022 :D. Die hard believers moeten er natuurljik altijd zijn.

[Reactie gewijzigd door d3x op 25 juli 2024 04:22]

Die Intel iGPU's zitten in laptops met discrete Nvidia GPU's, waarbij AMD in die tijd niet eens geschikte CPU's had. Wat betreft OneAPI en CUDA heb je gelijk, maar AMD heeft alleen een disfunctioneel alternatief genaamd ROCm. Moderne Apple hardware heb ik niet eens. Ik geef zelf de voorkeur aan Mali graphics in moderne ARM SoC's, wanneer absolute prestaties niet belangrijk zijn.

Je doet allerlei foute aannames, dus ik raad je aan het nog een keer te proberen. Of misschien loont het om de AMD bril af te zetten en te erkennen dat niet iedereen je enthousiasme over de GPU's van het bedrijf deelt.
ik deel helemaal geen enthousiasme, zie mijn andere post. Echter je doelgroep en visie maakt jezelf heel bekrompen. Nu gaan we weer over naar laptops. Breng je verhaal vanaf de start met een duidelijke usecase, dan krijg je zulke opmerkingen al niet van de start.

Wel grappig dat je er dan net OneAPI mee bij brengt, want dat is nu net het platform dat meerdere vendors willen supporteren, maarja roze bril zeker he...

Als je dan toch wil verder doen, de nieuws thread gaat hier over een gaming GPU en je opmerking heeft hier niks mee te maken, laat staan de +1 die je op je start thread krijgt.

[Reactie gewijzigd door d3x op 25 juli 2024 04:22]

Mijn doelgroep ben ik zelf, wat moet ik nu nog meer zeggen. Het is aan AMD om mij een compelling use case voor te schotelen, die ik helaas zelf niet zie. Iedere moderne GPU ondersteunt in de basis de voor mij relevante OpenGL en Vulkan, dus daar zie ik ook niet echt een verschil.

Je wilt gewoon op een of andere manier om een of andere reden je gelijk halen. Om je tevreden te stellen koop ik dan wel op een gegeven moment een systeem met een AMD APU, want dat is ook het enige waar ik op dit moment interesse in heb. Of moet het nu echt een discrete GPU zijn van honderden euro's.

Eerlijk gezegd denk ik dat je de bekrompenheid eerder bij jezelf moet zoeken. Bovendien zit ik niet te wachten op jouw opmerkingen. Als je niet normaal kunt reageren, kun je beter helemaal niet reageren.
Nvidia heeft voor x86 PC en laptops geen iGpu dat zijn D-gpu
Ik heb een Nvidia Jetson Nano en nog een oud AM2 moederbord met een NForce chipset. Maar ik kijk inderdaad uit naar de Jetson Orin Nano en NX en Grace Hopper superchips.

[Reactie gewijzigd door psychicist op 25 juli 2024 04:22]

90% van de games die ik speel, zijn pre 2010. Hebben dus geen upscaling en ray tracing. Perfect voor AMD
90% van de games die ik speel, zijn pre 2010.
Die games zijn waarschijnlijk helemaal niet relevant, want die draaien op elke recente videokaart wel goed, ongeacht of het een Nvidia of AMD kaart is.
Daar heb je nu RTX Remix voor, maar... Of dat nou echt wat is?
AMD kies je voor de raw rastorized performance, VRAM & gunstiger prijskaartje tov de Nvidia counterparts.

DLSS & FrameGen zijn features die nog in amper spellen te vinden zijn dus overbodig voor de meeste mensen.
Letterlijk 8 van de 10 games die ik nu speel supporten DLSS :) Zo ongeveer elke Triple A single player titel, logischerwijs want daar leent het zich meer voor dan MP.
Als je een AMD-kaart hebt dan zie je de DLSS opties niet, maar de meeste games hebben die optie wel. Ik had een 3080 laptop en DLSS is behoorlijk goed, maar ik gebruikte ook wel eens FSR als upscaling. FSR geeft naar mijn idee minder artifacts als je de upscaling 'scherpte' opvoert. Dus DLSS als ik bijvoorbeeld een game op DLSS Quality en 33 sharpness zou zetten kreeg ik een net beeld, terwijl ik uit FSR Quality vaak de scherpte hoger kon zetten en dus meer detail zag, zonder dat het er uitzag als een AI beeld. DLSS gaf vaak wat betere performance winsten en als je dan de sharpness wat lager zet is het meestal ook wel mooi.
Ik gebruik zelf geen upscalers / FrameGen omdat de artifacts / inputlag voor mij de boel verpesten, ik heb het wel getest met mijn desktop 4080, met spellen als rdr2, Cyberbug & Last of us p2. En wat je zegt over sharpness increase klopt wel een beetje als ik het nu zie in Cyberpunk, maar nog steeds zie ik verschil op een 32inch monitor en vind ik het gewoon niet waard om "graphical fidality" te moeten inleveren, echter is de FPS verhoging wel nice doormiddel van een slider aan te passen, maar toch doe ik dat liever handmatig.

Ook wil ik even kwijt dat al deze upscalers somige game devs lui maakt, dit vind ik bijzonder triest maar IG begrijpelijk vanuit de rol van upper managment.

Voordat ik een nieuwe pc kocht en nog een 1070 had keek ik veel zWORMz Gaming op Youtube en daarin zie je de voor en nadelen van bepaalde technieken ingame, en toch ondanks alles geen 7900xtx gekocht vanwege non gaming redenen, geen spijt van overigens tho.
Waarvoor gebruik je je kaart naast gaming? Gewoon een vraag uit interesse. Ik ben in de markt voor een nieuwe kaart en ben nog aan het twijfelen.
Ik ben nog niks tegengekomen dat ik met mijn 6750 XT met 1440p op high/ultra niet kan spelen anders, dus dat valt wel mee.
Die kaart is ook maar ~120 euro duurder dan een 2060 OC nieuw ;) Niet eerlijk,
En nieuwer :P (maar toen ik hem kocht was die 100€ goedkoper dan nu)

Maar met een RX 7600 van €300 zou het ook nog wel te doen zijn, op games die ook als grafische showcase gebruikt worden na.

[Reactie gewijzigd door dakka op 25 juli 2024 04:22]

Die kaart is ook maar ~120 euro duurder dan een 2060 OC nieuw ;) Niet eerlijk,
En zo'n 50% sneller. Ik vind zelf dat 12 GB nu het minimum is als je op 1440p wilt spelen en dan zijn de 3060 12 GB en de 6700 XT dus de enigste opties voor een prijs richting de 300 dan wel 350 euro.
Raw performance > DLSS, FSR
En AMD heeft vaak meer VRAM.

maar begrijp je standpunt wel, ben blij dat Nvidia ook FSR kan gebruiken dat is omdat AMD meer voor opensource is; had dit ook graag gezien van Nvidia.

DLSS/FSR blijft leuk, maar het blijven toch neppe frames; zelf heb ik daar geen probleem mee.

[Reactie gewijzigd door ilaurensnl op 25 juli 2024 04:22]

waarom zou je dan voor AMD kiezen, als je geen aandelen hebt?
speaking for myself here:
- AMD heeft betere linux drivers
- voor alles wat geen DLSS ondersteuning heeft, levert AMD betere bang/buck
- vrij specifiek, maar toch, mijn RX6600 is een heel stuk zuiniger dan een RTX3060

Maar vooral punt 2 eigenlijk, zeker nu met de 4000 series prijzen... en in het "budget" segment kan je een rx6600 kopen voor 20 euro minder dan een 3050

(en zo af en toe krijg ik wat mee over de scumbaggery die een van beide bedrijven uithaalt, en destijds was het geforce partner program voor mij wel echt strafpunten voor nvidia, maar AMD heeft met de hele AMD partner != dlss saga ook weer aardig gescoord...)
als je met DLSS v1 en je 2000 serie op 1440p al voldoende hebt dan kan je je eerder stellen in de categorie geen verwachtingen.....

grafische kaarten zijn nog steeds voldoende met native performantie voor bijna alle games. Er is gewoon een nieuwe trend dat trachten met lagere aankopen en wat sw fixes en alternering van pixels hetzelfde te bekomen. Uiteindelijk kom je toch vast te zitten op memory bus limitaties, beperkte support, sw lifecycle (DLSS3.0 only, etc). vragen om miserie dus.

mijn 6800XT van meer dan 2j geleden aankoop, voldoet voor mij nog nipt op 1440p 144hz high settings... jij doet zogezegd hetzelfde met een 2060 en wat SW, kwestie van perceptie en verwachtingen

RT op laatste gen AMD loopt echt niet zoveel meer achter op Nvidia. FSR is open framework, DLSS is proprietary... remember g-sync? :D

[Reactie gewijzigd door d3x op 25 juli 2024 04:22]

Ik heb niets gezegd over 144hz. Sterker nog, ik leg de nadruk op SP games. 60hz dus.

6800XT is ook maar ongeveer 200 euro duurder nieuw dan een 2060 OC ;) Das 71% duurder. Je praat niet binnen hetzelfde budget.

Proprietary of niet zal mij een rotzorg zijn, ik wil bang for buck :) Nu, niet over 8 jaar.

[Reactie gewijzigd door TV_NERD op 25 juli 2024 04:22]

Dat prijs verschil is de reden dat die kaart wel met gemak 1440p en 4k kan spelen (met hier en daar een setting wat lager) in tegenstelling tot wat jij in jouw eerste post zegt.
Zelfs als die kaart wel 71% duurder is, hij is ook 91% sneller dan jouw kaart.
https://www.techpowerup.c...orce-rtx-2060-super.c3441
https://www.techpowerup.c...s/radeon-rx-6800-xt.c3694[quote]
Ik heb niets gezegd over 144hz. Sterker nog, ik leg de nadruk op SP games. 60hz dus.
Proprietary of niet zal mij een rotzorg zijn, ik wil bang for buck :) Nu, niet over 8 jaar.
Prima, maar kom dan over 10 jaar niet klagen dat er geen alternatieven meer zijn :P.
Omdat 99% van games geen DLSS ondersteuning hebben? De lijst beslaat nu wat? 100-200 games? Van de duizenden en duizenden games die beschikbaar zijn om te spelen. Ik speel veel games die geen DLSS ondersteuning hebben, dan kijk je simpel naar rauwe kracht en 'bang for you bucks', waar AMD nog steeds aanwezig is als goede keuze. Het verhaal van FSR en DLSS is altijd een troefkaart van Nvidia geweest, al in het begin met Gsync en freesync, en dan komt ook Intel's XESS nog om de hoek kijken.. (buiten aspect dat Nvidia nog spelletje speelt met DLSS als het gaat om versies en generaties)

En daarin zie ik DLSS dus niet als 'enige oplossing', maar als 'een probleem'. Ja leuk dat minder krachtige kaarten dan 'iets meer lijken te kunnen' in plaats van een upgrade te doen naar zwaardere kaarten, maar het is momenteel in hoog-segment enkel een verhaal om het te zware RT te compenseren, en je bent simpelweg overgeleverd aan de marketing/eigendom welke game welke variant gaat krijgen.

Ik zie het altijd als een auto die specifiek op de A12 op 130km/h fluisterstil is, super zuinig, en als jij toevallig elke dag elk uur op die A12 rijd is dat prima.. maar wat als jij meer dan regelmatig daar niet bent?
In mijn geval heb ik voor de eerste keer AMD gekozen (7900XT) juist omdat de echte rekenkracht hoger ligt dan vergelijkbaar geprijsde Nvidia kaarten. Hierdoor hoef ik uberhaupt geen gebruik te maken van FSR of DLSS.

Tot nu toe bevalt het extreem goed, ook dingen als het control panel voor de gpu isl completer dan die van nvidia die al 15 jaar zo,n beetje hetzelfde is.
Zonder DLSS ben je in AAA Single player game-land nergens, tenzij je (ironisch genoeg) een RTX 4090 hebt :) AMD kan op 1440P en 2160P niet meekomen in grafisch veeleisende singleplayer games omdat de meeste daarvan DLSS prefereren over FSR.
Dit is een grap toch?
Het fanboyisme is insane hier: 2 kaarten van dezelfde prijs kunnen hetzelfde, maar 1v/d2 kan iets extra, en die is slechter omdat "allemaal AMD fanboy redenen"...
Volgens mij ben je vooral aan het projecteren. Je lijkt zelf best wel een fanboy te zijn met statements als "AMD kan op 1440P en 2160P niet meekomen". Dat is gewoon pertinent onwaar.

AMD kaarten hebben juist (vaak) meer performance voor dezelfde prijs. Een voorbeeld: De 6700XT is ~330 euro terwijl een 4060ti ~430 euro kost, qua performance zijn ze nagenoeg gelijk. Je betaalt dus wel degelijk meer voor nvidia features. Dat maakt AMD/Nvidia niet persé beter of slechter, je hebt de keuze tussen betere rauwe performance voor de prijs en meer VRAM bij AMD en betere upscaling trucjes en raytracing bij Nvidia.

[Reactie gewijzigd door Raphire op 25 juli 2024 04:22]

Tjah, als NVidia gebruiker hebben de meesten echt wel goede punten voor AMD hoor. De laatste generaties zijn simpelweg geen goede prijs/performance. NVidias hebzuchtige praktijken zijn walgelijk. Wederom, ik ben een NVidia gebuiker en heb in mijn verleden slechts één AMD kaart gehad.

Dat de 4090 momenteel de zetel heeft maakt AMD niet slechter. Ze hebben gewoon geen kaart in die prijscatagorie.

De RX 7900XTX (ongeveer 1000 euro) presteerd beter in native 4k dan de 4080 (ongeveer 1300 euro). Hoe is NVidia dan beter? Puur door DLSS 3/frame insertion? Sommige mensen zien de artifacts en niet in controle doordat en ingevoegde frame toch niet de kant op gaat dat ze verwachten. Het is maar wat je zoekt.

Daarbij kan beide NVidia en AMD prima overweg op 1440p en het hogere segment van beiden kan ook best wat in 4k.

Je moderatiescore is meer in verband met je stand op de markt dan goede nuttige informatie. Je uit meer meningen dan feiten. Als je een open topic begon met ruimte voor discussie dan keihard een kant kiezen, had je misschien meer geluk op je 'waardevolle karmapunten'. Mensen fanboys noemen omdat ze het niet me je eens zijn wint je ook geen punten. Dat terwijl je juist zelf als fanboy over komt voor DLSS, terwijl dat helemaal niet zon must zoals je het hier brengt.
Je zegt het zelf al, AMD heeft FSR….

Ik heb een AMD kaart en kan ook alles spelen op max settings, als ik zou willen. Omdat max settings gewoon nutteloos is, veel grafische settings in games kosten heel veel performance maar je ziet nauwelijks verschil zeker als je met de game bezig bent.
Dit vind ik een interessant onderwerp. Zelf heb ik een AMD kaart en het valt mij op dat fames er korellig uitzien als je FSR (2) aanzet. Dus zet ik het niet meer aan het wordt wat mij betreft enkel lelijker. Is dit met DLSS2 of 3 dan niet het geval?
Soms is er ook één FSR sharpness slider, als je die naar beneden zet, dan zul je minder korrelig beeld krijgen. Minder artifacts.
Het hangt van de implementatie af van de game, maar over het algemeen ziet DLSS er wat beter uit dan FSR. Maar indien mogelijk is native performance beter dan zowel FSR als DLSS.

DLSS3 frame generation is iets compleet anders, dat generereert nep frames tussen echte frames om zo tot een ogenschijnlijk hogere framerate te komen. Echter zitten hier meerdere nadelen aan vast zoals visuele artifacten en hogere latency. Vooral op lagere framerates is frame generation niet echt bruikbaar, de extra latency is daar extra merkbaar, en ook visuele artifacten zijn dan duidelijker zichtbaar.

Het is mijn inziens vooral een feature waarmee Nvidia probeert de 40-serie op te krikken, zo kunnen ze in benchmarks grafieken een 1.7X verbetering laten zien tov de vorige generatie. Terwijl de rauwe performance, zeker bij de lager geplaatste kaarten, eigenlijk vrijwel gelijk is aan de 30-serie.

Ik speel zelf wel eens cyberpunk 2077 met een RTX 4080 met DLSS3 en framegeneration aan, maar het is echt geen wondermiddel. Het zorgt voor wat extra soepeler beeld als je al een hoge framerate hebt, maar zodra je onder de 100FPS komt dan begin je de latency wel echt te merken en voelt het al snel 'sluggish'.

[Reactie gewijzigd door Raphire op 25 juli 2024 04:22]

DLSS doet min of meer hetzelfde en maakt het beeld dus inderdaad ook lelijker.
Het is puur een techniek die kwaliteit verminderd voor meer performance.

Eerlijk gezegd snap ik echt niet wat mensen in deze upscaling onzin zien.
Waarschijnlijk gewoon heel goede marketing.
DLSS is gesloten, dat kan niet op een AMD kaart, CUDA, NVlink, VRworks en RTX ook niet. FSR kan op iedere kaart werken, het is aan de developer om het erin te stoppen, dat is geen harde eis, maar een keus die ze maken.

Als de titels die je speelt (voornamelijk) FSR gebruiken ipv DLS, of als je geen enkele interesse heb in raytracing, dan biedt AMD meer performance voor zelfde geld.

"Zonder DLSS ben je in AAA Single player game-land nergens." En dat is gewoon niet waar.
Veel mensen spelen voornamelijk online en dan maak je je niet zo druk om DLSS.
Kan voor € 200 minder best een interssante kaart zijn, gaat van een hoop specs die er effectief toe doen maar weinig af. Misschien 10-15% lagere performance netto zou ik verwachten op basis hiervan, dan is 20% lager in prijs al netto vooruitgang in de prijs/prestatie verhouding. Gaat er echt € 200 vanaf op € 800-900, dan is dat wezenlijk beter betaalbaar in verhouding.
Als deze enkel hier binnen complete systemen komen, zal het puur de meerprijs worden die systembuilders vragen van een GRE naar een XT of XTX, waar natuurlijk wat marge in zal zitten voor de builders dus ik verwacht geen 200 euro direct verschil in die 2 kaarten, zeker niet als nu de XT en XTX al stuk in prijs zijn verlaagd (de XT zit nipt over de 800 euro, dan is het nog maar 100 euro verschil).
Als ze deze dan al direct vergelijken met een 6800XT wat moeten we dan nog verwachten van een officiele RX 7700-7800 launch? effectief 1op1 perf mapping op 6700-6800?

Dit lijkt mij dan ook een identieke perf neer te gaan zetten met de 6800XT, dus dan heb je enkel RT winst, DP2.1, lager verbruik en AV1.

auch, al een geluk dat ik al enkele jaren de 6800XT aan msrp heb... dan is dit echt uitverkoop inventory van 6000 en hetzelfde neerzetten in een 7000 serie. Een ramp jaar erbij van zowel nvidia en AMD en dit na zoveel jaren prijs hiking en wachten op iets nieuws...

[Reactie gewijzigd door d3x op 25 juli 2024 04:22]

Op dit item kan niet meer gereageerd worden.