AMD bevestigt release Radeon RX 9000-serie in maart

De nieuwe generatie AMD-videokaarten komt in maart wereldwijd beschikbaar. Dat heeft David McAfee, vicepresident van de Radeon- en Ryzen-divisie bij AMD, bekendgemaakt via sociale media.

De fabrikant belooft een 'ruim assortiment' van de gpu's te kunnen leveren bij de introductie. De aankondiging komt te midden van speculatie over een mogelijke onthulling deze week. De gpu-fabrikant had de komst van de RX 9070 en 9070 XT al aangekondigd, maar liet de kaarten tijdens de CES-keynote begin januari nog buiten beschouwing.

De RX 9070 en RX 9070 XT zijn de eerste modellen op basis van de nieuwe RDNA 4-architectuur. De gpu's maken gebruik van een nieuw ontworpen Navi 48-chip, die wordt geproduceerd op het N4-procedé van TSMC. Volgens geruchten beschikt de chip over 64 compute-units. AMD stelt dat de CU's geoptimaliseerd zijn voor betere prestaties. Het geheugen zou bestaan uit 16GB GDDR6. De fabrikant bevestigt dat er later ook modellen in lagere segmenten volgen.

Diverse retailers hadden eerder deze maand al RX 9070- en RX 9070 XT-modellen in hun systemen staan. Een Deense webwinkel toonde kortstondig een Gigabyte Gaming OC-variant met een vermoedelijke placeholderprijs van omgerekend 1250 euro. AMD's Frank Azor benadrukte eerder dat de nieuwe gpu's onder de 1000 dollar moeten blijven. Een Filipijnse retailer publiceerde eerder een listing van hetzelfde model voor ongeveer 580 euro.

AMD Radeon RX 9070 en 9070 XT
AMD Radeon RX 9070 en 9070 XT

Door Andrei Stiru

Redacteur

21-01-2025 • 10:27

197

Submitter: Xtuv

Lees meer

Reacties (197)

197
191
116
3
0
33

Sorteer op:

Weergave:

Ik snap die geheimzinnigheid niet zo. Die dingen zijn ondertussen toch klaar? Je weet toch wat ze gaan doen kwa prestaties? Laat dat dan ook gewoon zien.

Dat je met de prijs nog even wacht om te reageren op Nvidia kan ik me nog voorstellen.
Sterker nog ze waren volgens mij klaar voor een lancering in Januari. Mores law is dead melde via bronnen bij Microcenter dat ze daar al genoeg 9070 (XT) kaarten hadden liggen. Ik denk dat ze door wat nVidia heeft laten zien hebben besloten te wachten.

Ik vraag me wel af waarom. Misschien om FSR4.0 meteen mee te kunnen leveren. Wellicht om ook 3 fake frames toe te kunnen voegen zodat ze vergelijkbare FPS halen met frame gen? Zou ik wel een zwak argument vinden maar goed consumenten die de techniek niet goed kennen zullen wel denken wow die geforce kaarten hebben veel meer FPS dus beter.

Ze weten de prijs stelling van nVidia opzich al alleen de daadwerkelijke prestaties nog niet. Wellicht willen ze dan op de reviews van de 5070 en 5070 Ti gaan wachten om te zien of ze goed zitten? Ook dat is weer teken van zwakte. Je kan gewoon voor agressieve prijzen gaan en beat team to market met volume (volgens geruchten is zijn er maar weinig RTX 5000 kaarten voor de launch van de 5090 en 5080).

Maar goed helaas loopt AMD nVidia en Intel maar al te graag achterna. Zelfs nu AMD het goed doet qua CPU's kiezen ze er toch voor Intel's naming convention over te nemen met stomme namen zoals AI 365 HX ipv zelf met iets goeds te komen en te zeggen we staan voor ons product en onze strategie.
Daarnaast is AMD de laatste jaren ook erg bezig met hoge marges behouden ipv agressief zijn om GPU marktaandeel te veroveren. Nu is daar weinig over te zeggen want AMD is nu financieel sterk door die strategie waar het voorheen niet goed ging. Maar ik vind het zelf wel jammer dat ze niet meer moeite doen voor dat marktaandeel. Elders (lees datacenter) is veel meer geld te verdienen dus ze maken liever EPIC CPU's en Instinct GPU's. Net als dat nVidia liever de Datacenter GPU's en Pros consumer GPU's verkoopt ipv Gaming kaarten. Daar zit veel meer marge op. Mogelijk dat er daarom ook maar weinig kaarten beschikbaar zijn voor de RTX5000 launch.
Wel jammer voor ons als consument maar voor de marges en winst wel begrijpelijk dat ze de kat uit de boom kijken en ondertussen oude vooraad kunnen slijten.
Is het misschien niet zo dat AMD veel moet betalen voor de wafers van TSMC.
En dat ze daarom eigenlijk weinig ruimte hebben om te kunnen stunten met de prijs.

Nvidia heeft wel meer reserves en harken het geld wel binnen via andere wegen.

[Reactie gewijzigd door Robin4 op 21 januari 2025 23:31]

stunt Nvidia met de prijs? Waar heb je dat gezien? als er een zekerheid is is dat Nvidia al jaren niet meer stunt.
Ze verkopen hun kaarten toch wel (vinden ze zelf)
Stunten is misschien hier in niet het goede woord..
Maar als je zelf beetje meer zou nadenken zou je wellicht begrijpen dat ik het op een andere manier bedoel dat AMD weinig ruimte heeft om lagere prijzen te hanteren.

Alleen jammer dat er over een verkeerd gebruik van 1 woord al over gevallen word.
En volgens mij heb je zelf niet eens de moeite genomen om goed te lezen wat ik geschreven heb.
Heb nergens gezegd dat Nvidia stunt met prijzen.

[Reactie gewijzigd door Robin4 op 22 januari 2025 22:13]

Rustig maar...
Om toch op je eerste opmerking terug te komen denk ik dat je bedoelt dat Nvidia door z'n grote afname meer recht heeft op grote volumes chips bij TSMC en daardoor een betere prijs kan bedingen.
Volgens mij zijn de die's van nvidia over het algemeen ook iets kleiner voor gelijke gepositioneerde modellen van AMD, ook dat kan de prijs per GPU drukken.
AMD heeft niet het volume dat nvidia omzet en daardoor ook meer marges zou je denken.

Dat stunten gaat voor beiden haast niet meer op.
Nvidia verkoopt z'n kaarten toch wel en AMD moet er alles aan doen om z'n kaarten te verkopen waardoor ze eerder gaan stunten.
Ik hoop dat de markt een keer gezond gaat worden en daar is concurrentie hard voor nodig.
Ik vraag me wel af waarom. Misschien om FSR4.0 meteen mee te kunnen leveren. Wellicht om ook 3 fake frames toe te kunnen voegen zodat ze vergelijkbare FPS halen met frame gen? Zou ik wel een zwak argument vinden maar goed consumenten die de techniek niet goed kennen zullen wel denken wow die geforce kaarten hebben veel meer FPS dus beter.
Dat van die 3 frames wisten ze ongetwijfeld allang van tevoren. Ik denk niet dat dat een reden is om te vertragen. Zulke miljardenbedrijven weten echt wel alles van elkaar.

[Reactie gewijzigd door Llopigat op 21 januari 2025 22:36]

Wellicht willen ze dan op de reviews van de 5070 en 5070 Ti gaan wachten
AMD heeft al lang die nvidia kaarten in huis net als reviewers die al hebben.
Volgens mij zijn die kaarten nog niet in handen van reviewers. Momenteel in ieder geval de 5090. Ik weet niet of de 5080 nu ook al komt of dat die pas in Feb uit gaat komen. Reviewers krijgen de kaarten niet heel ver van tevoren en als ze die al hebben hebben ze niet altijd de laatste drivers/ gimped drivers of helemaal geen drivers om zo lang mogelijk de uiteindelijke prestaties achter te houden.

AIB's hebben kaarten natuurlijk wel maar daar zie je dus dat ze de laatste jaren niet meer beschikken over de goede drivers die de daadwerkelijke prestaties laten zien omdat AIB's nog al eens de oorzaak waren van vroege lekken over de prestaties van nieuwe GPU's.

[Reactie gewijzigd door Astennu op 22 januari 2025 00:33]

Ze kunnen nog aan heel wat knopjes draaien in de VBIOS. Meer stroom door jagen of wat veiligheidsmarge voor stabiliteit inpalmen. Denk een beetje als overclocken, maar wat je een overclock zou noemen is relatief tegenover officiele specs.
Die dingen liggen al lang op de schappen. Koelers zijn al lang af. Enige dat zou kunnen is naar beneden met een betere efficiëntie. Niet naar boven met negatieve effecten voor oa geluidsproductie en temps... En perf/W

Nee, release het gewoon. Da's weken aan sales terwijl er geen 5070 alternatief is. De eerste op de markt wint in die klasse sowieso al enige aankopen.
Die kaarten kunnen prima teruggeroepen worden voor een re-flash. Het zou me op dit moment in ieder geval niets verbazen als die dingen nog worden aangepast. Dat dat invloed heeft op productie/temps en perf/W is niet zo relevant. Er zijn nog geen cijfers publiek gemaakt van de kaarten dus dat is allemaal nog mogelijk.
Heb je enig besef betreft hoeveel het kost om alle kaarten terug te roepen?!
Ja en het zal niet de eerste keer zijn. Denk nog recent aan het terugroepen van alle uitgeleverde 9000-series processoren. Op GPU-vlak het terugroepen van alle MSI kaarten met 'super' in de naam voor iets triviaals als een naamsverandering.

Je ziet dan overigens ook dat er soms vanuit de fabrikant weer compensatie wordt aangeboden. Denk hierbij weer aan het cancellen van de 4080 12GB door nvidia waarbij de AIB-partners gecompenseerd zijn voor de kosten die al gemaakt waren voor die kaarten (packaging).

[Reactie gewijzigd door Korvaag op 21 januari 2025 11:33]

CPU's gaan direct naar AMD, GPU's worden afgehandeld door alle board partners. Dat zijn meerdere bedrijven, in grotere dozen wat nog meer kost om te verschepen.
En dan is het afhankelijk van waar je wilt gaan reflashen hoe je dat aanpakt. Je hoeft dat natuurlijk niet te doen op de stoep naast de fabriek maar dat zou ook in een land zelf kunnen bij een bedrijf wat support regelt of wellicht zelfs de importeur. Ik zie het echt nog wel gebeuren. Het lijkt me sterk dat AMD de kaarten drie maanden bij winkels laat liggen om alleen maar een prijs te bepalen, maargoed, we gaan het zien.
De producten moeten in absolute nieuwstaat zijn. Packaging is gesealed, dus dat moet ook allemaal opnieuw. Er zijn zoveel details binnen dit verhaal. Er is een rede dat veel retailers dan hier ook niet over te spreken zijn aldus de mensen welke hebben laten doorschemeren dat er al voorraad licht bij de winkels..
Die kaarten kunnen prima teruggeroepen worden voor een re-flash.
Jij hebt werkelijk geen idee wat dat kost. Je kan dan beter het product niet verkocht hebben omdat je geen winst maakt, de publieke perceptie zeer negatief is en je koers waarde duidelijk zou dalen. Rampzalig.

De terugroep actie van de 9000 als bewijs. Dat heeft ze 550 miljoen gekost en de winst gehalveerd. Een dozijn topmanagers ontslagen.
Dat is überhaupt slecht een idee qua marketing.

Beter de kaarten met meer korting verkopen indien ze ondergewaardeerd worden. Ze zijn niet stuk.
En dan een update er achteraan sturen met een "upgrade". Hebben de early adopters een mooie deal.
Later verhoog je dan de prijs, 10 MHz erbij qua clock en je maakt de prijs weer passend bij de prestaties.
Verwacht je dan dat diegenen die de nieuwe AMD kaarten serieus als optie willen meenemen niet even kunnen wachten? De huidige nVidia sales betreft naar mijn indruk vooral de groep voor wie de keuze tussen nVidia en AMD geen punt van discussie was. Die groep is sowieso niet zo interessant voor AMD.

Laat AMD vooral haar eigen moment kiezen. Alleen zij zelf kunnen als beste bepalen wanneer ze hun producten goed en met voldoende aantallen in de markt kunnen zetten.
Omdat AMD dit keer sowieso het hoge segment laat vallen, gaan de echte enthousiastelingen sowieso direct naar Nvidia. Dus die zijn ze al kwijt.
Maar wat heeft dat met deze kaarten te maken? Deze kaarten targeten niet het hoogste segment, en richten zich dus niet op die doelgroep.
Nee maar dat zijn dan ook meer mensen die niet echt enthousiastelingen zijn en dan gewoon kopen wat er in hun budget ligt. En niet speciaal gaan wachten op een of andere kaart die misschien wel of niet wat goedkoper gaat zijn (want daar wordt nog niks over gezegd).

De echte enthousiasteling zal dat wel doen maar die zal eerder voor de top kaarten gaan. En die missen ze nu dus helemaal.
AMD heeft slechts 12% marktaandeel in de dedicated gpu markt dus dat lijkt me niet. Ze hebben wat in te halen. Sterker nog, ze hebben aangegeven dat hun target 40% van de markt is. Dus er zal wel iets niet af zijn. Wellicht drivers of simpelweg nog niet genoeg launch voorraad.
Nee, release het gewoon.
Denk je nu echt dat ze bij AMD zo dom zijn? Ze hebben zeer goede redenen om nu niet de markt op te gaan. Welke reden dat is, weet jij niet en weet ik niet.

Persoonlijk denk ik dat ze er op gokken dat de hypetrain van Nvidia over een paar maanden vertrokken is en mensen gaan beseffen dat $2100 best veel geld is voor je spelletjes. Journalisten en influencers duikelen allemaal over hardware die maar een zeer beperkte markt heeft op dit moment. Er is nu gewoon geen aandacht voor de hardware die we allemaal gaan kopen, de kaarten in de 400 to 600 range (met afstand de grootste markt) waar de fabrikanten het meeste verdienen. In Maart heeft AMD een open veld om op te spelen.
Releasen de 5060 (en misschien 5060ti) niet in maart?
Persoonlijk denk ik dat ze er op gokken dat de hypetrain van Nvidia over een paar maanden vertrokken is en mensen gaan beseffen dat $2100 best veel geld is voor je spelletjes.
Meh. Dat was met de 4090 toch ook niet? Ja officieel was die 1690 ofzo maar dat was na een lange reeks prijsverlagingen. En hij was nauwelijks echt voor die prijs te krijgen. Hij begon net onder de 2000 euro. Ik heb zelf de FE gekocht voor 1879 geloof ik. Dat was toen ook erg goedkoop (want RRP).

Maar nee, ik wist dat het veel geld was voor mijn spelletjes. Qua upgrade naar de 5090 denk ik nog even na. Op zich kan ik veel meer gebruiken voor mijn VR setup. En mijn 4090 kan ik nu nog goed verkopen. Maar aan de andere kant komt er momenteel weinig PCVR spullenboel uit, en alleen voor FS2024 is het wel erg duur. Bovendien moet er dan alweer een nieuwe voeding aan vanwege het verhoogde vermogen (vorige keer heb ik met 850W geen marge overgelaten).

Misschien gaat de 5090 ook wel weer zakken in RRP zoals de 4090 deed... Dus ik weet het nog niet.

[Reactie gewijzigd door Llopigat op 21 januari 2025 22:28]

Tsja dat is allemaal in de marge, meer dan een paar procentpunt verschil gaat dat niet opleveren.
Dat is dan aan de gebruiker om te doen, want ze zijn al lang versheept.
Gezien er al kaarten bij winkel ketens liggen denk ik dat ze dat niet meer gaan doen. Dat is te duur om dat achteraf allemaal terug te halen en weer nieuwe firmware in te gaan laden + opnieuw in te pakken.
We hebben toen met de (ik dacht) RX 5600 XT wel gezien wat voor een gedoe dat kan geven toen ze last minute de memory snelheid nog omhoog gooide. Dat zorgde toen voor veel gedoe.
Ze kunnen nog een beetje knoeien met stroomverbruik om een "concurrerend" prestatieniveau neer te zetten afhankelijk van wat de Nvidia kaarten daadwerkelijk in de winkel kosten maar dat is het inderdaad eigenlijk wel. Nogal wonderlijk hoe veel aandacht en geduld ze verlangen van hun potentiële klanten.
De eerste GPU's zijn al bij winkels aangekomen. Er duiken steeds meer foto's op.
Stroomverbruik kan dan alleen nog maar via de AMD software veranderd worden. Lijkt mij niet logisch.
AMD wacht af welke prijs ze kunnen vragen. Dit blijkt ook uit PCGH-forum
De aankondiging van AMD's nieuwe mid-range grafische kaarten, namelijk de Radeon RX 9070 (XT), heeft inmiddels obscure proporties aangenomen. De productpresentatie op de CES werd door veel geïnteresseerden “teleurstellend” ontvangen, sommigen bestempelden het zelfs als een “lachertje”. Er zijn nog geen prijzen of releasedatum bekendgemaakt. Een hangend spel.

Toch lijken de grafische kaarten al enige tijd op voorraad te zijn bij retailers. Vreemd, en toch heeft de hele zaak duidelijk een monetaire achtergrond.

Blijkbaar is er wat onenigheid (zowel bij AMD als bij de retailers) over de prijs waarvoor deze grafische kaarten verkocht moeten worden, omdat de oorspronkelijk geplande prijsklasse veel te hoog lijkt te zijn vastgesteld met het oog op de dreigende concurrentie van Nvidia. Het probleem hierbij is dat prijscorrecties voor leveringen die al hebben plaatsgevonden soms lastig zijn.

In de praktijk wordt dit vaak opgevangen met marketinggeld of cashbackbetalingen. De fabrikanten betalen de winkeliers een bepaalde bonus per verkochte grafische kaart of geven hogere kortingen naarmate er meer eenheden worden verkocht. Als deze betalingen vast zijn, houden de winkeliers hier van tevoren rekening mee in de vorm van lagere prijzen.

Dit werkt goed zolang de betalingen blijven stromen. Maar dit is precies waar er nu echte problemen lijken te zijn. Aan de ene kant lijkt AMD een aanzienlijke cashback te moeten betalen, aanzienlijk hoger dan het eigenlijk zou willen en economisch verantwoord lijkt. Aan de andere kant zijn er berichten in retailer-kringen dat AMD al enkele maanden achterloopt met cashback-betalingen en dat dit op sommige plaatsen al tot liquiditeitsproblemen leidt. Of om het anders te zeggen. De dealers willen niet meer totdat AMD bepaalde dingen heeft opgehelderd en vermoedelijk werkt het niet zonder marketinggeld vanaf dag 1 van de verkoop. Tenminste niet als je aantrekkelijk geprijsd wilt zijn ten opzichte van de concurrentie.
Gezien het azijn pissen tegen AMD press marketing en MSRP.
Mag geen ruk kosten. Vroege claims due te hoog zijn worden ze neer gesabeld MSRP die naar beneden moeten aanpassen ook goodwill ramp. Als ze de prijs te laag zetten. Prijs verhogen is dan helemaal not done.
Nvidia kan later een achter de hand gehouden performance driver release doen ze altijd al dan sla je ook ruk figuur.
Het gaat hoe product is en wat de straatprijzen zijn. Dat zal altijd beter zijn als tijdje uit is en goed verkrijgbaar.
Gezever nu of stilte is minder erg dan hoe ze het ervoor deden. Afgezeken worden ze wat ever ze doen. Totdat nextgen high-end nv nextgen keer wegblaast dan kan marketing keer beter dien met kroon sku. Met schteraan hobbelen wordt he afgezeken.
Dat maakt sku op specifieke pool positie niet slecht. Want ik koop geen marjeting of press release en beloftes ik koop g-kaart en wat bang for tha buck is
Een reden waarom het maart wordt is omdat AMD midden in prijsonderhandelingen zit met leveranciers over de RDNA 4 GPU's. AMD heeft eerder hogere prijzen vastgesteld voor de RDNA 4-kaarten, maar werkt nu samen met leveranciers om een ​​concurrerender adviesprijs te finaliseren.

Dit is deels een reactie op NVIDIA's prijsstrategie voor hun GeForce RTX 5070, die is vastgesteld op $549. AMD zal ervoor zorgen dat hun RDNA 4-kaarten, zoals de RX 9070, een aantrekkelijke waarde bieden ten opzichte van NVIDIA's aanbod. De onderhandelingen lijken wat stroef te verlopen over hoe de compensatie van de eerdere prijsverschillen worden vergoed.
Dat is natuurlijk wel een belangrijke factor. Nu niet goed beslagen ten ijs komen betekent dat deze serie, en FSR4, tot in het einde der tijden voorzien zal zijn van reviews over hoe inferieur het wel niet is.

Reviews worden immers zelden tot nooit herzien of achterhaald verklaard.
Er kan nog met drivers geknutseld worden om maximale prestaties te hebben.

En als die kaarten sneller zijn dan een 5070, dan loont het natuurlijk om even te wachten. Dan kan de marketingafdeling daar volop gebruik van maken.

En geen idee hoe het staat met de productie. Misschien zijn ze helemaal nog niet klaar om te shippen.
9070 XT is 100% sneller dan een 5070. Ik denk dat ie zelfs sneller is dan een 5070 Ti in Raster.
lol source: trust me
Check Moore's Law Is Dead youtube kanaal. Ik neem aan dat je weinig interesse hebt in tech leaks.
Herinner me nog dat die beweerde dat de 4090 600 watt ging verbruiken .
Dit was Nvidia ook daadwerkelijk intern aan het onderzoeken, ze hebben uiteindelijk alleen gekozen om dit niet te doen. Leaks komen vaak van interne ontwikkelingen die naar buiten gebracht worden. Er zijn fotos van koeloplossingen die dit ondersteunen.
En daarnaast... Laat de RTX 5090 nou toevallig een TDP hebben van 600 watt..
Ja zo heb je altijd ooit wel eens gelijk. (is 575 watt trouwens dus zelfs voor die is het verkeerd)

Die "leaks" zijn zo goed als altijd niet juist of heel ongenuanceerd.
Dat was NVidia ook van plan... Nooit afgevraagd waarom AIB partners zulke Overkill koelers hadden? Die verwachtten ook 600. Hij heeft ook vaak genoeg juiste ''voorspellingen'' gemaakt. Iedereen weet dat je leaks met een korreltje zout moet nemen. Ik neem altijd de gemiddelde van verschillende leaks en vaak komen die gemiddeldes ook overeen met de daadwerkelijke prestatie.
Zo kan je alles uitleggen, wacht gewoon reviews af.
Je kan ''ZO'' niet alles uitleggen...

Give respect where its due.

Ik neem zijn woorden niet als de ultieme waarheid, veel van zijn volgers doen dat niet. Je probeerde MLID te minimaliseren als een ''onbetrouwbaar bron'', vervolgens zei je: hij heeft wel eens gelijk. Nu zeg je: Zo kan je alles uitleggen...

Discussie met jou is tevergeefs. Fijne dag nog!
Jij zette dat als statement terwijl het een youtube gerucht is.
Nu ben je pissed dat iemand dat niet zomaar aanvaard?
Tja Discussie met jou is tevergeefs. Fijne dag nog!
Ik heb niks verplaatst nogmaals jij praat hier alsof je de prestaties al weet van die kaarten en dat is gewoonweg onzin dat je uitlkraamt.
Je hebt wat geruchten van een youtuber die gewoonweg geen betrouwbare bron is dat is alles.

Zoals ik al zei wacht gewoon reviews af voor je uitspraken doet over prestaties .
Ik check dagelijks X en websites als videocardz en wccftech. Er zijn gewoonweg leakers met een goed trackrecord. Van al deze leaks neem ik een gemiddelde, zo simpel is het. MLID is vaak juist ''laat'' en zijn leaks bevestigen weer de andere leaks (niet altijd). Wanneer we de reviews hebben, zal ik hier terug komen.

Je mag me hierop aanspreken als het niet klopt: 9070XT zal in Raster sneller zijn dan een 5070.
Grappig dat je nu al aanpast wat je zei, eerst was die sneller en nu enkel in raster.
En daar gata het niet over, jij doet alsof je dit al weet en dat doe je niet, de youtubers weten dat ook niet want neen die zitten er evenveel naast als op en dus kan je net zo goed gokken.

Daarbij als ik eens je comments doorlees is het duidelijk dat je amper weet waar je het over hebt "DLSS Upscaling brengt latency met zich mee" dat is 100% zeker onzin. Ik kan zelfs met 100% zekerheid zeggen dat het juist latency verlaagd.
Kan je aub toelichten hoe het latency verlaagt? Ik wacht op je uitleg, want ik ben benieuwd nu.
Ok dlss bevat "super reolution" aka "upscaling" dat bestaat eruit dat je de resolutie op 4k zet, dan dlss quality en dat word die resolutie voor de renderer effectief 1440p waardoor die met upscaling dat naar 4k zet.

De latency is dus die van 1440p terwijl het beeld eruit ziet als 4k, tov van native 4k zal je dus een lagere latency hebben.

Wat jij verwart met frame generation. Daar ga je beelden bijmaken, de latency daar is dan gelijk aan wat je native zou hebben (plus een kleine overhead) grafisch echter ziet dat er beter uit omdat je een hogere fps hebt.

Dan heb je nof reflex dat louter dient om latency te verlagen
en ray reconstruction was ook latency verlaagt omdat de impact op je fps van RT lager is.
AIB partners doen ook altijd dikke koeling omdat ze voor stilte gaan. En omdat het er gamerig uit ziet.

Ik denk ook over de 5090 en die 2-slots koeler gecombineerd met een nog hoger vermogen dan de 4090 is wel iets waar ik me zorgen over maak. Ik moet nog maar zien hoe die in de werkelijkheid presteert.

En ik wil eigenlijk wel per se de FE want ik vind die veel mooier dan al die OEM kaarten. En steviger ook.

[Reactie gewijzigd door Llopigat op 21 januari 2025 22:30]

Het zijn leaks en MILD brengt het ook zo. Vaak van meerdere sources.
Sommige dingen kunnen ver in productie nog bepaald worden. 575 600 is bios instelling voor FE getest wordt er breder. De meerdere sources kunnen intern NV komen of AIB vaak ook weten ze feiten niet direct en krijgen ook niet de complete context mee en dat is dan bron. MILD geeft leaks aan bron meerdere insiders. En eromheen hoop opinie.
Ik heb geen problemen met de leaks. Maar opinie van hun vaak niet. Soms hebben ze perspectief waar ik nog niet aan gedacht had dat maakt het interessant,
Bedoel je dat hij 100% zeker ietsje sneller is of 100% (dus een factor 2) sneller?
Goed punt. Natuurlijk bedoel ik 100% zeker. 100% sneller zou betekenen dat een 9070XT sneller is dan een 5090.
''In raster''

En? Ik ben niet van plan om in raster te gaan spelen. Now what?
Raster vind ik interessanter dan Frame Gen... Als je alleen singleplayer games speelt dan is het prima, maar in games als Warzone wil je zo min mogelijk input lag. Frame gen brengt input latency met zich mee. Jij bent gelukkig de minderheid die Raster minder belangrijk vind, anders waren we als consumenten echt de lul.
Ik duidde voornamelijk op DLSS Upscaling. Vooral met DLSS 4 zie je het verschil tussen performance mode en native amper meer (op 4K).
Daar ga je dan. Niemand heeft het over visuals... Het brengt latency, dus input lag met zich mee. Nogmaals in MP games is dat niet zo fijn, maar in Story games hoeft het geen probleem te zijn. Bovendien is de 5000 series de kleinste performance jump sinds 2000 series of zelfs GTX 1000 series. Je kan generaties alleen met elkaar vergelijken als je kijkt naar Raster performance. DLSS 4 leuk en aardig, maar daarmee kunnen ze het feit dat 5000 series Gen on Gen een teleurstellende jump is niet maskeren. Grootste prestatie jump komt van de 5090 en voor die vragen ze 25% meer geld. 30-35% meer performance voor 25% meer geld.

Persoonlijk vind ik dat niet erg aantrekkelijk. 5070 komt qua prestatie tussen de 4070Ti en 4070 Ti Super. 5070 Ti zal waarschijnlijk net onder de 4080 komen of juist net erboven. Persoonlijk had ik er echt meer van verwacht. Dit is geen gevalletje ''trust me bro'', deze verwachtingen komen voort uit grafieken van NVidia zelf (met behulp van pixel counting).

Daarom vind ik de 9070XT interessanter. Jammer dat AMD weer een kans vergooit. Ze willen waarschijnlijk wachten en kijken waar de 5070 en 5070Ti landen qua prestaties en zullen dan het maximale vragen voor de 9070 kaarten.
Je had het over raster, ik zei dat raster mij weinig interesseert vanwege DLSS (upscaling), en jouw antwoord is dan dat het latency met zich mee brengt.

Hoe brengt DLSS upscaling latency met zich mee als het de frame rate verhoogt, wat indirect dus ook de latency verlaagt?

Het is een feit dat DLSS upscaling de frame rate verhoogt en de latency verlaagt, dus hoezo blijf je dan bij raster? Zou upscaling je dan niet meer moeten interesseren? Of is dit een mening die je klakkeloos van anderen hebt overgenomen zonder er zelf eerst goed over na te denken?
De visuals proberen ze via ray tracing op te krikken, daarin worden de kaarten steeds sterker.
AMD wacht duidelijk af hoe de 5070 het doet, zowel qua prestaties als effectieve prijs.
Het is geen geheim dat FSR 4 (zie de CES berichtgeving) nog niet klaar voor lancering is...
Zonder fatsoenlijk functionerende FSR 4 toch alvast maar de 9000 serie lanceren tegen de Nvidia 5000 serie met DLSS 4 zou gegarandeerd nog negatiever uitpakken dan deze (uiteraard verre van ideale) aanpak van uitstel.

Nogmaals, verre van ideaal (helaas is dat typerend voor AMD's GPU afdeling) maar wel begrijpelijk gezien de omstandigheden en geen geval van "geheimzinnigheid".
Dat hardware klaar is maar de software niet dat is nu eenmaal zo. Allen rot voor hun dat consumenten zich vast bijten in release reviews die daarmee verpest. Naast nV release drive bump ups. En je wordt hard afgestraft.
De hardware in magazijnen laten rijpen. Totdat driver feature klaar zijn.
Ik heb werkelijk geen idee wat je hiermee probeert over te brengen... Het zal wel aan mij liggen.
De introductie van de RX480 was heel duidelijk waarom je enigszins geheimzinnig moet zijn. De kaart was nog niet eens op de markt, de performance was vanuit AMD naar de markt bekend (en niet overhyped, bij klanten werd een eerlijke verwachting geschept, wat bedrijfskundig hartstikke netjes is), evenals de prijs.

En zo wist Nvidia exact hoe ze de nog uit te brengen RTXx060-serie moesten tweaken en prijzen, zodat klanten hiermee voor net een klein beetje meer geld (wat de prijselasticiteit duidelijk toeliet) een net iets betere kaart konden kopen. En dat deden de klanten massaal. De RX480 werd prima verkocht, maar dat had wellicht meer met de toenmalige cryptomarkt te maken. Gamers gingen voornamelijk voor Nvidia, ook op dat prijspunt.

Daarom laat men niet meteen alles weten. Reviews wijzen het wel uit, bedrijfsspionage zorgt ook wel dat Nvidia redelijk weet waar ze tegenop moeten boksen, maar de informatie komt later en is minder betrouwbaar. Ondertussen hoeft AMD niet op het laatste moment hun propositie te wijzigen. Er zullen meer redenen zijn, maar je concurrent in ieder geval een beetje het duister houden is denk ik de hoofdreden
Als ze er geheimzinnig over doen kunnen ze er nog een paar persberichten over uitmelken, en nog een paar tactische 'leaks' waar de Youtubers dan weer over los gaan, wat weer extra aandacht geeft.
PowerColor, bekend van hun Hellhound, Red Devil en Fighter videokaarten, zeiden tijdens CES dat de officiële drivers nog niet uit waren (kan video niet meer vinden, verwijderd?). Ofwel ook zij weten niet precies hoe de kaarten gaan presteren.
Maart is wel aan de late kant als hij moet gaan concurreren met de RTX 5070 series. Ergens ben ik meer geinteresseerd in de RX 9070 XT als upgrade voor mijn RTX 3070 dan een RTX 5070. Eerst de reviews maar afwachten.
Dat hangt ook een beetje af van hoe goed de Nvidia kaarten beschikbaar gaan zijn.
Dat is alvast bekend. Dat gaat een groot drama worden waar niemand blij van gaat worden (buiten enkele scalpers)
https://www.technologyins...-voorraad-verwachten.html

Naast de prijszetting, drivers en FSR4 afwerken, kunnen ze nu ook gewoon voorraad opbouwen zodat ze daadwerkelijk iets kunnen uitleveren en daar minder frustraties over zijn bij de consumenten. Bij Nvidia gaat dit wederom een ramp zijn.
Ik denk dat de mensen die echt een 5070 kaart oid willen hier toch al niet op gaan wachten. Dus ja, je mist de mensen die het echt graag willen maar het gros zal toch een afweging maken tussen beschikbaarheid en prijs lijkt mij.
Ik volg het af en toe niet meer versienummers.. Dus geen 8000 series kaarten? Wil binnenkort een nieuwe pc bouwen en zit er aan te denken voor de eerste keer een AMD bak te maken dus zat te kijken naar de nieuwste generatie, dus moet dan de 9x series in de gaten houden?
Ik volg het af en toe niet meer versienummers..
Hoeft ook helemaal niet, gewoon kijken naar prestaties/prijs (en features die je perse wilt hebben) :)
Wil binnenkort een nieuwe pc bouwen en zit er aan te denken voor de eerste keer een AMD bak te maken dus zat te kijken naar de nieuwste generatie, dus moet dan de 9x series in de gaten houden?
Gezien het nieuwsbericht waar je onder reageert aangeeft dat dat de nieuwste kaarten van AMD zijn, lijkt me dat voor de hand liggend dat je die dus in de gaten moet houden...

Maar dan nog, kan best dat een AMD 7900XTX beter presenteert voor jou dan de nieuwe generatie, daarom gewoon naar reviews/benchmarks kijken en niet naar nietszeggende nummertjes op de verpakking.

[Reactie gewijzigd door watercoolertje op 21 januari 2025 11:06]

Nee, ze willen met deze nieuwe nummers dichter bij de nummers van de concurrentie gaan zitten (wat echt een onzin argument is, maar goed).

De verwachting is dat de RX9070 en RX9070XT ergens tussen de RTX4070 en RTX4080 performance zal gaan liggen daarom ook geen 9700... maar 9070 8)7
Het gerucht gaat nu ook rond dat AMD meer cashbacks en andere dealtjes gaat sluiten voor zijn 9070(XT) om beter kunnen te concurreren met Nvidia: https://videocardz.com/ne...rice-pressure-from-nvidia
The announcement of AMD's new mid-range graphics cards, namely the Radeon RX 9070 (XT), has now taken on obscure proportions. The product presentation at the CES was received "disappointingly" by many interested parties, and was even classified as a "laughing stock" in some cases. Neither prices nor release dates have been announced so far. A stalemate.

The graphics cards seem to have been in stock at retailers for some time. Strange, and yet the whole thing obviously has a monetary background.

Apparently, there is no agreement (both AMD and retailers in particular) on the price at which these graphics cards should be sold, because the originally planned price range appears to have been set far too high in view of the looming competition from Nvidia. The problem is that price corrections for deliveries that have already been made can sometimes be difficult.

In practice, this is often cushioned with marketing money or cashback payments. The manufacturers pay the dealers a kind of bonus for each graphics card sold or offer higher discounts the more units are sold. Once these payments are fixed, the dealers take this into account in advance in the form of lower prices.

This works well as long as the payments flow. But this is exactly where there seem to be real problems. On the one hand, AMD seems to have to pay a significant cashback, significantly higher than it actually wants and appears to be economically healthy. On the other hand, there are reports in dealer circles that AMD is already several months behind on cashback payments and that this is already leading to liquidity problems in some places. Or to put it another way: The dealers don't want any more until AMD clarifies certain things and presumably it won't work without marketing money from day 1 of the sale. At least not if you want to be attractively positioned compared to the competition in terms of price.
Het nadeel van geld-terug-acties is dat je altijd weer data moet inruilen voor dat geld. Ik zie liever een korting op de prijs in de winkel.

[edit] Ik dacht even dat dit óók over geld-terug-acties op consumentenniveau ging, maar ik had niet zo snel moeten reageren. Dit gaat meer over prestatiegerichte betalingen op het niveau van AMD en de zakenpartners in het verkoopkanaal.

[Reactie gewijzigd door ocf81 op 21 januari 2025 12:29]

Zal wel weer een hersenspinsel zijn van Frank Azor, ik begrijp AMD echt niet meer, zet ze op een rotonde en ze zijn hopeloos de weg kwijt..
En om meteen het nadeel van de game-deals aan te stippen: Als je niet geïnteresseerd bent in deze games, heb je er nul voordeel mee.

Jammer dat men vanaf dag 1 naar zoiets blijkt te moeten grijpen.
Daar heb je inderdaad ook nog een goed punt te pakken. Die spellen kan je doorgaans ook nog eens niet doorverkopen.
Of ze zijn enkel te claimen op een portaal waar je geen gebruik van maakt en wilt maken *kuch*Uplay*kuch*
Voortbordurend op ocf81 in 'AMD bevestigt release Radeon RX 9000-serie in maart' na mijn edit:

Ook voor partners in het distributiekanaal zijn er bezwaren en kan ik de weigering om vol in te zetten wel begrijpen. Op zich wel kwalijk dat AMD zich zo enorm te kakken zet door niet met het geld op de proppen te komen. Boter bij de vis doen is wel waar het om gaat, en achterlopen bij het nakomen van bestaande afspraken geeft inderdaad geen vertrouwen. De houding van de partners in het distributiekanaal is dan ook wel terecht, denk ik. En als nVidia de 5080 goed in de markt zet moet AMD wel veel bij gaan leggen om überhaupt competitief te zijn.

[Reactie gewijzigd door ocf81 op 21 januari 2025 12:35]

Iedereen zit maar te geilen op de Nvidia videokaarten. Je ziet het ook duidelijk in VA dat men van de relatief jongere kaarten af wil om maar weer het nieuwste te kopen. Maar de vraag is waarom wat brengt het je? Alleen maar voor de buitenwereld kijk mij eens, kan mij niet vertellen dat je altijd echt het onderste uit de kaart haalt voor leuke game pc.
Zware grafische toepassingen kan ik nog in komen maar dan heb je een Apple denk ik.
Op een gegeven moment gaat het ook niet meer om de prestaties maar om het psychologische aspect inderdaad. Laten we eerlijk zijn, wie heeft er nou echt een 5090 nodig om te gamen op ultra settings? Zoveel mooier gaat het niet worden dan een kaart van 1000 bijvoorbeeld.
Mooier niet misschien meer frames wel.

Heb een 4080 Super en speel op 4k.

Wil graag tussen de 90 en 120 frames hebben en dat is met de 4080 Super nog net haalbaar maar moet al wel settings laten zakken. Nu nog niet zo heel spannend maar wat maar headroom zou wel fijn zijn.

90 serie ga en kan ik waarschijnlijk nooit kunnen of willen betalen en de 80 serie gaat deze generatie niet zomaar een grote stap zijn kwa raster dus voor nu sla ik die over. Normaal upgrade ik wel vrij snel naar de nieuwe serie maar zie deze keer het nut er nog niet zo van in.

Heb ook een 7900XTX gehad maar dat deed het in mijn games wel wat minder dan de 4080 Super hoor. En nog niet te spreken over de behoorlijke meer aan stroom verbruik dat dat gekke ding deed. En in Forza Motorsport vind ik met name de ray tracing op autos wel echt meerwaarde hebben.

Op dit moment heeft AMD geen concurrentie voor de 80 serie dus heeft het weinig zin om de overstap te maken.
Op een gegeven moment gaat het ook niet meer om de prestaties maar om het psychologische aspect inderdaad. Laten we eerlijk zijn, wie heeft er nou echt een 5090 nodig om te gamen op ultra settings?
Als Indiana Jones and the Great Circle een RTX4090 24GB vram laat zweten of kan laten crashen als je in 4K gamed met pathtracing FULL ON om alles ten volle te ervaren heb je inderdaad een RTX5090 32GB vram nodig
Ach het is een hobby?
Mijn buurman hier rijd op een motor, dat ding kost een 17 000 euro, verzekering ed kost nog eens een 1000/jaar.
Die geeft dus 2000+euro per jaar uit aan zijn hobby.

Koop een deftige PC van 2500 euro en 2-3 jaar later upgrade je die gpu voro de nieuwste en verkop je de oude dan kost je dat een 500 euro reken na 5-6 jaar nieuwe CPU misschien en je zit nog niet aan de helft van wat mijn buurman aan zijn motor uitgeeft.
Dat zeg je wel, maar op een zonnige dag heeft hij betere ray tracing en path tracing dan een gelijkwaardige waarde aan 5090’s in aantal bij elkaar. 8)7

[Reactie gewijzigd door Boss429 op 21 januari 2025 13:07]

het belgische weer en mijn buur kennende: nope ;)
Maar hij koopt waarschijnlijk niet iedere keer een nieuwe motor als er een uitkomt met een nieuw design koplamp :)
Met VR loop je met de 4090 nog tegen stotteringen aan hoor, zeker met bijv. flightsims. En dan heb ik maar medium settings want hoger wil ook niet.

En ik game eigenlijk nooit pancake meer.

[Reactie gewijzigd door Llopigat op 21 januari 2025 22:35]

Als die kaartjes meer dan 600€ kosten ga ik net zo goed een rtx 4070 super halen. Amd is laatste tijd ook hebzuchtig geworden net als nvidia. Hun cpu's zijn stukken duurder geworden eigenlijk bijna 2keer zo duur als je gaat kijken naar de 7800x3d. Maar goed eerst afwachten.
"hebzuchtig" als amd,nvidia en intel allemaal dezelfde prijs vragen is het misschien gewoon hoeveel zo'n kaart kost om te onwtikkelen en maken?
Of prijsafspraken kan ook. Videokaarten en cpu's zijn ineens substantieel duurder geworden en nee ik praat dat niet goed zoals jij dat doet en velen.
Ja net zoals al de rest, inflatie heet dat.
Dat is een simpel feit hoor, daarbij een titan rtx kostten 3000 euro al in 2018 .
lol { hebzuchtig } hou toch op
Ik ben wel benieuwd of de B770 ook in de buurt komt van de 7-serie kaarten van beide aanbieders, want dan hebben we pas écht wat te kiezen. Ik hoop dat intel ook snel die serie kaarten op de markt brengt, zodat we niet heel lang hoeven wachten op een goede vergelijking tussen de 7-series van nVidia, AMD en intel.
Er is geeneens een concreet gerucht over een B770 launch, alleen de hoop dat die er ooit gaat komen.
De situatie omtrent de lancering van de B770 is inderdaad niet heel duidelijk. Ik hoop toch dat intel die wel tijdig gaat doen.
Ik ben ook wel benieuwd naar de B770, maar ik verwacht echt niet dat die qua prestaties bij een 5070 in de buurt zal komen, denk dat je al blij mag zijn als die bij een RTX4070super ofzo komt. Hopelijk dat de drivers inmiddels wel goed werken met SteamVR.
En nog steeds is niet duidelijk wat de TDP nou gaat wezen en of het nou PCIe 4.0 of 5.0 kaarten gaan worden...
Denk niet dat PCIE 5.0 veel zal veranderen, we gebruiken vgm de volledige bandwidth van PCIE 4.0 nog niet eens.
Lekker 150-250 euro meer betalen en voor nvidia gaan… amd is het niet meer waard qua gpu”s.
Mijn 7900 XTX is nog altijd beter dan de 150-200 duurdere 4080 Super, Ray Tracing daargelaten wat echt geen gemis is ofzo.
Eens, super tevreden met mijn 7900xtx
Hoeveel verbruiken jullie 7900 xtx'en gemiddeld tijdens gaming? Verbruik (en prijs) zijn m'n grootste redenen om niet te kopen, maar de 7900xtx zit nu dichtbij 870€ wat echt laag is, terwijl de 7900 xt maar niet voor bij (lager dan) 700€ wil, zonder 650 of lager vind ik die niet interessant. 7900xtx heeft ook 24gb ram, wat deze generatie echt uniek is. Zowel Nvidia als AMD laten 24gb links liggen terwijl het volgens mij voor de top-end user de beste prijs/kwaliteit/toekomstvastheid bied, 16gb maar kantje boordje als er weer zware games bijkomen, met zware features.

En nu 9070 xt misschien niet zo goed is als gedacht en overklokt (goed verbruik naar de kloten) misschien een omlaaggeklokte 7900xtx aanschaffen.
heb een Asus tuf 7900XTX met een Samsung odessey super ultrawide 4k.
Rond de 370-380 watt van de GPU tijdens gamen.
Valt allemaal reuze mee
Dus is die niet beter, je negeert ook compleet dlss wat die 4080 super veel beter maakt in games dat dit ondersteunen.

Ik hoop dat AMD met deze generaties eindelijk eens een antwoord vind op dlss 3 & 4 want zonder dat zij AMD kaarten echt een pak minder.
Ik heb met mijn XTX nog nergens een upscaler nodig gehad.
Dan moet je in veel games wel de installingen fors naar beneden halen.
Heb moeite met mijn 4090 in veel games en de XTX is veel trager dan die.
Dat hangt af van de spellen die je speelt, en de enige 'moderne' spellen die ik heb zijn Jedi Survivor en The Last of Us, die kwamen met de hardware, geen van beide had upscaling nodig met ultra settings (dus inclusief RT) op een 1440p ultrawide. Ik koop dergelijke spellen verder niet, de hoofdreden dat ik een XTX gekocht heb, is omdat ik een driescherms (1440p) simrig wilde maken, en dan heb je wel wat gpu-kracht nodig.

Verder vind ik CSGO (nu CS2) wel leuk, maar dat draait ook op een elektrische tandenborstel. Dat is het punt een beetje, je koopt wat je nodig hebt en neemt dan de voordeligste optie. Zoals je vaak ziet als ze het over Nvidia-features hebben, Nvidia heeft er kennelijk meer, maar AMD heeft ook alerlei features; en géén ervan gebruik ik. Nou ja, anti-lag heb ik aanstaan op CS2.

Dus als je een van die specifieke features gebruikt, en die van Nvidia is beter of heeft meer features, prima, dan koop je die kaart, maar voor het overige vermoed ik dat de meeste Nvidia kopers betalen voor al die features en ze verder nooit gebruiken.
Oh ja in 1440p kan die goed mee die kaart, ik game op 4k en dan komt die spijtig genoeg wat tekort.
Op 4K is de XTX nog steeds een hele deftige kaart zonder al te veel settings te verlagen.
Oh ja in de meeste games zal dat wel gaan ja.
Poeh, er zijn zoveel variabelen die meetellen voor deze vergelijkingen.... Hoe ik het zie:
De 7900 XTX is volgens heel veel reviews ongeveer 20% langzamer met raster and 30-35% langzamer met raytracing dan een 4090. Dat is zeker significant. Maar voor die 20-35% extra prestaties die een 4090 je biedt, ben je wel meer dan het dubbele geld kwijt in euro's.

Dus je kunt hoog en laag springen dat het de 4090 betere kaart is: dat is terecht, maar qua prestaties kun je niet zeggen dat hij 'veel trager' is. En qua waarde is die7900 xtx een vele malen (letterlijk) betere keus.

Momenteel koop je bij MeGekko een 7900XTX vanaf €929 en een 4090 kost je vanaf €2299. Dat is 2,47x zoveel. Al zou hij 50% meer prestaties bieden, dan is het nog steeds een kaart voor mensen met geld teveel. Tenzij het profesioneel gebruikt wordt en je echt geld terugverdiend met zijn betere prestaties.

[Reactie gewijzigd door MulMonkey op 21 januari 2025 14:19]

De 7900 XTX is volgens heel veel reviews ongeveer 20% langzamer met raster and 30-35% langzamer met raytracing dan een 4090.
raster is native idd 20% maar RT is 50-100%

https://www.techpowerup.c...-xtx-magnetic-air/33.html
En ik vermoed dat dit zonder ray reconstruction is.
Maar voor die 20-35% extra prestaties die een 4090 je biedt, ben je wel meer dan het dubbele geld kwijt in euro's.
Idd, echter zoals al gezegd: RT heb je tot 100% meer fps soms.
Tel daarbij dlss waar nvidia gewoon veel beter is EN al lang zaken heeft zoals frame generation dat AMD pas nu begint deftig aan te bieden e je ziet dat in cyberpunk op 4k/ultra path tracing (dus het beste wat je van graphics nu kan hebben) die 7900 het niet aankan je hebt native iets van een 10fps , je moet dus daar fsr gebruiken wat veel slechter is dan dlss en dan nog in performance of zoiets . een 4090 haalt daar gewoon tegen de dubbele fps en maakt het speelbaar (60fps).

de 7900 is eerder vergelijkbaar met een 4080 die 1200 euro kost.
Dat prestatieverschil in raytracing van tót 100% die jij noemt slaat misschien alleen op de path tracing in Cyberpunk, waar je ook met een 4090 én zelfs een 5090 geen speelbare framerates mee haalt (zonder trucjes)
Ik vind dat voorlopig vooral een nutteloze gimmick. Met name een showcase voor Nvidia en slechts speelbaar met 1-2 videokaarten ter wereld.

De prestaties van de 7900XTX in de meeste RT games verschillen niet eens 50% met de 4090. En ze liggen aardig in de buurt van hun éigenlijke competitor: de 4080 (aangepast).
Raytracing vergelijk tussen 4090 en 7900XTX: https://youtu.be/QSKbpq3arXA?si=IWbL8Xrus1J4Zmdh

[Reactie gewijzigd door MulMonkey op 21 januari 2025 17:48]

2 jaar oud :
YouTube: RTX 4090 VS RX 7900 XTX Ray Tracing Benchmarks 4K | i9 14900KS | R7 ...

Cyberpunk :+70%
SIlent hill 2remake +40%
Witcher 3 +60%
F1 +40%
Dying light 2 +70%

En path tracing geeft gewoon fantasisch beeld, dat je je laat beinvloeden en dlss en co "trucjes" noemt zegt genoeg. Dat werkt gewoon heel goed, geeft je meer FPS en je merkt er niks van.
Amd heeft dat eindelijk ook ingezien en zet hier ook volop op in.
dat je je laat beinvloeden en dlss en co "trucjes" noemt zegt genoeg. Dat werkt gewoon heel goed, geeft je meer FPS en je merkt er niks van.
Iedereen die blijft dat maar zeggen.... Ik merk upscaling echter zeker wél. Geloof je dat niet? Of ben jij dan zo beïnvloed?

Je punt over RT prestaties: het ligt zeker aan welke games. In sommige titels zit er nauwelijks verschil. Maar vergeet niet dat de prijs van een 4090 dus 147%(!) hoger ligt. En als je de ook al duurdere 4080 super pakt (€1199) die ook al 30% duurder is dan de XTX, daar wint de XTX het van op raster en zijn de verschillen met RT nihil (vergeleken met de grotere verschillen met de 4090).

Ik erken dat er verschil is. De 4090 is een prachtkaart. Maar absurd duur.
Iedereen die blijft dat maar zeggen.... Ik merk upscaling echter zeker wél. Geloof je dat niet? Of ben jij dan zo beïnvloed?
Quality? Geloof ik niet als je aan het gamen bent.

En ik gaf de review waar men gemiddeld over 10tal games 60+% verschil ziet .
Nogmaals AMD moet daar echt enorm veel inhalen hopelijk lukt ze dat anders blijven hun kaarten puur op prijs concurentieel zijn en dat is niet goed.
Ligt eraan hoe je ernaar kijkt maar ik vind het ook wel degelijk een betere kaart. RT kan mij niks schelen dus ik neem wel de goedkopere kaart met meer VRAM en raster performance.

En ook nog, ik denk dat als iemand een kaart haalt van boven de 900 euro diegene dan niet wilt gaan upscalen. Native zal er vrijwel altijd het beste uit zien.
Native zal er vrijwel altijd het beste uit zien.
nee hoor, en als je de beste kaart koopt wil de je debeste graphics en dan is dlss onvermijdelijk.

Cyberpunk 4k ultra/path tracing met mods en mijn 4090 geeft nog een 25fps native.
DLSS upgrade, SR quality, RR , FG en reflex en je zit aan tegen de 60fps en is dat perfect speelbaar.
25fps met frame gen waarbij je “tegen de 60” aan zit zou ik extreem ver van speelbaar noemen.

Onder 60fps ziet frame gen er al heel matig uit en dan krijg je ook nog eens nog slechtere latency dan normaal.

Ik zou veel liever gewoon op raster ultra spelen op native en dan wel gewoon prima boven 60 halen zonder frame gen of iets.
Nee dat is met super resolution, ray recontruction en FG.
De latency is dus echt geen probleem hoor, dit is een single player game. Geen idee waarom sommige daar <10ms latency op willen.

Mijn punt is dat dit met een 7900 xtx gewoonweg niet mogelijk is, die is goedkoper omdat die gewoonweg veel minder performance heeft.
Ik heb zelf ook een XTX.

Ik speel op high / ultra settings op 3440x1440 met allerlei mods waarvan ik niet zeker weet of ze mijn performance beinvloeden, maar:

Ik haal op native zonder enige crutch met path tracing rond de 20 - 25fps. Als ik dan FSR3.1 aan zet, frame gen en al haal ik wel de 90fps, maar het probleem is overigens dat ik gewoon bijna wagenziek wordt van het spelen omdat mijn scherm later beweegt dan mijn muis.

Dit komt doordat frame gen vanuit onder 60fps gewoon matig werkt. Ik hoef niet per se < 10ms of dergelijke, ik wil gewoon niet hebben dat ik merk dat mijn scherm later reageert dan dat ik mijn muis beweeg.

Op raster haal ik wel weer lekker > 200fps, lekker smooth, game ziet er gewoon nog prima uit, super responsive.
OOk met de nieuwe framegen van AMD? Weet dat die nog achterlopen amar zo hopen dat met die ze toch in de buurt komen van nvidia?
Omdat sp games ook beter spelen op 120fps. Bij fps is meer eigenlijk altijd beter.

Ik heb enkel cyberpunk gespeeld met frame gen en de artifacts van frame gen zijn te goed aanwezig. Zeker als je eenmaal weet waar je op moet letten. Dan wordt het dat ding waar je niet naar moet kijken maar gigantisch opvalt.

Is Ray tracing mooier, ja maar gameplay is belangrijker dus ging het uit.
Nvidia update dat steeds dus zelf die laatste dlss er zetten doet veel, als je dat dus lang geleden speelde is dat al heel anders nu.
Dus een Nvidia GPU met dezelfde performance is wél 15-250 euro meer waard? Die moet je even uitleggen als je wilt.
Ik ben niet de persoon op wie je reageert, maar ik kan genoeg redenen bedenken.

- DLSS upscaling
- DLSS frame-generation (binnenkort MFG, oftewel multi frame-gen)
- DLSS ray reconstruction
- NVIDIA reflex (binnenkort reflex 2 met inpainting)

In hoeverre deze dingen 150-250 euro meer waard zijn, dat laat ik in het midden. Wat ik vooral wil aangeven is dat vergelijkingen op pure rasterization niet het volledige beeld geven anno 2025. Softwarematige oplossingen spelen een grotere rol dan ooit tevoren. Het is bijna misleidend om zulke features niet mee te nemen in hedendaagse vergelijkingen. Helaas is dat ook het lastige. Vroeger had je vooral keiharde cijfers waar je niet omheen kon. Bij softwarematige oplossingen is dat véél moeilijker in kaart te brengen.

Je hebt bijvoorbeeld geen cijfertjes die aangeven of DLSS of FSR beter is. Je kunt alleen op je ogen vertrouwen. Algemene concensus is dat DLSS en andere team green technieken kwalitatief beter zijn, maar echt feitelijk bewijs is er niet. Ja, wellicht ground truth vergelijken met PSNR/SSIM metrics, maar ook die getallen zeggen niet alles.

Als DLSS upscaling zóveel beter is dan FSR (en je hebt verder geen bezwaren tegen upscaling), dan is dat absoluut iets om te overwegen bij je aankoop. Idem dito voor alle andere features. Het is maar waar je zelf waarde aan hecht.

Hoop dat deze uitleg heeft geholpen!
Op basis van wat zeg je dit? Mijn laatste Nvidia was een 970 en daarna alleen maar AMD gehad. Geen spijt van, en beter voor mijn portemonnee.
Het is zijn ervaring? Hij zegt het niet als feit, dus het is zeker geldig hoor.
medjai69 in 'AMD bevestigt release Radeon RX 9000-serie in maart'

Ik zie dat niet als een ervaring delen maar meer als posten dat iets een feit is... (zijn woordje "is" ;))
Dat zowel Nvidia als AMD met (zogezegd betaalbare) GPU's van slechts 16GB vram op de markt komen is wel heel teleurstellend, vooral voor 4K gamers.

Daarbij komt nog dat velen van ons in de kou blijven staan aangezien er helemaal geen concurrentie gaat komen voor de RTX5070Ti en de RTX5080 qua prestaties ..
Daarbij komt nog dat velen van ons in de kou blijven staan aangezien er helemaal geen concurrentie gaat komen voor de RTX5070Ti en de RTX5080 qua prestaties ..
Tja eigen schuld dikke bult, we hebben (met z'n allen dus voel je als individu niet aangesproken) AMD massaal links laten liggen, dit is de deksel op onze neus :)
Tja de 4000 series van nvidia was gewoon beter dan wat AMD aanbood.
Op welke wereld klopt dat.

4060 Ti tegen de 7700XT? AMD bied hier gewoon de snellere GPU met meer VRAM.
Hetzelfde voor de 4070 of 7800 XT, 4070 Ti of 7900 XT.

Maar mensen kopen gewoon Nvidia. Omdat..? Het is hetzelfde als Apple tegen de rest van de smartphonewereld. Het bedrijf met de duurdere producten die minder kunnen verkoopt beter, om een of andere rede
Een 4060 is ongeveer even duur als een 7600 maar is 10-50% sneller (raster/RT) loopt stiller en koeler en veruikte een pak minder EN heeft DLSS waardoor games die dat ondersteunen gewoonweg veel beter draaien dan op zelfs duurdere AMD kaarten.

Een 4060 TI is duurder dan een 7600 XT (50 euro) maar is een pak sneller (zelfs in 4k) in raster en veel sneller met RT , minder verbuik en heeft DLSS ...

4070 vs 7800 : 4070 100 euro(20%) duurder, gelijk in raster 30% sneller in RT , minder verbuik, dlss ...
...
edit: bron omdat sommige blijkbaar dit niet geloven =

https://www.techpowerup.c...kle-b570-guardian/32.html

Nu met AFMF 2 heeft AMD een stap gezet om beter te concureren mar het moet echt met meer afkomen wil het competitief blijven, of anders moeten ze wel veel geoedkoper worden dan de NV kaarten.

[Reactie gewijzigd door k995 op 21 januari 2025 15:33]

Alleen in het top segment lees 4090. En als het over ray tracing ging 4080S/4080 en 4070Ti).
Maar in laag, midden en high end hadden ze hele mooie alternatieven voor interessanten prijzen en meer VRAM.

[Reactie gewijzigd door Astennu op 21 januari 2025 15:09]

Nee hoor wat heeft amd dat beter is dan een 4060 bijvoorbeeld?
7600 of 7600XT zijn goede alternatieven.
De een is 30 euro goedkoper de ander 40 euro duurder qua prestaties is de 4060 met Raster maar iets sneller dan de 4060. Voor RT zijn deze kaarten toch te traag dus niet relevant. In het geval van de 7600XT heb je 16GB memory en kan je dus max textures gebruiken waardoor een spel er mooier uit ziet.
Dit is de omgekeerde wereld, als AMD kaarten ontwerpt welke de markt wilt worden ze ook verkocht.
Sorry? De meeste AMD 7000 kaarten die direct concurreren met hun Nvidia tegenhangers waren en goedkoper en beter in raster behalve in Ray Tracing wat sowieso marketing nonsens was en alsnog heeft de markt AMD keihard verwaarloosd. Dus ja, eigen schuld dikke bult. De enige reden dat de meeste gamers willen dat AMD blijft concurreren is zodat Nvidia haar prijzen niet verhoogd en niet omdat AMD een daadwerkelijk alternatief is. Maar goed, gamers en marktwerking dat gaat blijkbaar niet goed samen.

[Reactie gewijzigd door Boss429 op 21 januari 2025 11:58]

Ze waren maar ietsjes goedkoper initieel dan de Nvidia tegenhangers, presteren in sommige games beter, in andere minder. Helemaal in Unreal engine presteren AMD kaarten minder. Laat dat nou net de meest gebruikte engine zijn.

Ray tracing is wel degelijk nuttig, er zijn steeds meer games welke het vereisen. Dus vind dat zelf essentieel.

Dan heb je nog het probleem dat AMD kaarten alleen enigzins werkbaar zijn voor gaming, stel voor je doet dingen naast gaming, zaken als 3D rendering, content productie, AI etc dan zijn deze kaarten totaal niet geschikt.

Als AMD deze week de 9070XT had uitgebracht had ik 'm gekocht als een stop gap kaart voor de volgende generatie. Want verwacht niet dat de 5080 volgende week normaal verkrijgbaar is en is duurder. Maar die keuze heeft AMD nu voor mij gemaakt. Er komt een 5080.
Ik moet eerlijk zeggen dat ik geen ervaring heb met GPU’s die gebruikt worden in een professionele omgeving, je kan zomaar gelijk hebben.

Maar welke games vereisen Ray Tracing dan? Ik ben er nog geen tegengekomen in ieder geval. Dit hoor ik echt voor het eerst.
Vooral generative AI lokaal draaien op AMD kaarten is bijna niet te doen. Er zijn wat omwegen maar deze zijn een heel stuk langzamer. Maar ook Adobe zijn producten draaien minder vlot op AMD hardware. De gehele professionele wereld draait op Cuda en dat is exclusief Nvidia. Als ik over zou gaan op AMD wat ik overwoog zou ik mijn AI dingen in de cloud moeten gaan draaien.

Qua games, Indiana Jones en Star Wars Outlaws zijn 2 recente titels welke altijd raytracing aan hebben staan. De eerste welke dit deed was Metro Exodus met de heruitgave.
Oké dat van Indiana Jones wist ik dus niet. Hoe groot is het verschil in performance tussen XTX en 4080 Super in die game precies?

Mijn ervaring tot nu toe met Ray Tracing aan vs. uit is dat ik gewoon echt geen verschil zag behalve dat de frame rate keihard omlaag kelderde toen Ray Tracing aanstond 8)7
Hardware unboxed heeft daar ook een mooie video over gemaakt. Uit iets van 25 games waren er 5 waar het echt mooier was. Bij nog iets van 5-7 maakte het weinig verschil.
In princpe ook alles wat op Unreal Engine 5 draait.
Maar welke games vereisen Ray Tracing dan? Ik ben er nog geen tegengekomen in ieder geval. Dit hoor ik echt voor het eerst.
Voor mezelf :

Cyberpunk 2077: Phantom Liberty

(en Indiana Jones and the Great Circle op de PC van een kennis die ik had gebouwd).

Zelfs met een RTX4090 24GB vram als je deze games in 4K wilt spelen met pathtracing FULL ON .. ;) .. is deze GPU daar niet genoeg voor om alles ten volle te ervaren

De toekomstige AAA games voor de volgende jaren gaan allemaal zoals bovengenoemde worden, dus hiervoor is er met reden een RTX5090 32GB vram op de markt gekomen.

.. zonder concurrentie weliswaar .. :/
De toekomstige AAA games voor de volgende jaren gaan allemaal zoals bovengenoemde worden, dus hiervoor is er met reden een RTX5090 32GB vram op de markt gekomen.
Dit geloof ik niet want de meeste games worden nog altijd gemaakt voor de meeste hardware die de gamers momenteel gebruiken. Dat zijn nog altijd de low end en midrange kaarten.
Dit geloof ik niet want de meeste games worden nog altijd gemaakt voor de meeste hardware die de gamers momenteel gebruiken. Dat zijn nog altijd de low end en midrange kaarten.
Ja, in FullHD kan u dan gamen en instellingen downgraden.

Dan krijg je een Cyberpunk 2077 op PS4 verhaal qua beeld .. :?
Ik moet eerlijk zeggen dat ik geen ervaring heb met GPU’s die gebruikt worden in een professionele omgeving, je kan zomaar gelijk hebben.
Voor 3D rendering/CAD heb je wel degelijk Nvidia nodig, een van de meest populaire hiervoor is de RTX4070 Ti SUPER 16GB vram ..


.

[Reactie gewijzigd door MPIU8686 op 21 januari 2025 18:40]

Dus jij gaat 1200/1500 euro uitgeven? weer Nvidia { die lachen zich eigen helemaal stuk } zoveel geld alweer.
Ik begrijp hier niks van { zijn jullie salaris van 4000/5000 euro? }
Ik weet nog niet of ik voor de 5090 of 5090 gaat, de laatste overweeg ik voor future proofing, je kan dan een generatie of 2 skippen. Je kan natuurlijk ook een 5080 en misschien daarna voor hetzselfde geld een 6080 kopen. Maar ik game op 4K, meer performance is dan wel prettig.

Mijn salaris is inderdaad hier geen probleem niet. Er is geen andere fabriekant met producten welke op dit niveau staan op dit moment. Als AMD dit wel zou hebben (of Intel) had ik dat zeker overwogen.
Ok succes verder haha ik heb dat geld niet daar voor.
Mijn salaris is niet zo hoog ;)
Komt met de leeftijd, toen ik net begon was het ook modaal. Maar in tech waar geen CAO's je salaris beinvloeden kan het hard gaan opeens.
Kom op zeg, je weet best wel hoe deze markt in elkaar zit

nVidia wordt gewoon vaak blind gekocht, zelf als ze de slechtere kaarten hebben.. dit is echt al jaren en jaren aan de hand.

Hun marketing machine is erg goed, maar vooral de mond op mond reclame van gamers doet hun erg goed denk ik

En het hebben van een Halo product helpt ook heel erg, vele mensen denken door dit product dat alle producten beter zijn als de concurrent

Zelf de mensen die roepen en hopen dan AMD een concurrerende kaart neerzetten, willen dat vooral omdat dan de kans dat nVidia kaarten goedkoper worden.

Overig denk ik dat de proffesionele markt die ook gamed niet zo erg groot is, maar dat consumenten nVidia kaarten dus ook voor de pro markt gekocht worden is een feit

[Reactie gewijzigd door Sinester op 21 januari 2025 13:09]

nVidia wordt gewoon vaak blind gekocht, zelf als ze de slechtere kaarten hebben.. dit is echt al jaren en jaren aan de hand.
Mensen prefereren omdat AMD constant net ergens een steek laat vallen.
  • Driver updates zijn er minder vaak dus je zit vaak weken te wachten op een nieuwe update voor een game die problemen heeft betreft rendering.
  • Het werkt niet of minder goed met software buiten games om
  • Secundaire features zoals DLSS, RT, Video encoding lopen ze stelselmatig achter.
Dat is niet blind kopen, dat is gewoon geen mindere ervaring willen hebben. Er is meer dan alleen rasterize performance op de wereld.
Hun marketing machine is erg goed, maar vooral de mond op mond reclame van gamers doet hun erg goed denk ik
Er is een reden dat review sites / channels bestaan, deze worden zeer veel bezicht om informatie te verkrijgen.
En het hebben van een Halo product helpt ook heel erg, vele mensen denken door dit product dat alle producten beter zijn als de concurrent
Zie mijn comment betreft reviewers
Overig denk ik dat de proffesionele markt die ook gamed niet zo erg groot is, maar dat consumenten nVidia kaarten dus ook voor de pro markt gekocht worden is een feit
We leven in het tijdperk van content creatie, iets waar oa Apple op teert.

[Reactie gewijzigd door Sn0wblind op 21 januari 2025 17:24]

Dat is niet blind kopen, dat is gewoon geen minder ervaring willen hebben. Er is meer dan alleen rasterize performance op de wereld.

als je dat aangeeft dan kijk je gewoon niet correct naar de markt, maar eerder groene bril

Mensen prefereren omdat AMD constant net ergens een steek laat vallen.
Driver updates zijn er minder vaak dus je zit vaak weken te wachten op een nieuwe update voor een game die problemen heeft betreft rendering.


exact die typische ondingen dus die altijd bovengehaald worden.
als je dat aangeeft dan kijk je gewoon niet correct naar de markt, maar eerder groene bril
Je hebt objectief een mindere ervaring en ik heb de metrics aangegeven op dat gebied. Kom maar op waar uit blijkt dat dit incorrect is.
exact die typische ondingen dus die altijd bovengehaald worden.
Omdat mensen hier om geven. Denk jij nou echt dat mensen bewust meer uitgeven als je ergens anders iets beters krijgt voor minder? Het probleem is je krijgt niet iets beters.

Als ik een AMD GPU gebruik kan ik niet even vlot mijn renders uit poepen, ik kan geen Stable Diffusion en LLMs meer draaien lokaal etc. Ik heb meerdere AMD based hardware en het duurt altijd even voordat de drivers weer een update ontvangen.
wel heir is je antwoord al omtrent het zogezegd niet updaten van amd drivers:
https://tweakers.net/zoeken/?keyword=amd+catalyst+driver

ik heb hier 2 game computer staan met 6800XT sinds begin 2021, slechte keuze dan blijkbaar en volgens jouw alom miserie :+

kijk misschien eens in de BBG voor GPU wat er recent als beste keuze is?
Best Buy Guide: Beste videokaart voor 1440p-gaming
Best Buy Guide: Beste videokaart voor 1080p-gaming
tweakers is natuurlijk helemaal fout en weet er niks van... nee de individu weet het ALTIJD beter :O

oh daar gaan we weer met de lokale spielerij van AI... nu ben je toch echt wel de defacto standaard, dus moet je zeker hier je buikgevoel komen geven als de standaard
je zit wat te grollen met wat LLM, koop voor 1eur effe online 100keer meer rekenkracht....

trouwens geen alternatief? dat is er wel:
https://www.amd.com/en/products/software/rocm.html
maarja velen kunnen hier heel goed bazuinen maar zouden beter eens wat verder dan hun neus kijken, maarja waarom zou je interesse tonen, je bent toch al propriatary all the way .....

[Reactie gewijzigd door d3x op 22 januari 2025 08:31]

AMD heeft ook geen concurrentie voor de 4090 gehad (die ik heb). Al helemaal niet als je ook geeft om raytracing. Hun duurste kaart uit de vorige generatie was maar vergelijkbaar met de 4080. Dus die heb ik sowieso nooit overwogen.

[Reactie gewijzigd door Llopigat op 21 januari 2025 22:32]

Ik heb met 4K gamen gewoon genoeg aan 16GB VRAM. Sommigen doen het nog met 8 of 12 GB.

Ik wacht dan ook wel tot volgend jaar wegens. Heb met mijn 6000 series GPU ook nog niet echt reden om te upgraden.
Ik heb met 4K gamen gewoon genoeg aan 16GB VRAM. Sommigen doen het nog met 8 of 12 GB.
Hey ..
Ik game ook nog gewoon in 4K met mijn RTX2080Ti 11GB vram .. maar niet meer zoals het hoort.
Alsmaar moet ik instellingen downgraden en downscalen wil ik nog AAA games kunnen spelen.


En veel hangt vooral af van welke games je speelt en/of je raytracing/pathtracing gebruikt zoals in bijvoorbeeld Cyberpunk 2077: Phantom Liberty en Indiana Jones and the Great Circle.

Veel geluk dan met je RTX4090 24GB vram als je deze games in 4K wilt spelen met pathtracing FULL ON .. ;) .. zelfs deze GPU is daar niet genoeg voor om alles ten volle te ervaren

De toekomstige AAA games voor de volgende jaren gaan allemaal zoals bovengenoemde worden, dus hiervoor is er met reden een RTX5090 32GB vram op de markt gekomen.

Als jij nu een 16GB vram koopt kan je voor de volgende 2 jaar gewoon alle games die uitkomen in QHD spelen, maar niet in 4K. Of ga je meer dan €1250 uitgeven aan een nieuwe 16GB vram GPU waarbij je na deze geïnstalleerd te hebben onmiddellijk je instellingen kan beginnen downgraden wil je bijvoorbeeld binnenkort GTA6 of The Elder Scrolls VI spelen ?
Nee, toch niet dacht ik zo ..

Wat moet ik nou kopen voor in m'n nieuwe build dit jaar ?
Ik denk voorlopig een RTX5070Ti of een RTX4080SUPER om een tijdperiode te overbruggen tot er een waardige (en min of meer betaalbare) 4K GPU op de markt komt.
Want ik ga ook echt niet meer dan €1250 voor een GPU uitgeven .. 8)7
Als jij nu een 16GB vram koopt kan je voor de volgende 2 jaar gewoon alle games die uitkomen in QHD spelen, maar niet in 4K.
Rare uitspraak persoonlijk. Zaken als ray tracing en path tracing doen me absoluut niks. Als ik gewoon keurig 4K kan spelen met zo min mogelijk upscaling / frame generation, ben ik al blij. En er is geen enkele game die bij mij de 16 GB vol trekt als ik zaken als ***-tracing weg laat.

Dus dat is dan persoonlijk, ik speel vrijwel alles in 4K, maar zulke technieken doen me gewoon niet veel.
Raytracing is geïmplementeerd in Indiana Jones and the Great Circle. Dus je moet sowieso een GPU hebben die raytracing ondersteund of je kan de game niet eens spelen. Zit dus gewoon in de game verwerkt en dat gaat dan ook de toekomst worden voor AAA titels. Maar ja kan dit natuurlijk ook nog steeds in FullHD spelen. Maar daarvoor heb ik geen 4K monitor .. ;)

Als ik kan, speel ik wel met raytracing/pathtracing FULL MODE ON .. zeker in Cyberpunk 2077: Phantom Liberty wat ik nu moet missen. Maar heb het al meerdere malen gezien hoe het eruitziet als ik builds bouw voor mensen. Dus ja, wil het wel ervaren, maar dan heb ik nu minimaal een RTX4090 24GB vram nodig die het met moeite aankan of een RTX5090 32GB vram die het wel zou aankunnen .. wat me te duur is.
Raytracing is geïmplementeerd in Indiana Jones and the Great Circle. Dus je moet sowieso een GPU hebben die raytracing ondersteund of je kan de game niet eens spelen.
Ik heb de game zelf niet gespeeld, maar ik begreep dat je minimaal een RT capable kaart moet hebben. Maar je niet gelijk 'full on' RT door je strot gedrukt krijgt, maar of kiezen tussen minimaal of meer.

Ze verplichten eigenlijk daarmee enkel een modernere kaart (RTX 2000 series and up).

Op dit item kan niet meer gereageerd worden.