AMD-ceo: Radeon RX 9070-videokaarten komen 'begin maart' op de markt

AMD's komende Radeon RX 9070-videokaarten gaan 'begin maart' in de verkoop. Dat bevestigt ceo Lisa Su tijdens de bespreking van AMD's kwartaalcijfers. Een AMD-topman noemde eerder al een release ergens in maart, maar Su maakt dat nu concreter.

Su zegt in een teleconferentie met aandeelhouders dat begin maart 'de eerste Radeon RX 9070-videokaarten' uitkomen. Ze benadrukt daarbij dat de RX 9070-gpu's gericht zijn op het middensegment en '4k-gaming naar de mainstream' moeten brengen. De ceo deelt verder nog geen concrete details over de videokaarten en noemt ook geen concrete datum. Volgens Chinese techwebsite Uniko's Hardware valt de release echter op donderdag 6 maart.

AMD zou de Radeon RX 9070-videokaarten in eerste instantie aankondigen tijdens de CES in Las Vegas, maar de kaarten werden niet genoemd tijdens zijn keynote. Het bedrijf deelde voortijdig wel enkele details over de videokaarten, maar noemde geen specificaties, adviesprijzen of concrete releasedatum. Volgens geruchten houdt AMD eind deze maand een persconferentie, waarin het naar verwachting meer zal delen over de gpu's. Het chipbedrijf zei eerder al dat de RX 9070-videokaarten 'een eigen evenement' verdienen.

Inmiddels zijn de specificaties van AMD's komende RX 9070-videokaarten overigens al uitgelekt, merkte ook VideoCardz op. Het bedrijf komt met een Radeon RX 9070 en 9070 XT, beide gebaseerd op een nieuwe RDNA 4-architectuur. De RX 9070 krijgt naar verwachting 56 compute-units voor een totaal van 3584 streamingprocessors. De XT-variant zou 64 CU's krijgen, ofwel 4096 cores. Beide kaarten moeten over 16GB GDDR6-geheugen beschikken en een 256bit-geheugenbus krijgen.

AMD Radeon RX 9070 en 9070 XT

Kwartaalcijfers AMD: recordomzet uit datacenterchips en Ryzen

Lisa Su deelde de concretere releaseplanning voor de Radeon RX 9070-videokaarten in het kader van AMD's kwartaal- en jaarcijfers. Het gamingsegment van AMD waaronder de Radeon-gpu's vallen draaide afgelopen kwartaal met 56 procent minder ten opzichte van een jaar eerder. Volgens Su komt dat voornamelijk doordat er wordt voorbereid op de komst van de Radeon RX 9000.

Voor de rest draaide AMD wel een recordomzet van ruim 7,6 miljard dollar in het laatste kwartaal van 2024. Dat komt onder andere voort uit de datacenterdivisie van AMD, die verantwoordelijk is voor EPYC-cpu's en Instinct-gpu's en een omzet van 3,9 miljard dollar noteerde. Dat kwam neer op een stijging van 69 procent ten opzichte van dezelfde periode in 2023. Ook het clientsegment, waarin AMD zijn Ryzen-cpu's voor desktops en laptops onderbrengt, behaalde een nieuw omzetrecord van 2,3 miljard dollar: een stijging van 58 procent ten opzichte van een jaar eerder.

Over heel 2024 noteerde AMD een omzet van ongeveer 25,78 miljard dollar, waar die in 2023 nog 22,68 miljard dollar bedroeg. De winst steeg over heel 2024 met 22 procent naar ongeveer 12,72 miljard dollar.

AMD-kwartaalcijfers Q4 2024AMD-kwartaalcijfers Q4 2024AMD-kwartaalcijfers Q4 2024AMD-kwartaalcijfers Q4 2024

Door Daan van Monsjou

Nieuwsredacteur

05-02-2025 • 18:12

92

Lees meer

Reacties (92)

92
92
29
4
0
42
Wijzig sortering
Is het al bekend of hier ook een XTX-versie van gaat komen? Ik zit in twijfel of ik nog een 7900 XTX moet kopen of zal wachten op een nieuwe XTX-versie

[Reactie gewijzigd door JPaenen89 op 5 februari 2025 18:55]

Als je toch al weet dat je in ieder geval een 7900 XTX wil dan zou ik lekker 1-2 maandjes wachten tot de 9000-serie uit is. Als die een significante sprong maken en goede FPS/€ leveren dan haal je die, en zo niet dan is de 7000-serie in ieder geval in prijs gedaald, helemaal tweedehands.

[Reactie gewijzigd door Halfscherp op 5 februari 2025 20:14]

Het valt mij op dat de videokaarten nog veel op 16GB blijven hangen, terwijl er stiekem al steeds meer games voorbij komen die meer GB’s vragen om op (ultra) high settings te kunnen spelen
Videokaarten blijven op 16GB hangen vanwege A.I., AMD en NVIDIA willen niet dat mensen voor een prikkie A.I. farms kunnen opstarten met een GPU van 24+GB.

[Reactie gewijzigd door TheDeeGee op 5 februari 2025 20:36]

Dit is niet het geval,

Het gaat hier ook om hardwarematige keuzes/limitaties.

De chip is opgebouwd met in het midden de cores en aan de randen de memory interfaces. Die interfaces zijn fysiek lange dunne stukken silicium. Die als een soort band om de rand van de chip liggen. Die interfaces bepalen dus ook de grootte van de chipoppervlakte. De chip moet minimaal zo groot worden zodat alle memory controllers langs de rand passen. Dit heeft ervoor gezorgd dat de 5090 zo'n gigantische chip is. Omdat er 16 memory controllers op de 'die' geplaatst moesten worden.

Als je nu minder van die controllers hoeft te plaatsen op je chip loopt de omtrek van je chip die je nodig hebt dus fors terug en wordt je chip daarmee ook fors goedkoper (grote chips zijn vreselijk duur omdat er minder chips uit een wafer gemaakt kunnen worden en de kans op defecten hoger is).

Dit is oa waarom een rtx5080 chip vele malen kleiner is.

En dit verklaard ook waarom er minder geheugen wordt geplaatst op de gpu's
Je kan er ook voor kiezen om grotere memorychips aan te sluiten en zo minder interfaces nodig te hebben. Of minder bandbreedte per chip te accepteren. Deze keuze voor die 5090 had dus niet alleen te maken met die 32GB maar vooral ook met die 512GB/s bus snelheid.

Hoewel er dus zeker een relatie is tussen de omtrek van de GPU chip en de hoeveelheid geheugen, zou men daadwerkelijk wel meer geheugen erin kwijt kunnen. Kijk bijvoorbeeld naar de datacenter varianten waarbij een H100 variant tot wel 94GB op een enkele core krijgt, zonder dat de omtrek van de die ook direct 3x zo groot is.
Daarom maken ze ook geen 32GB 5080 :)
En het feit dat de 5080 letterlijk de helft van de hardware aan boord heeft zal niet meer met de grootte te maken hebben?

Daarnaast, wat zath ook zegt, de profi kaarten hebben 80+ GB aan boord.
Je denkt wellicht in termen van GPU mining farms en projecteert dat op GPU AI farms.
Maar dat werkt totaal anders. Niet alleen geheugen speelt een rol, maar de hele architectuur.
  • Zonder unified memory kan VRAM kan niet gedeeld worden tussen de kaarten, dus je blijft zitten met bijvoorbeeld 64 losse 32GB fragmenten. Een groot model past niet in één keer in het geheugen, waardoor je moet sharden, wat leidt tot veel data-overdracht en overhead.
  • Geheugenbandbreedte is een bottleneck zonder InfiniBand/NVLink. PCIe 5.0 is te traag voor serieuze AI-training.
  • Consumentengpu’s verbruiken meer stroom en koelen wordt een probleem zonder een custom oplossing.
  • RTX 50-kaarten zijn geoptimaliseerd voor FP4 (inference), niet voor FP8/FP16, wat ze inefficiënt maakt voor AI-training.
  • Je mist de standaard AI-managementsoftware, dus je moet zelf tooling schrijven om alles aan te sturen.
  • NVIDIA verbiedt officieel het draaien van consumenten-GPU's in een serverpark, dus je hebt geen support.
En als je denkt: dan draai ik het wel in mijn schuur, heb je alsnog 64+ kW aan stroom nodig.
Wil je een AMD Instinct MI325X evenaren qua geheugen? Dan heb je 64x 32GB RTX 50’s nodig.
Dat kost je minstens 10x zoveel en levert een suboptimale setup op, die ook nog eens meer stroom vreet en trager traint. Stroom per TFLOP is waar het om gaat qua kosten.

AI-farms bouw je niet met consumentengpu’s. Het kan, maar ongeveer net zo goed als Doom spelen in Excel.
Met de Ryzen AI MAX komt daar toch verandering in, kan je zelf DDR5 inprikken tot 128GB in quadchannel setup waarvan 96GB kan toegewezen worden als Vram (de iGPU heeft 2560 cores, wat heel wat meer is dan de Ryzen 9's met hun ingebouwde 128 cores).

Ik vermoed dus dat vanaf dat dit los beschikbaar zou komen, dit wel een enorme hit zou zijn puur voor AI toepassingen ipv HTPC gaming en mini pc's.
Dit is precies waarom ik nu toch maar de xtx heb gekocht. Voor VR speciaal is de 24 GB toch een stukje beter. En ik kon een Sapphire Plus nog voor 909 euro aanschaffen een week geleden. Daarna ging de prijs meteen een stuk omhoog al staat hij nu op 941.

Ik was al heel lang aan het wachten op de 50 serie maar door de huidige prijzen en zeker de performance van de 5080 heb ik toch maar besloten tot de koop.
De 9070 kan zeker interessant zijn, maar de 16 GB en gelijke raw performance (waarschijnlijk), hebben me toch doen besluiten de xtx te kopen.

Misschien had ik beter kunnen wachten maar ik was het wachten zat en ben nu heel blij met mijn kaart. VR performance is top en met wat undervault valt het verbruik ook best mee
Hier hetzelfde verhaal, Ik ben ook overstag gegaan en heb mij vorige week een 7900XTX aangeschaft, en tot op heden nog geen spijt!
Tenzij je de absolute top-grens opzoekt (VR, Flight Simulator, bepaalde games in 4K raytracing zonder upscaling, of 8K ultra) zit je met 16GB echt wel snor. Helemaal omdat Nvidia de 3080 met 10GB VRAM en de 4070 met 12GB VRAM heeft uitgebracht. Devs hebben geen zin in boze social media hetzes dat dat soort kaarten nu al achtergesteld worden.

En tja, als je aan die top wil zitten zul je diep in de buidel moeten tasten, je kan op het moment niet voor een dubbeltje op de eerste rang zitten.

[Reactie gewijzigd door Halfscherp op 5 februari 2025 19:33]

Er zijn nu al games die op 4k ultra 15GB VRAM gebruiken. Dit is dus echt de reinste onzin. Dit is planned obsolescence aan de kant van Nvidea en totaal onacceptabel gezien de prijs van die kaarten.
als je 4k ultra wil spelen moet je ook niet voor n dubbeltje op de voorste rij willen zitten......
Als een game 15gb vram gebruikt, is dat niet een optimalisatie/memory leak dingetje?
Eerder een teken dat de game juist goed geoptimaliseerd is door nog een beetje buffer te houden voor high-end kaarten met 16GB geheugen.

Daarnaast gaat het over 4K ultra. Op een 5080 is het wel wat krap inderdaad, de 7900 XTX biedt immers meer geheugen. Aan de andere kant lijkt me de 16GB grens nog wel een tijdje een zekerheid. De consoles komen hier ook niet aa en die worden voorlopig nog niet afgelost.

Optimaliseren kan je verder ook gewoon zelf. Daar zijn de opties nu eenmaal voor op een PC.
Heb je mij horen zeggen dat de prijs een issue is dan? 😂 Dus voor een dubbeltje op de eerste rang zitten, is slechts een invulling… En ja, ik speel o.a. Flight Simulator 2024
Als prijs je niks uit maak dan is je vraag toch compleet nutteloos? Koop nu een 7900 XTX, koop bij release een 9070 XT(X) van een scalper en verkoop je 7900 XTX met verlies.
Of je bent even daadwerkelijk een grote meneer en koop een 4090 (24GB) of 5090 (32GB) om al je toekomstige VRAM-zorgen weg te nemen :z
Je kunt ook niet reageren als je toch niet normaal kunt reageren… Dat de prijs geen issue is, wil niet zeggen dat ik van plan ben om elke 2 maanden een nieuwe videokaart te kopen. Ik stel gewoon een normale vraag, daar kun je gewoon normaal op reageren. Je hoeft niet gelijk zo kleinerend en neerbuigend te reageren, daar vraagt hier niemand om
Dat klinkt mooi in theorie, maar de praktijk laat iets anders zien. De 3080 en 4070 zijn al tegen hun VRAM-limieten aan het lopen in sommige moderne games, en de trend is duidelijk: meer VRAM wordt steeds belangrijker. Zelfs nu al zie je in titels als The Last of Us Part I en Hogwarts Legacy dat 16GB eerder een veilige middenweg is dan een overkill. Dus ja, 16GB ‘zit snor’ – maar voor hoelang? Tegen de tijd dat 12GB écht te weinig is, zijn de prijzen voor kaarten met meer geheugen waarschijnlijk nog verder omhooggeschoten.
Omdat onze GPU producenten verwachten dat we straks allemaal lokaal llm's willen draaien. Dan kunnen ze straks wat meer centjes vragen wanneer de vraag stijgt.
Zo zeker als jij het stelt hoeft het helemaal niet te lopen, in de VS lopen de prijzen van de 7900XT(X) inmiddels alleen maar omhoog wegens afnemende voorraad vgm.

Nu is het wel even afwachten wat de 9070XT gaat doen, maar als dat minder is dan een 7900XTX kun je met wachten wel eens stuk duurder uit gaan zijn als die voorraden 7900XT(X) dan ook hier ver afgenomen zijn. En 2de hands is ook niet altijd garantie op een betere deal, in het groene kamp lopen de 2de hands prijzen hier in de V&A voor de 4070 Ti Super en sneller inmiddels op tot boven de nieuwprijzen van een half jaar geleden. Kortom het is niet geheel ondenkbaar dat de 7900 serie straks uitverkocht is met 2de hands prijzen hoger dan de prijzen nu.
XTX gaat waarschijnlijk een high-end model impliceren, wat er dus niet gaat komen aldus AMD.
Ik heb maandag 1 gekocht maar dat is omdat ik nu een gpu nodig heb, over 3 maanden zouden de prijzen van gpu's een beetje moeten dalen
In de USA is de 9700xtx al schaars gezien de reddit posts. Hier in west europese shops lijkt er nog geen schaarste te zijn
Hoe bedoel je vanwege de reddit posts?
hij bedoeld ''te lezen in vele reddit posts''
Zover was ik ook 😂 Maar gaat het puur over de verkrijgbaarheid of doelde hij bijvoorbeeld op slechte ervaringen/problemen met de XTX versies…
Sinds de 5080 en 5090 reviews verkopen de 7900 XTX als warme broodjes, is gewoon een goede deal voor die 900euro / dollar https://www.reddit.com/r/...oing_out_of_stock_across/
in de tweakers pricewatch staat een 7900xtx ook op de 2e en 4e plek categorie: Videokaarten
dus ook hier toch nog ff populair. Heel veel spannender is het niet:)
Aah super, dankjewel voor je reactie
Ik snap wat je bedoeld
Ik heb zelf twee weken geleden een 7900XTX gekocht, en nog geen seconde spijt van gehad 8-) .
Wat goed om te horen! Ik wil de Asrock Phantom Gaming 7900 XTX gaan kopen, omdat mijn overige hardware ook van Asrock is. Ik had liever de Taichi-variant, maar die is in Nederland alleen in het wit te krijgen, de zwarte is niet te vinden of tegen belachelijke prijzen…
Ik heb zelf de ASUS tuf gekocht, omdat ze ooit een hoop problemen met wegbrandende GPU kaarten hadden voorkomen door componenten van 2 cent te gebruiken, ipv componenten van 1 cent waar de rest van de producenten voor had gekozen.
Laten we hopen dat deze kaarten de kaarten van nvidia (behalve de 4090 en 5090) obsoleet maken zodat we terug wat deftig geprijsde kaarten krijgen en we niet naar een toekomst gaan waar fake frames de norm wordt om "meer" fps te hebben.
Volgens mij is het ook overkill om zo'n dure kaart (4090, 5090) te kopen als je monitor een verversingsfrequentie heeft van bv. 100-200Hz. Monitoren met hogere verversing zijn vaak ook veel duurder, zeker als het om de hogere resoluties (4k) gaat.
Het ligt eraan, wil je geen "fake" frames en pixels (dus ook geen DLSS), dan moet je of de grafische kwaliteit flink minder schalen, of je FPS kan alsnog erg laag worden.

En dat is het probleem, het is makkelijk klagen over DLSS / Framegen, maar het is niet alsof met puur raster performance je fatsoenlijke performance krijgt bij moderne spellen.
Moderne spellen vooral UE5 zijn gewoon slecht geoptimaliseerd, zoveel beter ziet het er allemaal niet uit vergeleken met 10 jaar geleden, maar het kost nu wel belachelijk veel performance.
Eens, en dat is wel triest, zeker omdat je toch juist een grote engine gebruikt omdat die voor flink gedeelte de optimalisaties voor je hebben gedaan.
Tevens is het raar dat spelinstellingen op steeds extremer gezet worden.

Als een GPU per 2 jaar toch 30% sneller wordt, zou je willen dat die 30% niet verloren gaat in games door settings hoger te zetten die je nauwelijks ziet. Dan gaat er veel GPU kracht verloren.
Het gaat vaak niet om nog meer frames dan 200, maar ook om nog meer detail/objecten die getoond kunnen worden met die highend kaarten. Dus ook zaken als betere/realistischere belichting, nog minder popup in de verte etc.
De RX 9070 XT gaat concurreren met de 5070. Dat is het dan ook wel.
De 9070 gaat tegenover de 5070 staan waarschijnlijk. De 9070 XT zal tegenover de 5070 TI komen te staan.

Belangrijke nuance qua pricing en performance.

Overigens mooi om zo´n groei voor te kunnen leggen als bedrijf. Ze zijn al een lange tijd terug goed bezig bij AMD terwijl concurrent Intel schrik moet hebben om overgenomen te worden, zo slecht draait het daar.

De nieuwe Intel reeks is ook een drama. Verkoopcijfers van het Duitse mindfatory gaven aan dat van alle verkochte CPU´s van afgelopen maand iets rond de 7% Intels zijn. De rest is allemaal AMD qua losse verkoop.

Wat ze vooral nog nodig hebben is om op de servermarkt hetzelfde te doen. Dat lijkt ze maar niet te lukken ondanks dezelfde performance, gigantisch veel cores en laag verbruik. Overigens hetzelfde qua laptop designs. OEM´s zijn precies moeilijker te overtuigen dan consumenten. Zal wel iets te maken hebben met de *kuch* lucratieve contracten die ze hebben met Intel?
Servermarkt zal AMD voorlopig nog wel links laten liggen nu is uitgekomen dat laden van microcode update niet veilig is.

https://www.tomshardware....-zen-1-to-zen-4-epyc-cpus
Hoezo? AMD heeft een kwart van de servermarkt in handen en in tegenstelling tot de problemen die Intel had (stroomverbruik/performance, Spectre en meltdown bugs) lossen ze deze op.
Deze exploit is redelijk specifiek. Het grootste probleem is voor (cloud) klanten die op SEV vertrouwen zodat de hosting partij niet mee kan kijken wat er in de VM gebeurt.
Er waren daarvoor ook al andere exploits (memory dimms faken bv) en als de workload echt sensitief is zou ik het altijd op eigen hardware draaien.

Voor mensen die geen SEV gebruiken is dit een redelijk non-issue in de zin van dat als iemand al root access heeft om de microcode te laden dan is dit niet het grote probleem om je zorgen over te maken.
Grappig, dit was recent in het nieuws: https://www.tomshardware....,%25%20year%2Dover%2Dyear.

"AMD outsells Intel in the datacenter for the first time in Q4 2024"

Ik zie ook steeds meer AMD, vroeger was het hoofdzakelijk voor HPC doeleinde maar nu is het echt overal terug te zien, en ze profiteren van hun HPC roots als het aankomt op de AI bubble qua investeringen en het feit dat VMware alternatieven socket based licenties hebben en AMD beter is qua hoge core density.
AMD doet het goed in de servermarkt.

Maar Intel komt wel terug. Ondanks wat mensen verkondigen zijn de Intel processors prima. En is het beleid ook niet slecht.

Intel kan beter met AMD concurreren op het moment, dan AMD met Intel kon de laatste 20 jaar.
Dat zou zeer spijtig zijn. Nog een generatie wachten dan jammer genoeg.
AMD heeft zelf een poosje geleden aangegeven uit High-End gestapt te zijn wat GPU's betreft.
Stiekem hoop ik er op dat AMD ons allen gaat verrassen en gewoon een super kaart gaat uitbrengen voor een schappelijke prijs.

Dit zou een enorme reclame zijn voor het bedrijf en zo kunnen ze terug markt aandeel van NVIDIA afsnoepen.
Dat soort dingen hou je simpelweg niet geheim, kan niet met hoeveel mensen ermee werken.
"een superkaart voor een schappelijke prijs" is vooral gewoon een gunstige prijs/kwaliteitverhouding, niet een kaart die Nvidia wegblaast. Gemiddelde gamers kopen geen 5090 en in veel gevallen ook geen 5080, zelfs de 5070 is nog immer overpriced maar we betalen het ervoor omdat het alternatief nog duurder is.

Als de nieuwe kaarten en nieuwe beeldtechnieken in de buurt komen, zit AMD zeker in een interessante hoek.
Het is best een grote chip. Lijkt me dat deze meekan met de 5070ti en 4080. Als de prijs, RT en FSR4 goed zijn, dan kan het wel eens goed uitpakken.
Nvidia heeft geen concurrentie. AMD volgt wat Nvidia doet en probeert het goedkoper na te maken met lagere kwaliteit. Hardware based software acceleration is waar nvidia goed in is. AMD alleen in hardware maken.
In highend heeft Nvidia geen concurrentie van AMD. In midrange kan je wel prima voor AMD kiezen.
Stiekem hoop ik dat ze nog een verassing achter de hand hebben, die ze niet aangekondigd hebben omdat ze wilde wachten tot Nvidia hun kaarten volledig gereleaset en in de schappen heeft.
Ga daar maar zeker niet van uit, want dan was dat op de aandeelhoudersvergadering wel publiekelijk gemaakt, naast dat zoiets echt wel lastig stil te houden is.
Ze benadrukt daarbij dat de RX 9070-gpu's gericht zijn op het middensegment en '4k-gaming naar de mainstream' moeten brengen.
.

4K gaming met een 16GB GDDR6 vram lijkt me niet echt toekomstbestendig.

Ik game momenteel in 4K met een 11GB GDDR6 en tal van recente games zijn gewoon niet meer te spelen op mid-range instellingen .. Indiana Jones and The Great Circle resulteert gewoon telkens in crashes als ik alles niet op LOW zet en dan haalt ie het nog nauwelijks.

Het verschil tussen 11GB en 16GB GDDR6 vram is zogoed als niks voor de volgende jaren en dit gaat zeker niet maken dat je in 4K op mid-range instellingen kan gamen.

Daarvoor moet je minstens richting de 24GB vram gaan .. 8-)
Ik snap dat je als speler gewoon wil dat het werkt. Maar als van de hele generatie kaarten van AMD, Nvidia en zelfs Intel, de enige kaart die geschikt is voor 4k met mid range instellingen de RTX5090 is, dan moeten de devs zich eens gaan afvragen voor wie ze spellen maken.
Aan gedacht dat 4K ultra misschien high-end gaming is? Lisa Su zegt dat de 9070 '4k-gaming naar de mainstream' moet gaan brengen, maar ze laat in het midden welke games en op welke settings.

Ik zou niet rekenen op een kaart waarop AAA titels te spelen zijn op 4K Ultra met RT aan. AMD stelt niet voor iets dat ze geen high-end GPU uitbrengen.

Console al de PS5 en Xbox spelen ook 4K af en die kun je gerust mainstream noemen. Alleen werken die met upsscaling en lage fps.

[Reactie gewijzigd door ABD op 5 februari 2025 23:14]

Zowel degeen waar ik op reageerde, en ik zelf, noemde specifiek 4k op mid instellingen, niet op ultra. En natuurlijk zitten de meeste spelers nog niet op een 4k scherm, maar als er werkelijk één GPU van €3k is in een generatie waarop je een spel kan spelen op 4k met hogere settings dan "low", dan heb je gewoon als devs je werk niet gedaan.
Nee hoor, ik game al zeker tien jaar in 4k, toen GTA V zelfs uit was gekomen op de PC, speelde ik al in native 4k. 4k is niet alleen toegankelijk voor 4090's en 5090's. Nu speel ik ook games netjes in 4k met een RTX 4080, echter komen de problemen pas wanneer ik full ray tracing/path tracing inschakel. Gewoon rasterisatie games kan ik zelfs netjes zonder DLSS spelen. Maar dat heb je ook met een 4090 of zelfs een 5090.

Het enige probleem waar ik soms tegen aanliep was dat sommige games niet 4k geoptimaliseerd waren. Dus in sommige games had ik een te kleine UI. Maar dat kwam gelukkig niet veel voor en sommige games kon je gewoon een .ini file aanpassen (vooral UE games).

Ik was begonnen met 4k toen ik een HD 7970 XFX kocht gevolgd door > XFX R9 290x > GTX 1080 > RTX 4080. Dat is mijn line-up waar ik jaren op 4k heb gespeeld. En heb tot nu toe de meeste games gewoon volop kunnen spelen.

En als de nieuwste games toch moeilijk beginnen te doen, dan is het meestal tijd voor een nieuwe GPU. Maar dit keer zit ik te denken om vrij snel voor een RTX 5090 te gaan. Ook door het feit dat ik zelf leuk vind om met Iray te spelen maar ook Rasterisatie, Ray/Path tracing en Lumen.

Sinds twee jaar heb ik veel interesse ontwikkeld in belichting van 3D applicaties en games.

[Reactie gewijzigd door Toonen1988 op 6 februari 2025 00:05]

Als je ten volle in 4K wilt genieten van Indiana Jones and The Great Circle met pathtracing ON en alles op Ultra kom je er zelfs niet met een RTX4090 24GB vram en moet je inderdaad richting de RTX5090 32GB vram gaan kijken.

Zulke AAA games zijn dan ook de toekomst en daar gaan we alsmaar meer van zien verschijnen.

Maar dit is geen uitzondering, er zijn in het verre verleden al tal van games uitgekomen die hun tijd qua graphics ver vooruit waren en waarbij je toen bij release van de game ook ineens de nieuwste high-end parts voor je PC mocht aankopen mocht je dat spel willen spelen. Maar dat zijn dan nu ook de games uit het verleden die nog steeds op handen worden gedragen, net omdat ze hun tijd al ver vooruit waren.
Precies, met 16GB houd het bij 1440p60/120/240 wel op, wat ook gewoon de sweetspot is wat gaming op PC betreft.
Volgens mij snap je niet helemaal hoe videogeheugen werkt.

Zolang 16 GB voldoende is voor de te laden data is er niks aan de hand. De resolutie is slechts 1 factor hierin, maar niet de grootste. De verversingssnelheid van je monitor heeft er echter niks mee te maken.

Als de GPU snel genoeg is om op een hogere resolutie dan 1440p te spelen, is de hoeveelheid VRAM enkel van relevantie in die zin dat het geen beperking vormt voor alle data. Ga je er overheen, zakken de prestaties als een kaartenhuis in elkaar. Er is nu vrijwel geen enkele game op de markt die op maximale settings meer dan 16GB nodig heeft. Wellicht zwaar gemodde games?

Voor de echte top kaarten als de 5080 en sneller zou ik meer VRAM verwachten, daar wil je niet binnen twee jaar eventueel de textures terug moeten schroeven.

Maar in dit segment, waar je gebonden zit aan een 256 bit interface en dus de keuze hebt uit 8, 16 of 32 GB, is 16 de enige logische keuze.

Gezien de consoles hier voorlopig niet overheen gaan en Nvidia ook niet bepaald scheutig is qua VRAM, zijn die 16 GB voor de 9070 serie gewoon genoeg. In het allerergste geval zet je t.z.t. de textures op high ipv ultra, en je bent er ook.
Idd , ben nog maar een 1-2 keer de limieten tegengekomen van de 20gb op de 7900xt.
Op 4k ultra alles heb ik meestal nog overschot qua vram,meestal is het de gpu die tekort schiet😂
Precies. En dat is bovendien een snellere GPU.

De enige reden waarom de 9070XT eventueel geholpen zou zijn met 20GB, is omdat daar meer chips voor nodig zijn. Meer chips = meer connecties = meer bit = meer bandbreedte.

Dat laatste bevordert de prestaties. Maar dan zit men dus weer in een ander segment en prijsniveau.

We zien nu net dat de 16 GB gebruikt gaat worden op de allerzwaarste settings. AMD kan me veel wijsmaken met de claim “4K voor de massa” maar dat is natuurlijk marketingkolder. Lukt vast op medium en/of met upscaling. Maar niet op settings die het VRAM gebruik daadwerkelijk boven de 16GB uit weten te stuwen. Tenzij met zware texture mods.
Vreemd want ik speel op een 3060ti met 8GB VRAM alles op 1440p ultrawide, ook spellen zoals Cyberpunk 2077 met RT aan.
En ik speel Cyberpunk 2077 in 4K met een RTX2080Ti 11GB vram waarvan als ik het vlot wil kunnen spelen raytracing moet afzetten.

Ik zou dus minstens 16GB vram nodig hebben hiervoor, maar waar is dan de toekomstbestendigheid zoals ik hierboven ook al aanhaalde ?

€1000 gaan uitgeven om juist voor een paar jaar verder te kunnen. Want bij Indiana Jones and The Great Circle ben ik verplicht raytracing op minimale instellingen aan te zetten en dat trekt de gehele game naar beneden, dus moet ik ook andere instellingen zitten downscalen. Zelfs een RTX4090 met 24GB vram kan Indiana Jones and The Great Circle niet op ULTRA aan, is de ene crash achter de andere als je pathtracing niet downscaled, vooral bij de filmpjes ligt blijkbaar telkens het probleem. Voor deze laatste game zou je al een RTX5090 32GB vram nodig hebben en die zou dan natuurlijk wel future proof zijn. Maar zulke bedragen geef ik niet uit.

Als je €1000 voor een GPU gaat uitgeven verwacht je toch dat deze futureproof gaat zijn voor op z'n minst de volgende 5 jaar.
Ik speel al jaren 4K met 8 en nu 12 GB - een beetje tweaker krijgt dat wel voor elkaar.
Ik speel al in 4K sinds de RTX2080Ti 11GB uitkwam, maar 4K games van toen zijn niet de 4K games van nu. Bij Indiana Jones and The Great Circle zit raytracing geïmplementeerd in de game, dus speel je dit standaard altijd met raytracing en dat vergt enorm veel extra's van je GPU. Momenteel moet ik deze settings op het laagste zetten wil ik toch nog in 4K kunnen gamen, maar op deze manier komt de game natuurlijk niet volledig tot zijn recht.

Dus het gaat hier niet over "voor elkaar krijgen", het gaat hier over realiteit en de toekomst.
De meeste gamers zijn allemaal al van FullHD naar QHD overgestapt en nog een hele boel stappen daar naar over, maar het zijn niet zoveel gamers die naar 4K overstappen. Ikzelf heb QHD overgeslagen in 2019 en ben rechtstreeks van FullHD naar 4K gegaan toen.
je hebt toch DLSS nu?
DLSS bestaat al van 2019 en is een upscaler .. dus wat bedoel je ?
Je zegt dat games van toen speelbaar waren op 4K maar dat games nu veeleisender zijn. Maar na je 2080 is DLSS er gekomen - wat gamen op 4K nog toegankelijker maakt.
Die path tracing was super zwaar in Indiana jones en ik moest met mijn 4070 ti super (16GB) naar medium texture set en ik moest soms net dlss naar balanced. Soms kon ik wel naar quality gaan, maar soms storte de frame rate helemaal in elkaar. Door de vram, nam ik aan. Als ie net over het randje ging, was het klaar.

Maar dit was alleen met full raytracing en pathtracing. En het zag er echt fenomenaal uit!
Mogelijk dat Nvidia dan de markt laat flooden met hun kaarten om AMD het wind uit de zeilen te halen.
Ik denk dat het Nvidia op dit moment weinig tot niks interesseert hoeveel GeForce GPU's ze verkopen of hoeveel AMD verkoopt.. Zolang ze de prestatiekroon houden is het goed, vandaar ook de snellere 5090 waar de rest 'meh' upgrades krijgt.. De winst wordt geboekt op de zakelijke datacenter markt..
Onmogelijk, ze zitten gewoon aan hun max. Punt is dat de grote bedrijven druk hun AI datacenters uitbreiden. Die consumenten videokaarten zijn gewoon een bijvangst daarvan.

Enige wat dit kan veranderen is dat of de AI software beter op AMD gaat lopen. Maar het gevaar daarvan is weer dat die kaarten dan ook gewoon in prijs stijgen. Of er komen extra fabrieken om de chips te maken. Ja of AI moet uiteindelijk komende periode helemaal niks worden, maar dat zie ik niet zo snel gebeuren.
Tja, dat punt hoor ik vaak maar aan de andere kant heeft Nvidia wel flink geïnvesteerd om een nieuwe GPU lijn op de markt te zetten...dat kost ook het nodige.

Als datacenters inderdaad de hoofdmoot zijn, waarom maak je dan uberhaupt een 5000 serie?

Als de prijzen en voorraad in maart nog steeds zo idioot zijn als nu van de 5000 serie en AMD weet wel een goede prijs/kwaliteit en beschikbaarheid voor elkaar te krijgen dan denk ik dat AMD daar een leuke slag kan slaan.

Zelf ben ik ook in de markt voor een nieuwe videokaart. Mijn eerste idee is een 5080, 5070TI of een 4070TI. De 5080 valt af vanwege de idiote prijzen. De 4070TI is sinds de release van de 5000 serie ook alleen maar gestegen in prijs, dus dat wordt het ook niet.
De 5070TI zou nog wat kunnen worden, maar gezien de recente ontwikkelingen denk ik niet dat daar eind februari een leuke deal voor te vinden is...

Dus dan toch maar eens goed naar het AMD kamp kijken!
Volgens mij werkt het een beetje zo dat de chips die niet goed genoeg zijn voor de datacenter modellen in de consumenten versies komen. Beetje wat er bij CPUs ook gebeurd. Niet genoeg werkende cores, dan gaat de chip naar een minder duur product.

Pin mij er niet op vast dat dit ook echt 100 procent zo bij de 5000 serie gaat, maar dat is wat ik er over had gehoord.
De 9070 was twee weken geleden al in winkels gespot, dus deze videokaart is gewoon klaar. Waarschijnlijk wilt AMD nu de tijd gebruiken om af te wachten wat de 5070 doet en multi framegen in te bouwen.

Ik weet niet of het slim is. 3 maanden uitstel voor een kaart die al in winkels ligt is een lange tijd.
Gerucht was dan ook dat het uitstel met de drivers te maken heeft, niet zo zeer de hardware...
Ik was vandaag de Monster Hunter Wilds benchmark aan het testen op een Ryzen 5700X3D en RTX 3070 op 1080p en kan je vertellen dat ik er nogal deperessief van werd. Als ik een minimum framerate wilde hebben van 60 fps op het zwaarste onderdeel(open world met een hoop gras) moest ik het volgende kiezen.
DLSS Performance, Alle settings op very low en had dan nog genoeg headroom om wat effecten aan te zetten.

Modern gaming is om te huilen en trash tier optimalisatie compenseren met 1000 euro GPU's is niet de oplossing.

Ik was dus van plan om te upgraden naar een RX 9070 XT als de price/performance ratio beter was dan dat van Nvidia. Maar waarom dat doen als ik ook een oudere game kan spelen zonder de insane erge blurry textures, smearing, ghosting en artifacts.
Het is niet allemaal verschrikkelijk. Ik kon er tenimste om lachen toen ik pixel art lightning strikes zag op max 80 fps.
Had je toevallig ook Ray tracing aanstaan? Zoja, dan light daar waarschijnlijk de oorzaak. Ik haal gemiddeld 95.76 FPS, 4k en DLSS op quality. Geen blurryness of ghosting gezien en Ray Tracing op maximale.

Ik gebruik zelf een I9 14900KF en RTX 4080. De RX 9070 XT zou de concurrentie aan moeten gaan met de RTX 4080 volgens sommige bronnen. Dus verwacht ongeveer dezelfde performance met een RX 9070 XT.
Nee raytracing stond uit. Mijn average was fine maar ik ga niet een game spelen waar combat in zit die onder de 60 fps dipt in de open world als er wat grassprietjes gerenderd moeten worden.
Deze 9070 moet op z'n minst sneller of even snel zijn als de 5080, want de 5080 is niet veel sneller dan een 4080. Anders is deze al DOA, want de 7900XTX is gelijk aan de 4080.

[Reactie gewijzigd door xChArGe_NL op 6 februari 2025 01:24]

Waarom moet dat?
Als hij sneller is als de 5070Ti en goedkoper als de 5080 dan is er een prima markt voor bijvoorbeeld.
De RX 9070 XT concurreerd ook niet met de RTX 5080. Vergelijk de CU's van de 7900 XTX met de 64 van de RX 9070 XT.
XT Vs Ti en 9070 Vs 5070 en 50 dollar goedkope. Weet niet of dat gaat werken. XT RT zal wel op niveau zijn van de 5070.
Maar goed Nederlandse verkopers gaan gewoon zelf ver boven de advies prijs zoals altijd.
Ik herringer me nog met de rx480 toen Azerty de enige shop was die adviesprijs hanteerde. Maar daarna ook niet meer.
Middensegment dat tegelijkertijd 4k mainstream maakt. Dus zegt die nu dat 4k tegenwoordig middensegment is of dat j4k met low settings normaal wordt?
Zo weet je nog niks over de kwaliteit van deze kaarten, al vrees ik dat het een kleine stap zal zijn?
De 5080 is ook maar paar procent sneller dan 4080..

Op dit item kan niet meer gereageerd worden.