'AMD wil Radeon RX 7700- en RX 7800-series vanaf september verkopen'

AMD zou de komende Radeon RX7700 en RX7800 op 23 augustus op de gamescom-beurs willen presenteren. Dat zegt leaker Moore's Law Is Dead. De kaarten, die in september in de winkel moeten liggen, krijgen naar verwachting een Navi 32-gpu.

Moore's Law Is Dead zegt in een video dat AMD van plan is de nieuwe Radeon-kaarten aan te kondigen tijdens de gamescom, een gamingbeurs die tussen 23 en 27 augustus in Keulen plaatsvindt. De kaarten kunnen daarna in september al te koop zijn, al houdt de youtuber daarbij een slag om de arm. Volgens Moore's Law Is Dead is het nog niet zeker of AMD ook XT-varianten van de RX 7700 en 7800 uitbrengt.

Specificaties van de grafische kaart ontbreken nog, maar volgens Moore's Law Is Dead is in ieder geval duidelijk dat de kaarten een Navi 32-gpu krijgen. Eerder verschenen er al beelden van een Radeon RX 7800 XT met een Navi 32-gpu, een chip op basis van RDNA3 met 64MB Infinity Cache.

De RX 7800 zou 60 compute-units krijgen met 16GB GDDR6-geheugen op een 256bit-bus. Bij de RX 7700 zou dat aantal op 48 of 54 CU's liggen, met 12GB geheugen en een 192bit-geheugenbus. De huidige Radeon RX 7900 XT en XTX hebben een Navi 31-gpu met 84 en 96 CU's. Verdere details over de kaart ontbreken nog.

Tegelijk met de geruchten heeft leaker All The Watts vermeende 3DMark-benchmarkscores voor Time Spy van de RX 7700 en de RX 7800 naar buiten gebracht. Daaruit blijkt dat de kaarten een flink hogere score dan de eerdere generatie krijgen. De RX 6700 haalde een score van 11.223, de RX 7700 een score van 15.568. Dat is een verbetering van bijna 39 procent. De RX 6800 haalde een score van 16.477, de RX 7800 een score van 18.957. Dat is een verbetering van iets meer dan 15 procent.

Door Tijs Hofmans

Nieuwscoördinator

17-07-2023 • 15:03

56

Lees meer

Reacties (56)

Sorteer op:

Weergave:

Interessant! En Nvidia, komt zij dan in die periode met de 5000 serie als reactie? ;-)
Waarschijnlijk komt de GeForce 50-serie niet voor 2025:
https://www.hardwareluxx....nachfolger-erst-2025.html
Dus als ik het goed zie dan zou een RX 7800 even snel zijn als een RX 6800 XT.
Correct, dit is namelijk wat de rest van de RDNA3 lineup ook doet. AMD heeft een beetje een scheve schaats gereden met deze generatie. RDNA3 is nauwelijks sneller.

Dat hoeft nog niet eens zo'n probleem te zijn als de RX 7800 voor een goede prijs in de markt gezet wordt zodat er in ieder geval nog iets van vooruitgang in prijs/performance is, maar met de huidige markt hoeven we daar eigenlijk niet op te rekenen. Ik verwacht dat de RX 6800 XT (zolang nog verkrijgbaar) dezelfde of zelfs een iets betere prijs/perf gaat bieden -- en dat is inclusief verbruik.
Behalve natuurlijk CoD MW2 en in minder mate Cyberpunk waar de uplifts wel iets hoger zijn. O-) :P
Maar de grote RDNA3 feature, Dual issue/VOPD, werkt ogenschijnlijk alleen in CoD MW2. Krijg je ook meteen bijna 20% extra fps erbij. Opeens ga je daar van gemiddeld 30% naar bijna 50% sneller met de RX6600 vs. RX7600.

CoD lijkt alleen al jaren eigenlijk geprogrammeerd te zijn op een manier die Radeon's erg goed laat presteren. Het is denk ik meer een indicatie dat Dual issue/VOPD in ieder geval werkt en niet fundamenteel kapot is op RDNA3 op een hardware niveau. De grote vraag is en blijft alleen, gaat AMD hun vermoede compiling problemen verhelpen zodat het in meer games gaat werken? Want dan komt RDNA3 tot leven en veranderd het competitive veld behoorlijk. Een antwoord of het gaat gebeuren, heb ik er echt niet op. :/

Dus wat ik al maanden zei in het Radeon topic. N32 zit zeker op RX6800XT niveau, iets beter lijkt afhankelijk van de clock speeds. Met 260W en RX6800XT niveau, vermoed ik dat AMD wederom voor 2600MHz out of the box gaat, zoals elke andere RDNA3 GPU. Dan zit je op 19.7TFOPS. RX6800XT zit op 20.7TFLOPS met 2250MHz. In de praktijk doen ze iets meer. En dan kijk je naar kleine details zoals geheugenbrandbreedte. En in theorie zou je de chip aardig richting 3GHz moeten kunnen overclocken en dan zit je op RX6900XT niveau of iets beter. Perf/watt vergelijking is dan alleen dramatisch.

Maar ik maak wel bezwaar als dit de RX7800 gaat worden. RDNA1/2/3 gen over gen is meestal 25-35% per tier. Dat haal je hier niet. Dit gaat naar ruim 30% over de RX6750XT. Het antwoord qua benaming zou dan ook RX7700XT zijn, desnoods noemt AMD het de RX7700XTX, want meer X is beter. :Y)

Qua prijs, tja de videokaart komt waarschijnlijk 10% boven de RX4070 in rasterisation, 4GB meer VRAM, hoger verbruik, geen DLSS2/3, minder goede RT in al die Nvidia geoptimaliseerde RTX games en het zal alsnog iets minder zijn in UE5 titles met het veel beter te optimaliseren Lumen. Het idee dat AMD hier $550 voor gaat vragen, speelt zeker in mijn hoofd. Maar dan kijk je waarschijnlijk gewoon weer naar een DOA. Dan wacht je gewoon totdat de prijs gaat zakken, zoals ook gebeurd met de RX7600 en RX7900XT. Dit hoort gewoon een $450, max $500 GPU te zijn. Het is upper midrange, niet high end.

Want dan is dit potentieel zelfs de "winnaar" van deze generatie van teleurstellingen. Dit tenzij Nvidia dan reageert door de RTX4070 flink te verlagen. Maar dan is het alsnog een morele winnaar omdat het de markt iets minder knudde gemaakt heeft. Of ze dat bij Nvidia ook doen is dan de vraag. Zeker omdat een "RX7700XTX" op $450 met de RTX4070 op $500, ook impliceert dat de RX7700 rond of net onder de $400 zit. De RTX4060Ti maakt daar geen schijn van kans tegen. Misschien in rasterisation en RT performance als je niet over de 8GB aan VRAM gaat. Maar die 8GB VRAM en 128 bit bus maken de RTX4060Ti, compleet kansloos in zo ongeveer elke grote game die dit jaar is uitgebracht. :z

edit: Goed gezien van @Nox. :Y
De scores van de "RX7700" en "RX7800" suggereren eerder 30% sneller dan de RX6700 en RX6800. Dat veranderd het beeld een beetje. Want daarmee is de "RX7700" ongeveer net zo snel als de RX6800 en de "RX7800" valt dan vergelijkbaar uit met de RX6900XT.

Als die 15.568 scorende chip dan inderdaad de "RX7700" is, tja die gaat een RTX4060Ti makkelijk verslaan. Maar die "RX7800" lijkt dan rond de 10% sneller dan de RTX4070 uit te komen. Hoger verbruik etc. Ben ik alleen wel bang dat AMD weer te veel ervoor denkt te kunnen vragen. :/

[Reactie gewijzigd door DaniëlWW2 op 24 juli 2024 06:28]

Verbruik is ook niet iets waar ze zich echt op richten heb ik het idee. Dat is gewoon 'een gegeven' wat eruit lijkt te rollen. Zeker omdat de VS een enorme markt is en ze daar niet echt kijken naar energieverbruik, het is ook spotgoedkoop daar. Maargoed, 200 of 240 watt is enkel een verschil voor het klimaat, voor je portemonnee is het met een paar uur gamen per week niet significant, eurootje of 5 per jaar. Na 5 jaar gaan we over 25 euro praten, als iets dan meer verbruikt maar goedkoper is, dan is de terugverdientijd niet significant genoeg om een dealbreaker te slaan. Hoewel imho een lager verbruik wel een van de strevens moet zijn.
Het is ook niet het belangrijkste, maar het is wel een perceptiepunt voor de eindprijs.
Ik ben zoals zovelen niet bepaald gecharmeerd van de prijzen van deze generatie videokaarten. Ik vind de meeste niet eens zozeer slechte producten (kuch RTX4060Ti wel kuch), meer dat de prijzen vaak veel te hoog zijn. En elke reden die een lagere prijs zou rechtvaardigen, neem ik dan ook graag aan. ;)

Ik heb namelijk allang door dat N32 op best een goed technisch punt lijkt te zitten. 60CU/256 bit bus/16GB VRAM is waarschijnlijk perfect voor veel gamers nu. Het zou een goede stap zijn over de hele meute aan videokaarten zoals RX5700, RX6600XT, RTX2070, RTX2080, RTX3060Ti etc etc. Omdat de laatste paar generaties zo duur, teleurstellend, niet te kopen of onbetaalbaar waren, is de behoefte voor een goede (upper) midrange optie er denk ik zeker.

Want met de "VRAM apocalypse" waar 8GB VRAM eindelijk niet meer afdoende is voor veel games en DirectStorage dat er ook aan zit te komen, met waarschijnlijk nog meer VRAM vereisten omdat die compressed files die de GPU nu zelf kan gaan decompressen, natuurlijk ook ergens opgeslagen moeten worden, is de vraag naar een goede midrange GPU denk ik aanzienlijk. Immers bijna drie jaar nadat de PS5 en XSX kwamen, zitten veel gamers waarschijnlijk nog steeds met een langzamere GPU in hun systeem. Dat is geen houdbare situatie. Game ontwikkeling in de zin van technische verbetering is ook niet stil komen te liggen.

Nu een relatief betaalbare midrange 12GB optie in de markt zetten voor rond de $400 en een snellere upper midrange 16GB optie voor wat meer, is precies waar veel gamers die willen upgraden, waarschijnlijk op zitten te wachten. De RTX4060Ti faalt totaal hierin te voorzien en over de 16GB versie daarvan lijkt Nvidia het niet eens te willen hebben, terecht voor $500 met die 128 bit bus. De RTX4070 is in theorie best een goed midrange product voor veel gamers, maar niet voor $600. De enige reservering die ik erbij heb is de vraag hoe lang 12GB wel afdoende gaat zijn. Want nu games voorbij de 8GB daadwerkelijk in gebruik zijn gegaan, lijken veel ook meteen richting die 12GB te zijn gegaan.

En N32, tja met de dual issue/VOPD problemen hoort die GPU rond de RTX4070 te zitten, een SKU eronder en dan lijkt het erop dat er eentje erboven zit qua raserisation. Als dual issue/VOPD nu wel gaat werken in veel games, als, tja dan staat N32 denk meer direct tegenover AD104 en dan zou die "RX7800" dichtbij de RTX4070Ti zitten. Maar dat is voorlopig wensdenken. Eerst maar eens zien waar AMD nu precies mee komt, of ze de prijs nu eens niet te hoog maken en na slechte reviews het weer omlaag gaat. En dan zien we wel of dual issue/VOPD nog gaat werken. Voorlopig vind ik dat de prijs van N32 gebaseerd moet zijn op het ontbreken en dan de mindere RT hardware alsmede gebrek aan features zoals DLSS2. Dus een stuk goedkoper dan een $600 kostende RTX4070. :)
Die 8GB is te weinig is zwaar overdreven.
Die grens ligt of 1080p of 1440p of 4k gamed.
Naast moet het op extreem setting een 1080p medium doet het ook als hoge fps moet hebben. Dan als vram te weinig is dan vangt 16x pcie4.0 gebrek aan vram op. Meeste game kakken dan niet dramatisch in.
Pas op oude hardware 8x pcie 3.0
Of TB4 extrene GPU box met 4pcie 4 passthrough.

Alles is duurder door inflatie dat maakt de kosten post voor gkaarten in totaal ook hoger. Dus als je dezelfde prijs verwacht 4 jaar terug alsof AMD nV intel liefdadigheids instanties zijn. Kijk je eerder of loon inflatie gecompenseerd is. En dat loopt voor de meeste achter chronisch of te lang.

Als ik hard getroffen wordt door energie prijzen inflatie loon stijgt matig is dat mijn probleem en is g-kaart kopen uitstel de juiste en is oorzaak die russen en niet AMD of nvidia. Nvidia heeft de luxe van grote vraag naar AI zij kunnen als ressesie hard doorslaat geneog R&D voor RTX50 RTX60 RTX70.
Als AMD zen 4 zen5 rdna3 4 5 met dumprijzen moet doen dan wordt er weer gehakt in r&d
Er moet belans zijn van redelijk marge die marge is ook voor wat 3 genratie r&D teams aan resources krijgen.
Zelfs met inflatie meegerekend is het €50-€100 duurder dan eerst. Verhoogde administratiekosten dan maar?
Het is niet overdreven. :)
-De eerste 8GB videokaarten kwamen er al in 2013. En rond 2016 werd het al min of meer de standaard voor de meeste midrange videokaarten. We zijn inmiddels zeven jaar verder en in die jaren is nogal wat gebeurd.
-We kregen ray tracing in 2018, zo ongeveer de meest geheugen intensieve grafische techniek die je in een videogame kan hebben. Zeker omdat het hybride is waarbij ray tracing wordt toegepast op een rasterised virtuele omgeving. Die moet in kaart worden gebracht voor de RT en dat kost enorm veel rekenkracht en geheugen.
-We zitten in veel games nog steeds met texture pop in, lage resolutie textures, heel veel dynamische render resolution aan de randen van je scherm of verder weg en vaak ook beperkte particle effects. Dat kost allemaal VRAM om te verbeteren. Het is iets dat eindelijk begint te komen nu de rekenkracht van de GPU's zelf, zoveel beter is geworden dan het in 2016 was. Maar nog steeds zitten veel GPU's met diezelfde 8GB aan capaciteit. VRAM capaciteit ging bijna twintig jaar gestaag omhoog met sneller wordende videokaarten en opeens stopte het. We zijn alleen nog niet bij fotorealisme. Dat 8GB te weinig zou gaan worden, was in 2016 al duidelijk. De vraag is wanneer. Nou het is 2023 geworden, maar er waren vorig jaar al games waarbij het al te weinig was.
-DirectStorage gaat verder juist meer datatoegang voor de GPU faciliteren. De logische conclusie is daarbij ook dat meer data voor GPU ook ergens opgeslagen moet worden waar de GPU erbij kan. Dat is VRAM.

Is er ook nog dit. HWU heeft een RTX3070 vergeleken met de professionele tegenhanger met iets lagere clock speeds en 16GB aan VRAM. En de ene na de andere recente game wint de A4000 het van de RTX3070, op 1080p. Dus 8GB aan VRAM is ook niet afdoende meer voor een upper midrange videokaart van de vorige generatie.
https://www.youtube.com/watch?v=alguJBl-R3I

En als laatste nog de RX6800 vs. RTX3070Ti. Let vooral op het gestotter en de texture pop in met de RTX3070Ti. Het verschil is veel meer dan meestal een paar procent sneller voor de RX6800. De RX6800 levert consistent een speelbare ervaring die passend is voor die klasse aan videokaart, de ogenschijnlijk redelijk vergelijkbare RTX3070Ti niet.
https://www.youtube.com/watch?v=Rh7kFgHe21k&t

Verder maak ik me echt geen zorgen om AMD of Nvidia hun marges. Zeker Nvidia verdient meer dan genoeg. Het is ook zo dat de wereldwijde computermarkt in een flinke dip zit en er overschotten voor veel componenten of eindproducten zijn. Dan kan je kiezen voor een laag volume en hoge prijs strategie of je kiest voor prijsverlagingen voor hoger volume. Zowel AMD als Nvidia doen beiden. Nieuwe generatie duur, oude generatie met wat korting verkopen. En die kortingen lopen steeds verder op. Inmiddels is er bij de Radeon's ook al sprake dat de generatie langzaam maar zeker in prijs aan het zakken is. Lijkt me ook niet zo vreemd omdat ze niet verkopen. Uiteindelijk kost dat meer dan iets verkopen voor een lagere prijs. ;)

[Reactie gewijzigd door DaniëlWW2 op 24 juli 2024 06:28]

Nou ja slechte reviews... In het geval van de 7600 waren de reviewers over het algemeen best te spreken over de kaart. Alleen niet over de prijs, die vonden ze een slag te hoog. Ook en/of waarschijnlijk doordat Intel (dat constant wordt vergeten) de prijzen van hun kaarten drastisch heeft verlaagd. En de kaarten van Intel zijn niet slecht te noemen. Drivers zijn flink verbeterd en eigenlijk alleen in oude(re) games laten ze soms (nog) te wensen over.

De derde fabrikant is zeker van invloed op wat de prijs gaat doen. nVidia is er hard achter gekomen dat gamers écht niet bereidt zijn elke prijs te betalen. Alleen dat zal ze een zorg zijn, want door AI is de vraag naar GPU (en dus niet per se videolaarten) dusdanig hoog, dat het niet meer uit maakt voor ze.

En analoog daar aan geldt, dat AMD er ook hard is achter gekomen dat gamers echt niet bereidt zijn om elke prijs te betalen, alleen dat zij (nog) niet de vruchten kunnen plukken van de vraag naar GPUs voor AI. En dus de prijzen hebben moeten aanpassen.

Ik heb geen idee op welke termijn Intel Alchemist+ (als ze dat nog wel willen, en niet gelijk naar Battlemage gaan voor volgend jaar) wil uit gaan brengen. Geruchten zeggen eind dit jaar, en die geruchten zijn onbetrouwbaar te noemen op zijn best. Alleen als dat wel zo is, dan gaat het een hete herfst worden in GPU land.
. De RTX4070 is in theorie best een goed midrange product voor veel gamers, maar niet voor $600.
Ik vind dit zo'n opmerkelijke trend. Dan is er een kaart die sneller is dan het vorige high-end model, de 3080, en dat gaan we dan als midrange bestempelen. Vervolgens ophef want hij is wel erg duur voor een midrange kaart. Tja klinkt als je eigen probleem creëren.

Gezien de prijzen die veel tweakers de afgelopen jaren hebben betaald mogen we momenteel niet echt klagen. Er zijn mensen die dik 800 euro hebben betaald voor een 3060 Ti (of zelfs een non Ti).
Want nu games voorbij de 8GB daadwerkelijk in gebruik zijn gegaan, lijken veel ook meteen richting die 12GB te zijn gegaan.
Er zijn games die zo veel als ze kunnen alloceren. Dat betekent niet dat je performance degradatie krijgt wanneer er minder VRAM beschikbaar is.

Natuurlijk komen we uit een tijd waarbij zelfde onderkant van de midrange kaarten zoveel VRAM hadden dat je daar vaak nog very high of zelfs ultra textures op kon draaien. Die tijd is echter voorbij. Maar in de basis is dat geen slecht nieuws. Dat betekent dat de games eindelijk weer stappen gaan maken in hun texture details. Voor wie minder VRAM heeft is het altijd mogelijkh om je texture details lager te zetten. Dus uiteindelijk hoeft er niemand te verliezen en is het vooral goed nieuws dat 8 GB niet langer voldoende is voor 'ultra' textures. Dat werd onderhand wel tijd.
Ik heb de 7900XT ook specifiek gehaald om COD te spelen. Starfield wil ook gaan spelen maar dit zit wel goed met AMD. De 6950XT ook gehad maar die werd echt heel heet daarom toch maar voor de 7900XT gegaan. Ben er erg tevreden mee tot heden.
Als je alleen CoD speelt dan is het ook logisch. :)
Maar ik zou graag zien dat VOPD in meer games werkt en dat AMD hun marketing leugen rond de N31 launch zou herstellen. Want die scores van hun, leken allemaal verdacht veel erop dat VOPD wel werkte op een of andere manier.

Maar hoe dat zit is me nog steeds onduidelijk. Ik neig ernaar dat het niet eens een domme leugen was. Dit was te overduidelijk verkeerd en zou meteen doorzien worden bij de launch, wat gebeurde. Ik neig dat het een geval van interne miscommunicatie was met enorme gevolgen voor de receptie van N31. De Radeon klassieker dus. :P

Het roept alleen wel de vraag op, wat is er nu aan de hand en gaat het nog komen? En die is zo lastig in te schatten. Ik heb echt geen idee.

[Reactie gewijzigd door DaniëlWW2 op 24 juli 2024 06:28]

Ik speel letterlijk alleen maar Warzone en heb daarom ook de RX 7600 gehaald een goede maand geleden. Zeer blij mee en wat een verschil met de Gtx 1650oc die ik had. Thanks voor je uitgebreide reacties op dit artikel. Kan voor sommige handig zijn.
Als je optimalisatie wilt zien in games is dat niet zozeer AMD probleem maar meer dat devs de markt leider als render backend guidline volgen en dat is nvidia.
Radeon en nvidia en daar komt dan ook nog intel bij hebben voor DX12 en vulkan guidlines van do & don’t’s .
Dan heb je dus groot extra werk probleem als er iets in de guides zit waar Do bij de ander dont is of andersom. Dan dev keuze welke kies je dat minste werk die vaker genomen wordt als een merk extreem gat markt leid. Of je implement 2 of meer path na detecting merk en gen. Extra werk dus.
Ander oorzaak kan programming idom of patern waar hardware gevoelig voor is en los staat van de guid. Zoals keuze van data structure. Of verschil hoeveel const data past in shared buffer in warp. Verschil zou dan passen const in shader registers of L1 shared buffer . Past de kernel instructie blok volledig in registers of L1 .
Geen idee hoe rtx40 verschild kwa resources tov rdna3.
Ik heb het altijd zeer opmerkelijk gevonden dat de AMD kaarten zoveel beter waren dan de Nvidia kaarten in Call of duty games, vooral met wat oudere Nvidia kaarten is performance in COD games echt slecht, waar het met oudere AMD gpu's nog best goed gaat, nu snap ik een beetje waardoor dat dus komt, bedankt voor je uitleg.
Daar moet alleen wel de nuance bij dat er heel wat meer games zijn waar het tegenovergestelde eerder waar is. CoD is hierin best uniek. :)
...want meer X is beter. :Y)
De beste koop is dan ook de XFX RX7900 XTX.
Tenzij die nog een XXL versie uitbrengen ga je niet veel meer X krijgen denkik :9

[Reactie gewijzigd door .MaT op 24 juli 2024 06:28]

Als het om deze benchmark gaat:
review: AMD Radeon RX 6800 en RX 6800 XT - Het Zen-moment voor Radeon

3dmark Time Spy scores dan zit de 6800XT op 17.300 punten. Met bijna 19.000 punten zal een 7800 dan reeds 10% meer performance bieden. En als je hem vergelijkt met zijn voorganger, de 6800, is dat 14.700 punten naar 19.000 punten. Dat is bijna 30% sneller.

Een 4090 Ti vergelijken met een 3090 gaat ook een beetje mank als je generatie-gain wilt vergelijken, niet?

Moet het stroomverbruik van de 7800 natuurlijk wel rond de 200-230 watt zijn en de prijs goed (€500)
Het heeft inderdaad geen zin om de vergelijking op modelnaampjes af te vallen want dat is maar wat de fabrikant ervan maakt. Ik heb het over uplift per watt en per dollar/euro van RDNA3 t.o.v. RDNA2 en die is povertjes te noemen.
Moet het stroomverbruik van de 7800 natuurlijk wel rond de 200-230 watt zijn en de prijs goed (€500)
En dat is nou net wat niet het geval gaat zijn, tenzij men bij Radeon marketing eens een keer echt goed wakker geworden is. Maar dat zou de eerste keer zijn.
En hoeveel procent performance/watt is er dan bij gekomen? Wat jij povertjes vindt, vind ik misschien best redelijk.
Goed gezien. :)
Altijd gedoe met die Timespy scores opzoeken en vergelijken, maar 19.000 is ongeveer RX6900XT niveau en 14.800 is dan ongeveer RX6800 niveau. Dat veranderd het beeld een beetje en dan kijk je naar richting de 30% sneller voor de "RX7800" over de RX6800. De RX6700XT zit dan rond de 12.500, circa 25% minder dan de "RX7700". Die lijkt dan ook rond de 30% sneller dan de RX6700 uit te kunnen komen.
Ik heb net een Gigabyte Aorus Master 6800XT aangeschaft. Timespy score van 19000. Denk dat dit komt door de driver verbeteringen. Zou nu dus ongeveer gelijk moeten komen met een 7800.
RDNA3 doet het niet lekker nee. In sommige games wil de architectuur wel een beetje en zie je aardig wat winst. Maar met andere games valt het heel erg tegen. Met RT is er meer winst te zien maar ook dat is nog niet genoeg om de concurrentie met nVidia aan te kunnen.
Ik vraag me af of ze die double ALU's wel goed kunnen benutten het lijkt er op van niet. En ik vraag me ook af of de stap naar MCD's en GCD's niet toch wat roet in het eten gooit. Je ziet namelijk wel dat hogere memory clocks bij de 7900XTX wel voor betere prestaties zorgt. Als ze de fabric clocks daar aan gelinkt hebben zodat die ook sneller wordt als je geheugen snelheid omhoog gaat kan dat wat verklaren.

Wat het ook is ik hoop dat ze het bij RDNA4 kunnen oplossen want tenopzichte van RDNA2 vs Ampere is nVidia weer verder uitgelopen.

Ik snap wel dat AMD nog geen haast maakt met het uitbrengen van deze kaarten gezien hoe goed Navi21 presteert en dat ze daar nog wat kaarten van over hebben. Navi32 brengt niet echt iets nieuws naar de tafel. Die kaarten krijgen ook 16GB ram en hebben hooguit wat betere RT prestaties. Qua performance per watt zullen ze gezien de rest van de RNDA3 lineup ook niet veel beter zijn en AMD lijkt qua prijs ook niet echt met nVidia te willen concurreren (ze vinden zelf dat ze al een goede deal zijn al beginnen de RDNA3 kaarten nu wel goedkoper te worden).
Ik begrijp niet helemaal wat jij als criterium aanneemt: als ik de prestaties van de AMD lijn vergelijk met die van Nvidia, dan maakt AMD gehakt van Nvidia in termen van fps/€, behalve uiteraard voor raytracing review: Videokaart Best Buy Guide - De beste gpu's in februari 2023
Ook Nvidia's software kan een reden zijn om daarvoor te kiezen. Ik denk na over 4k VR gaming en de 7900 Xt(X) walst daar over alles van Nvidia heen.

[Reactie gewijzigd door batteries4ever op 24 juli 2024 06:28]

Ik kijk naar de pure prestaties als we het hebben over RDNA2 vs Ampere en RDNA3 vs Lovelace.
Qua prijs prestatie verhouding doen ze het wel goed. Maar qua pure performance en performance per watt niet.

Ik zeg ook helemaal niet dat mensen een RTX 4000 moeten kopen. Het zijn allemaal stuk voor stuk veel te dure niet interessante kaarten voor wat ze bieden je kan veel beter een RX6000 of RTX3000 kaart kopen of een 2e hands gaat.
RX7000 is iets beter qua prijs maar je kan bv veel beter een 6650XT voor 250 euro kopen dan een RX7600 voor 290. Qua performance per watt zijn ze ongeveer gelijk alleen is de 6650XT een stuk goedkoper. Qua RT zijn ze beide veel te traag om er wat aan te hebben.

In het iets hogere segment is de 6700XT een veel betere keuze dan de 4060(TI) en AMD heeft daar nog geen 7000 kaart beschikbaar.

De 7900XTX kan nog interessant zijn als je iets snellers wilt dan een 6800XT / 6950XT. Is een betere keuze dan de 4070 Ti of 4080 qua prijs prestatie / euro per GB. Die laatste is alleen qua performance per watt wel een stuk efficiënter.
Ah OK, ik las het als "de laatste generatie AMD kaarten is slechter als de laatste generatie Nvidia kaarten" Jij bedoelt echter "de laatste generatie kaarten van zowel AMD en Nvidia is teleurstellend t.o.v. hun vorige generatie"
Wat ik speel is meeste DLSS en geen FRS, anders had ik wel RX6700 genomen. Het is wat het is.
N32 is wel een kleinere 60CU midrange chip tegenover de vorige generatie haar high end 80CU chip.
Verder suggereren die scores eerder dat de "RX7800" rond de RX6900XT zit, beiden rond de 19.000 Timespy Graphics score. Maar die "RX7800" zou dan 260W verbruiken en heeft een stuk betere RT hardware. Ik denk dat het best een goede chip kan zijn, maar de prijs bepaald alles. :)

En mocht dual issue/VOPD nog gaan werken in meer games, als, dan kan er zomaar nog richting de 20% erbij komen qua raster in die games. Want dat was/is de grote RDNA3 verbetering die niet werkt in de meeste games om onduidelijke redenen. Maar dat het wel lijkt te werken in CoD MW2 geeft aan dat het in ieder geval niet een geval "Vega Primitive Shaders" is die op hardware niveau niet werkten voor RDNA1 gefikst waren in de hardware. Overigens heeft RDNA3 de oude pixel en vertex shader stappen verwijderd en is het alleen maar primitive shaders. :)
RX 7800 voor 499,- zou een goede prijs zijn maar dat kunnen we vergeten denk ik.
Zou eerder tussen de RX6800 en de RX6800xt

De RX7800XT zal dan net boven de RX6800XT zitten.

Ben eerder benieuwd naar de prijzen.

[Reactie gewijzigd door Robin4 op 24 juli 2024 06:28]

Dus nog geen nieuws over de eerder per ongeluk gelekte 7950 XTX. :-(
verwachting was geloof ik Q3 van dit jaar. Ze zijn bezig met optimalisatie wat ik heb vernomen. Ze lopen nog tegen wat problemen aan m.b.t. 3 ghz halen van GPU clock.
Zeer twijfelachtig dat deze in 2023 al komt. Ten vroegste 2024 zou ik denken
Snap de strategie niet helemaal, rx 7900 is (bijna) het hoogste wat amd te bieden heeft en het is ongeveer even sterk als een 4070ti (ook even duur want nvidia is super duur) maar wint door de ram hoeveelheid (future proof), de rest van nvidia is veel te duur dus die vallen weg maar dan kan toch alles wat ze nu announcen alleen tegenvallen?
4080? Meeste test wint de 7900xtx gewoon.. dusja niet bepaald fair om te deggen 4070ti
7900XT heb ik het ook over, niet de xtx, die is ook weer wat duurder. (1000 ipv 800), en die is heel fair om tegen de 4070ti te vergelijken volgens hardware unboxed (0 tot 3% verschil 1440p en 4k)
"wint" door de ram?
Denk dat dlss3 beter is dan een paar gb meer ram.
Hoop dat deze qua snelheid op kan boksen tegen de 4070 en qua prijs goedkoper is.. Kan ik eindelijk een fatsoenlijke nieuwe kaart betalen.
Denk dat ze die zoals de 6800 XT in de markt zullen zetten, dus 50 euro on 4070 of zoiets.
50 euro minder dan het nvidia equivalent en de kaart is DOA. 30% hoger stroomverbruik dan de 4070 is niet min.
Tja de vorige kaart (7600) kwamuit voor 100 euro meer dan de 6600 (nu , niet launch prijs want die waren absurd hoog) en gelijk aan de 6600 xt /6650 xt.
Die is 10-15% sneller dan 6600 5-10 dan die 6600 xt en gelijkaardig aan die 6650xt.


6800 XT is 550 4070 625 en de 4070 is ongeveer 5-10% sneller gemiddeld.
Als ze dus de 7600 volgen zal die 7800 even snel als de 6800 xt zijn, tegen iets duurder wat die gelijk van prijs of iets lager maakt. Idd doa hoog verbruik geen dlss3

AMD zal die dus of betere prestaties geven of goedkoper in de markt zetten.
Ik denk dat de de groep die kijkt naar stroom verbruik lang niet de grootste groep is, de 6000 serie van AMD was beter dan de 3000 serie van Nvidia op dat gebied maar mensen kochten toch massaal 3000 serie.
Ik vraag me echt af waarom AMD zooolang wacht met de release van die "midrange" kaarten...
Kan toch niet alleen aan voorraden liggen?

Een 7000 kaart , zelfs met ongeveer dezelfde performance als een 6000 kaart, lijkt toch veel beter omdat die "nieuw" zou zijn?
De 6000 reeks is 3 jaar geleden uitgebracht...
Het lijkt erop dat AMD heel veel moeite heeft met RDNA3. Ze kunnen niet alle kaarten blijven uitstellen tot ze "het" gefixt hebben, maar ze weten ook dat wat ze nu (lees; de afgelopen maanden) zouden kunnen leveren niet goed genoeg zou zijn om Nvidia bij te benen. Ze kunnen ook niet niks uitbrengen, want dan raken ze wéér de aansluiting met Nvidia kwijt (die ze net met RDNA2 weer enigszins terug hadden na jaren lang aan modderen met Vega en Polaris).
Dus releasen ze wat ze kunnen. De 7900 kaarten konden ze waarschijnlijk niet op korte termijn verder verbeteren, en de 7600 was een gok die ze durfden wagen omdat ze altijd nog een 7500XT / 7600XT / 7650XT kunnen uitbrengen. Genoeg ruimte om daar te manoeuvreren. Maar het lijkt erop dat ze niet genoeg vertrouwen hebben om 7700 / 7800 kaarten uit te brengen, zeker nu de markt lijkt in te zakken en ze dus meer performance voor minder geld moeten weggeven. (Zie ook de last minute prijsverlaging van de 7600)
Ik denk dat ze gehoopt hadden eindelijk weer een meer premium prijs te kunnen vragen voor hun producten, maar als dan de performance tegenvalt en markt ook nog terugloopt dan zitten ze snel weer in het nauw. Ik ben geen accountant, maar volgens mij heeft AMD nog lang niet zoveel financiële buffer als Intel / Nvidia…
Inderdaad, de 8xxx series liggen al bijna op de boot.
Rx 7800 xt 15% sneller dan de 4070 en 550 euro zou de deal van het jaar zijn.
Ik wilde deze week een RX 7900XT(X) aanschaffen, want ik was er wel klaar mee te wachten op een kaart die uit eerdere nieuwsberichten op het internet bleek, dat ie er al lang en breed had moeten zijn.
Goed, ik wacht nog wel twee maanden voor ik de RX 480 vervang, En die is hoognodig toe aan vervanging.
Same here! (rx580)
Ik speel nog wel even een lading vanaf de steam backlog, kom de zomer zeker wel door hoewel ik wel erg graag een keer aan cyberpunk wil beginnen.
Als iemand met een stervende 480 is dit heel herkenbaar. Maar hopen dat het wachten het waard is en dat we straks niet alsnog beter af zijn met een 6900/6950 op dit prijspunt.
Ik heb vorige maand een 7900XTX gekocht voor 980€ (wilde er geen 1000€ aan geven), maar kwam wel van een R9 270X 2GB, net geen 10 jaar oud ;)
Nuja ALLES is beter dan die kaart :o
Ik zou zeggen kom maar door

Ik kan wel een nieuw kaartje gebruiken :)
Ik wacht op ZZ series, echt Top!
I see what you did there

Op dit item kan niet meer gereageerd worden.