AMD onthult Radeon RX 7700 met RDNA 3-gpu en 16GB vram

AMD heeft de Radeon RX 7700-videokaart onthuld. De kaart beschikt over een gpu op basis van de RDNA 3-architectuur en 16GB vram. Volgens AMD is hij bedoeld voor gaming op een resolutie van 1440p.

De RX 7700 heeft 40 compute-units, wat betekent dat hij 2560 streamingprocessors en 80 AI-accelerators heeft. De videokaart beschikt verder over 40MB Infinity Cache en 16GB GDDR6-geheugen op een 256bit-geheugenbus. Daarmee haalt de gpu een bandbreedte van maximaal 624GB/s.

De RX 7700 gebruikt 263W stroom via twee 8-pinsaansluitingen. AMD maakt verder geen kloksnelheden van de gpu bekend. Volgens het bedrijf levert de gpu 25,2Tflops aan fp32-rekenkracht. AMD meldt niets over de prijs en beschikbaarheid van de RX 7700. Onder meer Videocardz schrijft dat het waarschijnlijk is dat de kaart alleen beschikbaar komt voor oem's en niet bestemd is voor losse verkoop.

RX 7700 RX 7700 XT
Architectuur RDNA 3 RDNA 3
Compute-units 40 54
Geheugen 16GB GDDR6 @ 19,5Gbit/s 12GB GDDR6 @ 18Gbit/s
Geheugenbus 256bit 192bit
Geheugenbandbreedte 624GB/s 432GB/s
Infinity Cache 48MB 40MB
Tbp 263W 245W

Door Imre Himmelbauer

Redacteur

19-09-2025 • 11:37

34

Submitter: TheProst

Reacties (34)

34
33
12
0
0
16
Wijzig sortering
De XT heeft minder en tragere ram dan de non-XT?
Een vreemde keuze inderdaad. De GPU zelf is iets minder dan de 7700XT, maar voor het geheugen lijken ze de specs van de 7800XT overgenomen te hebben.

De XT is inmiddels 2 jaar oud, dus misschien komt het omdat geheugen sindsdien goedkoper is geworden?
Dit is misschien een 7800XT chip met 20 van de 60 CUs uitgeschakeld?

Ik vraag me af of hier nog iemand (zelfs OEMs) op zat te wachten nu de 9000 reeks uit is...
Misschien gewoon een manier om wat ouwe, maar deels functionerende chips toch nog op de markt te brengen.
Die gedachte kan zomaar kloppen aangezien stroomverbruik hoger ligt op de gewone 7700 volgens AMD documentatie:
Radeon™ RX 7700 XT
Radeon™ RX 7700
de rx 7700 xt levert ongeveer 75 fps, op 1440p in ultra
(zie de grafiek tweakers Best Buy Guide: Beste videokaart voor 1440p-gaming),
ik ben zelf op zoek naar een 1440 kaart, en vraag me af hoeveel winst deze nieuwe kaart gaat halen,
hij gebruikt meer stroom wat vaak een aanduiding is voor een snelheidswinst.
Het lijkt er dus op dat hij er boven komt te zitten. Als hij 100 fps of meer gaat halen dan en niet veel
duurder gaat uitvallen dan kan hij voor 1440 gaming best wel aantrekkelijk worden.
De vraag is hoeveel overkill heb je nodig voor als de games zwaarder gaan worden om nog 1440
leuk te blijven spelen.
@freeco

eerste wat ik dacht een afgekeurde 7800XT, vooral vanwege die 256bit bus en 2x8pins toch geen instappertje.

Dus dat zal in zekere ( grote geheugen vretende ) games zn voordeel hebben . Ook benieuwd hoe slecht/afgekeurd ze dan eventueel zijn tov dat ze dit al jaren doen en soms gewoon helemaal terug in te schakelen waren ervanuitgaande dat het productieproces inmiddels beter is.
De GPU zelf is iets minder dan de 7700XT, ...
Ik zou 26% minder (van 54 naar 40 cores) niet "iets minder" noemen...

Ter vergelijk; het verschil tussen de 9070 XT en de 9070 GPU's is 12,5% (van 64 naar 56 cores).
Dat niet alleen. De rest van de specs van de XT zijn ook minder:

- Minder brede memory bus 192bit versus 256 op de non-XT en daardoor dus ook minder memory bandwidth 432GB/s versus 624GB/s op de non-XT.

- Ook de infinity cache is op de non-XT groter dan op de XT.

Enige pluspunt dat de XT heeft is dat ie minder stroom verbruikt maar of dat nu de reden moet zijn om daarvoor te kiezen. Met deze verschillen lijkt het me dat de performance niet heel ver uit elkaar moet liggen.

Wordt dus een beetje wachten op reviews en comparisons. Ook de pricing van beide zal een factor worden maar daar is dus ook niets over aangekondigd. Dit voelt mijninziens een beetje als een "GRE" aankondiging... Niet bedoelt voor de open markt maar gaat daar wel landen uiteindelijk.
Kan toch bijna niet anders dan dat sommige specs omgedraaid zijn in de tabel want dit zou wel heel erg onlogisch en onnodig zijn als het klopt…
De infinity cache moet omgedraaid worden. Dit is 48MB op de XT en 40MB op de non XT.
Memory bus klopt wel.

Stroomverbruik en TDP zijn op de non XT hoger, kan zijn dat het dus een slechtere bin betreft van 7800XT.
Een belangrijk ontbrekend detail is de kloksnelheid van de chip.

Het aantal CU’s is flink minder, wat kan worden gecompenseerd door het verhogen van de kloksnelheid. Dit zorgt echter voor een flinke stijging van het verbruik omdat dat geen lineair verloop is.

Het liefst wil je daarom juist méér CU’s op een wat lager tempo.
ben wel benieuwd naar de vergelijking met de 7600xt.
Voor andere die dat ook hebben wat info via pricewatch en tomshardware:
RX 7600xt
RDNA3
32 CU
16GB @ 18Gbit/s
128b bus
288 GB/s bandbreedte
32MB inifnity cache
190w tdp
Zou een interessante GPU kunnen zijn, als die voor de losse verkoop komt, nu rdna 3 kaarten ook fsr4 kunnen gebruiken. Maar, dan moet ' ie wel goed geprijsd zijn. De 7600xt kost nu zo'n 331,- euro, de 9060xt 16gb 369,- euro.........bij nader inzien, is de kaart nu al kansloos gezien de prijzen. Tenzij, ze drastische prijs veranderingen gaan doorvoeren. Deze kaart zal waarschijnlijk nooit voor consumenten uitkomen, deze kaart had een paar jaar geleden moeten uitkomen als de RX7600, dan hadden ze een veel betere line up gehad.

[Reactie gewijzigd door EMR77 op 19 september 2025 12:54]

Mijn 9070XT heeft soms al wat moeite met 1440p dus weet niet hoe deze kaart dat voor elkaar moet krijgen.
Je hoeft niet alles op ULTRA te zetten he. Het voordeel van een PC is dat je de grafische instellingen precies kan afstellen op je PC. Enkele settings iets lager zetten geeft vaak veel meer FPS tegen amper zichtbare verschillen. Ik heb een veel tragere RX 7800 XT en daarmee speel ik alles met gemak op 1440p.

Overigens is deze kaart bedoeld voor mensen die voor +-800 euro een hele PC willen kopen. Totaal andere prijsklasse.

[Reactie gewijzigd door Dekar op 19 september 2025 14:07]

Precies. Ik heb een 2060super en game op 1600p (1600*2560). Afhankelijk van de game pas je idd je settings aan...
Dat snap ik niet. Ik heb al jaren een RX6600 en ik game zo'n beetje standaard 1440p of zelfs 4k 120FPS!

Ik bedoel het grappig en sarcastisch, maar het is wel waar. Het hele geleuter over "Het is een 1440p kaart of een 4k kaart" vind ik zo "apart". Het is natuurlijk helemaal afhankelijk van welke games je speelt... Ik speel dus voornamelijk oude(re) games, dus de hierboven genoemde resoluties en FPS zijn dan ook nog eens native! Upscaling en framegen hebben die oude games niet, tenzij ik lossless scaling zou gebruiken.

Een 9070XT zou bij mij zeker een 4k 60-120 FPS kaart zijn... :+
Klopt wel. Ik heb een 6650XT OC en haal 4k@120fps zonder problemen.
Tsja, zo is mijn 4K 120fps-kaart momenteen een RX 590. Dat zou ik trouwens niemand aanraden: die 120 fps haal je in games van 15 jaar geleden vaak niet eens.
Het hele geleuter over "Het is een 1440p kaart of een 4k kaart" vind ik zo "apart"
Eens, maar ik denk als dit gezegt wordt dat in het algemeen bedoeld wordt dat de laatste (uit het jaar van uitbrengen) redelijk grafische games op die resolutie gespeelt kunnen worden op fatsoenlijke framerate

Denk dat het wel logisch is als er gezegt wordt dit is een 4K kaart, er niet bedoeld wordt dat je Patience in 4K kan spelen :Y)
Het is ook een onzinnig statement:
1440p als input of als output resolutie?
Met of zonder toevoeging van frame generation?
Ultra of medium settings?
60, 120 of 240 fps?
Games van nu, of games voor de komende twee jaar?

Een 3dMark score zegt meer.
Mijn 9070XT heeft soms al wat moeite met 1440p ...
Bedoel je dat je in Borderlands 4 met badass (max.) settings nog geen 50 fps haalt? Geen zorgen... Dat is alleen voorbehouden aan de 4090 en 5090! En je 9070 XT doet in dat geval precies wat de 5080 ook doet; flink moeite hebben. :+
Komt dit niet een beetje overeen met de GPU in de PS5?
Nee, PS5 GPU heeft minder shading units en compute units. Daarnaast deelt PS5 GPU de geheugen met de CPU.
De PS5 GPU is op de RX5700 gebaseerd. De CPU is vergelijkbaar met een 3700X.
dat het waarschijnlijk is dat de kaart alleen beschikbaar komt voor oem's en niet bestemd is voor losse verkoop
Wat is daar de logica van? Zijn niet juist de gamers de zelfbouwers?

Maak er dan een RX 7700 XTX van. Met de zelfde Compute-units. zeg maar een Super van de concurrent.
Meer geheugen, grotere bandbreedte van het geheugen. Is deze misschien wat meer gericht op AI werk?
Denk dat deze kaart echt bedoeld is voor OEMs, die binnen een bepaalde pricebracket een 1440p systeem willen aanbieden, en kunnen adverteren dat zij een 16gb GPU erin hebben zitten. Voor de consumentenmarkt heeft deze kaart totaal geen zin, gezien de huidige prijzen. Tenzij, de kaart 250 euro gaat kosten

[Reactie gewijzigd door EMR77 op 19 september 2025 15:30]

Tenzij, de kaart 250 euro gaat kosten
Laten we het hopen! :+

Maar ik denk dat je helemaal gelijk hebt. Is vast een OEM kaart, maar dat was de 7900 GRE eerst ook. Dus wie weet.
Ben zeer benieuwd of die AI accelerators een groot verschil maken in frames want Nvidia is zowel dominant als het om videokaart verkoop en AI implementatie gaat en ik vind het het bijzonder hoe AMD als underdog zoveel gepresteerd heeft de laatste tiental jaar om in de buurt te komen van Nvidia en Intel maar ook met AI technologie de competitie aan gaat en ja FSR loopt ook achter op DLSS maar AMD heeft strijdlust en goede leiding dus wie weet wat er gebeurd de komende 10 jaar als AMD ook AI implementatie ontwikkeld ^^
Ik weet niet of ik nou gek ben of niet. Waarom dit artikel nu terwijl ik zelf in juni vorig jaar deze vorig jaar heb gekocht. GIGABYTE Radeon RX 7700 XT Gaming OC.


Om te kunnen reageren moet je ingelogd zijn