AMD kondigt Radeon RX 7700 XT- en 7800 XT-videokaarten aan

Op de Gamescom-beurs in Keulen heeft AMD twee nieuwe videokaarten gepresenteerd. De Radeon RX 7700 XT en RX 7800 XT zijn vanaf 6 september beschikbaar en moeten het 1440p-segment bedienen waarin ze de concurrentie met Nvidia's RTX 4060 Ti en RTX 4070 aangaan.

Met de komst van de RX 7700 XT en RX 7800 XT vult AMD zijn line-up Radeon RX 7000-kaarten aan. Deze generatie, op basis van de RDNA3-architectuur, werd eind 2022 eerst uitgebracht met de high-end RX 7900 XT en RX 7900 XTX. Een halfjaar later kwam de fabrikant met de RX 7600 om het instapsegment te bedienen. Tussen deze segmenten in werden in de tussentijd geen nieuwe Radeons uitgebracht, terwijl concurrent Nvidia hier ondertussen wel zijn RTX 4060 Ti en RTX 4070 heeft gepositioneerd. Net als bij de RX 7900 XT en XTX zullen op de RX 7700 XT en 7800 XT chiplets gebruikt worden, maar voor het nieuwe duo videokaarten zal dat in combinatie met de Navi 32-gpu zijn.

Gpu-chiplets, hoe zat het ook alweer?

AMD maakt sinds zijn RX 7000-serie videokaarten gebruik van chiplets, vergelijkbaar met hoe Ryzen-processors zijn opgebouwd. Bij de gpu's is de grootste, centrale chip de graphics compute die, waarop de rekenkernen (streamprocessors) zitten. De kleinere chips die hier omheen zijn geplaatst, heten memory cache dies. Deze bevatten per stuk een 64bit-geheugencontroller en 16MB cachegeheugen. De gcd is verbonden met mcd's via infinity links. Het voordeel van deze opdeling is dat kleinere chips goedkoper zijn om te produceren, en dat de mcd's op een ouder en dus goedkoper productieprocedé dan de gcd kunnen worden gemaakt zonder aan prestaties in te leveren.

Radeon Navi 32

RX 7800 XT: lagere specificaties dan de RX 6800 XT, kleinere chip

Van de vandaag aangekondigde twee videokaarten is de RX 7800 XT de snelste. Dit model is opgebouwd rondom Navi 32, een gpu bestaande uit een gcd van 200mm² met daaromheen vier mcd's. Dat levert een geheugenbus van 256bit op, waaraan 16GB GDDR6 is gekoppeld. Op de kaart is de volledige chip actief, wat resulteert in 3840 streamprocessors uit 60 compute-units. Dat aantal komt overeen met de RX 6800 van de vorige generatie en is minder dan de 72 cu's die de RX 6800 XT heeft. Ook valt op dat AMD deze generatie een eenvoudigere chip gebruikt voor dit segment, ten opzichte van de RX 6800 XT die een deels uitgeschakelde, maar veel grotere chip meekreeg. De geheugenbus is met 256bit wel gelijk aan zijn voorganger, maar de geheugenbandbreedte ligt dankzij sneller GDDR6 ruim 20 procent hoger op de RX 7800 XT.

AMD positioneert de RX 7800 XT tegenover de GeForce RTX 4070 van Nvidia en geeft de kaart een adviesprijs van 549 euro. De opgegeven total board power van de RX 7800 XT is 263W.

RX 7700 XT: vooral in de geheugenopstelling gekortwiekt

De RX 7700 XT beschikt eveneens over de Navi 32-gpu, maar heeft daarop 54 compute-units en dus 3456 streamprocessors actief. Dat is slechts 10 procent minder dan wat de RX 7800 XT meekrijgt, terwijl bij de geheugenopstelling maar liefst 25 procent is weggesneden. Van de vier geplaatste mcd's rondom de Navi 32-gpu zijn er op de RX 7700 XT namelijk maar drie actief, wat betekent dat de geheugenbus uitkomt op 192bit met 12GB vram en dat de hoeveelheid Infinity Cache nog maar 48MB bedraagt. Omdat de geheugensnelheid met 18Gbit per seconde nog iets lager ligt dan die op de RX 7800 XT, beschikt de RX 7700 XT onder de streep dus over slechts 70 procent van de geheugenbandbreedte. Dat heeft tot gevolg dat er per actieve compute-unit op de RX 7700 XT minder bandbreedte beschikbaar is dan op de RX 7800 XT, wat de prestaties kan belemmeren.

AMD positioneert de RX 7700 XT tegenover de GeForce RTX 4060 Ti en noemt een adviesprijs van 489 euro. De total board power van de RX 7700 XT bedraagt 245W. Zowel de RX 7700 XT als de RX 7800 XT moeten vanaf 6 september beschikbaar komen.

RX 7700 XT RX 7800 XT RX 7900 XT RX 6700 XT RX 6800 XT
Architectuur RDNA3 RDNA3 RDNA3 RDNA2 RDNA2
Gpu Navi 32 Navi 32 Navi 31 Navi 22 Navi 21
Diesize 200mm² gcd
+
3x 37mm² mcd
200mm² gcd
+
4x 37mm² mcd
300mm² gcd
+
5x 37mm² mcd
336mm² 520mm²
Transistors 26,5 miljard 28,1 miljard 57,7 miljard 17,2 miljard 26,8 miljard
Productieproces TSMC 5nm+6nm TSMC 5nm+6nm TSMC 5nm+6nm TSMC 7nm TSMC 7nm
Compute-units 54 60 84 40 72
Streamprocessors 3456 3840 5376 2560 4608
Gameclock / boostclock 2171 / 2544MHz 2124 / 2430MHz 2000MHz 2424 / 2581MHz 2015 / 2250MHz
Geheugen 12GB GDDR6 @ 18Gbit/s 16GB GDDR6 @ 19,5Gbit/s 20GB GDDR6 @ 20Gbit/s 12GB GDDR6 @ 16Gbit/s 16GB GDDR6 @ 16Gbit/s
Geheugenbus 192bit 256bit 320bit 192bit 256bit
Geheugenbandbreedte 432GB/s 624GB/s 800GB/s 384GB/s 512GB/s
PCI-express-generatie PCIe 4.0 PCIe 4.0 PCIe 4.0 PCIe 4.0 PCIe 4.0
Infinity Cache 48MB 64MB 80MB 96MB 128MB
Tbp 245W 263W 315W 230W 300W
Releasedatum 6 september 2023 6 september 2023 13 december 2022 18 maart 2021 18 november 2020
Adviesprijs bij introductie € 489 € 549 € 1049 € 489 € 669

Radeon RX 7000 Series

Door Reinoud Dik

Redacteur

25-08-2023 • 17:30

146

Reacties (146)

Sorteer op:

Weergave:

Zou handig zijn als de beoogde NVidia concurrent ook in de tabel stond.

Ik verder alleen dat de 6700XT ongeveer een 3060 Ti is.

"AMD positioneert de RX 7800 XT tegenover de GeForce RTX 4070 van Nvidia en geeft de kaart een adviesprijs van 549 euro. De opgegeven total board power van de RX 7800 XT is 263W."

Dat is 50 euro goedkoper, maar wel tegenover 200W van de 4070.

In ieder geval is er weer een beetje strijd in het middensegment, dat is alleen maar goed!

[Reactie gewijzigd door JDx op 22 juli 2024 22:27]

Snap echt niet waarom het bijna een jaar later is na de 7900 kaarten.
Zooooveel oude voorraad zal er nu toch niet meer geweest zijn? Ze zijn de 6xxx reeks nog blijven produceren?

En er zit best wel een grote price gap tussen de 7800XT en de 7900XT.
Meestal gaan de prijzen met +-100€ naar omhoog tussen de modellen. Er zal misschien nog een 7900 uitkomen?

[Reactie gewijzigd door TMT op 22 juli 2024 22:27]

Verkoop van de 7900xt stimuleren. Niet heel onlogisch.
Ik en velen met mij zullen niet zomaar een kaart kopen in die prijsrange. Als je dan geen goedkoper alternatief biedt is de kans vooral aanwezig dat men een andere kaart koopt, wellicht van een ander merk.
Waarschijnlijk om mensen eerder over te halen om een 7900 kaart te kopen dan afwachten tot de 7700XT en 7800XT zijn uitgebracht?
Er is toch bijna niemand die een 7900 koopt omdat er geen 7700/7800 kaarten zijn? Dat zijn heel andere prijsklasses. Je hebt het over bijna een verdubbeling. De doelgroep is totaal anders.
Snap echt niet waarom het bijna een jaar later is na de 7900 kaarten.
Zooooveel oude voorraad zal er nu toch niet meer geweest zijn? Ze zijn de 6xxx reeks nog blijven produceren?
Vergelijk de datum tussen de 6700XT en 6800XT maar en je ziet gelijk waarom.
De namen zijn verschoven, 7800XT heet nu 7900XT voor meer geld... Navi 22 Navi 21 Terwijl dezelfde sprong nu tussen 7900XT en 7800XT zit: Navi 32 Navi 31 om maar een paar redenen te noemen.
Naast hogere modellen mogen we nu dus ook een gedeelte van de performance meer betalen per generatie (bij groen(nu 4070ti was 4080>4070ti i.p.v. 4070 wat het had moeten zijn) en rood).
Die datum snap ik niet, de releasedatum van de 6800xt is november 2020. Hij is toen heel lang amper verkrijgbaar geweest en enorm in prijs gestegen dankzij miners. We zijn nu bijna 3 jaar verder.

nieuws: AMD Radeon RX 6800 XT en RX 6800 komen 18 november uit voor 649 en 57...

Vind het best wel jammer dat AMD nu ook een heel gat laat tussen midden en high-end.

[Reactie gewijzigd door PuzzleSolver op 22 juli 2024 22:27]

Aan de andere kant snap ik het weer wel. Er zit ook een enorm gat tussen 4k en 1440p.

4k is 2.25x zoveel pixels als 1440p en 1.67x zoveel als 1440pUW.

Ze focussen met de 7900XT/XTX op 4k en met deze kaarten op 1440p gaming, dan hoeft er niet echt iets tussen te zitten, want er zit qua beeldformaat niets tussen.

Dat is ook een beetje het issue van GPU fabrikanten, de overstap van 1440p naar 4k gaat lang zo snel niet als van fullHD naar 1440p. Er zijn nog hordes 1440p gamers die straks prima met strix point kunnen gamen en zelfs geen discrete GPU meer nodig hebben.

Het zou mij niet verbazen als er uiteindelijk maar twee tiers met hooguit 4 modellen overblijven.
voor 1440p 1 met alles maxed en een iets meer budget optie en voor 4k hetzelfde.
Bedrijfstechnisch snap ik het ook wel, nVidia is de trend gestart. Ze kwamen ook van een markt waar ze hoge prijzen konden vragen voor de GPU en daar is de 4090 ook voor gemaakt. Deze steekt met zijn 90TFlops aan FP32 performance en de rest ook ver boven alles uit. De 4080 werd tegenover AMD's high-end gezet.

De 7800XT lijkt nu een gevalletje van net genoeg om boven de huidige mid-range uit te komen. In leaked 3D mark benchmarks is de kaart iets van 15% sneller dan de 6800 XT. Ik heb hier overigens net 2 gaming PC's gebouwd, 1 voor mijn zoon met en 6800XT en 1 voor mijn dochter met een RTX 4070. Beide kaarten zijn zeer vergelijkbaar in prestaties. De 4070 is alleen een heel stuk stiller en dus ook zuiniger, ik hoop voor AMD dat de 7800XT dan ook een stuk zuiniger word.

Ik was bezig om mijn kinderen van 10 en 13 geintereseerd te krijgen in UE 5. En ben zelf er ook veel mee bezig geweest. Dit begint toch de basis van een hoop games te worden en ze proberen steeds meer naar foto realisme te gaan. Probleem is dat daar nu ook een gat ontstaat. Een mid-range is het minimum aan het worden voor de nieuwe games. Als de hardware dan stagneerd zoals het nu doet en de prijzen te hoog blijven dan gaat de markt dat niet pikken ben ik bang.
"want er zit qua beeldformaat niets tussen" Fout, 1440p ultrawide.
"want er zit qua beeldformaat niets tussen" Fout, 1440p ultrawide.
Wat is ook zeg in mijn post 4k = 1.67x 1440pUW, met andere woorden om vergelijkbare performance te hebben op 1440pUW en 4k heb je een high end kaart nodig die ca 70% sneller is dan midrange. Daartussen heb je niets nodig.

Om vergelijkbare performance te krijgen als een 4090 op 4k heb je ongeveer een 4070Ti nodig voor 1440pUW en een 4070 voor 1440p. Een 4080 is dus eigenlijk overbodig als developers zich op die twee performance punten richten.
Wat ik van tech youtube heb begrepen, is het vooral dat AMD en NVidia te veel voorraad van de oude generatie hadden en dat AMD daar nu bijna doorheen is. Even snel in de pricewatch kijken zie ik de 6800 en 6800 XT nu al een tijdje stabiel op een veel lagere prijs dan tijdens de tekorten. En ik zie er een paar die sinds juli/aug weer iets in prijs omhoog zijn..
Een GPU die competitief is met de RTX 4070, uitgerust met 16 GB VRAM en die verkocht wordt voor een redelijke prijs is alles waar ik om vraag. Vooralsnog lijkt de RX 7800 XT dat wel te zijn, alhoewel de specs toch wel een klein beetje tegenvallen. Maar een vraagprijs van 549 euro, mwoah, dat ligt in de juiste ballpark. Nu hopen dat de reviews en benchmarks de performance claims van AMD kunnen bevestigen.
ZOu kunenn 4070 is 600+ euro no, 10-20% sneller dan de 6800 xt.
Dus de 7800 xt zou gerust in lijn kunnen liggen met die prestaties en dan tegen 550 euro is die iets goedkoper. Verbruik ligt hoger , geen dlss dus amd heeft weinig keuze dan die iets goedkoper te positioneren denk ik.
Het is natuurlijk niet zo dat AMD geen weeefvoord heeft op het dlss gemis, ze hebben natuurlijk FSR. Die is ietwat minder efficiënt maar je hebt het niet over meervouden ofzo, kwaliteit is met FSR 2+ ook al vrij goed (vergeleken met DLSS). Nee, DLSS vindt ik geen geldige USP meer...
Dat is het wel degelijk. Fsr heeft niks zoals framegeneration of nu RR amd loopt gewoon enorm achter daar.
Frame generation zit dus naar verwachting in FSR 3
nieuws: AMD FidelityFX Super Resolution 3 met framegeneration verschijnt binn...
En daar heb je dan in tegenstelling tot nvidia niet de nieuwste generatie kaarten voor..
Ik geniet elke dag nog van FSR 2.1 op mijn gtx 1070ti, een kaart die wat Nvidia betreft volledig afgeschreven is...

[Reactie gewijzigd door TIGER79 op 22 juli 2024 22:27]

DLSS 3.5 draait ook op nvidia 2000 series van 2018
FSR 3 draait vanaf 6000 en misschien 5000 series van AMD uit 2019

Nergens word de 1000 series vermeld die nu al 7 jaar oud is trouwens, die bij amd met vega overeenkomt waar AMD net zo weinig support op geeft momenteel.

Dit veranderd dus niks aan dat AMD achterloopt want FSR 3 als het ooit komt zal gewoon DLSS3 inhalen wat tegen dan meer dan een jaar geleden uit zal gekomen zijn.
DLSS 3,5 "draait" op de RTX2000, máár zonder FG.
DLSS 3 FG werkt pas vanaf de RTX4000, en énkel nvidia.
FSR3 mét FG wordt ondersteund op alles vanaf een RX5000 en RTX2000, maar draait op ouder.
FSR3 zónder FG wordt ondersteund op alles vanaf een RX590 en GTX1000, maar draait vermoedelijk op oudere ook.

DLSS in zijn geheel draait überhaupt enkel op RTX kaarten. FSR draait vrolijk op een GTX 970, twee generaties ouder.

Geen idee hoe je dit probeert goed te praten alsof Nvidia oudere kaarten beter ondersteunt.
Beter lezen ik zeg nergens dat nvidia zo goed oude kaarten ondersteund ik zeg dat ze dat even goed doen als hun enige concurent : amd.

Leuke rant maar nutteloos.
Maar dat doen ze dus niet. DLSS is in de volksmond bekend als de FG variant. Die draait dus enkel op RTX4000, maar je suggereert dat die ook op RTX2000 draait. Technisch gezien correct, maar zonder FG.

Dan zeg je ook dat FSR 3 - de FG variant - enkel met zekerheid op RX6000 draait, misschien op oudere. Terwijl AMD zelf duidelijk aangeeft dat de FG zeker op RX5000 draait en als we jouw "technisch correcte" houding over DLSS3 aanhouden, draait het zonder FG ook gewoon op een RX480 (want da's een RX580 en da's een RX590).

Dus je genoemde jaren, DLSS3 vanaf 2018 en FSR3 vanaf 2019 zijn eerder:
- DLSS met FG: vanaf 2022 (RTX4000)
- FSR3 met FG: vanaf 2019 (RX5700)
- DLSS3 zónder FG: vanaf 2018 (RTX2000)
- FSR3 zónder FG: vanaf 2016 (Polaris: RX480/RX580/RX590) - en werkt ook gewoon hardware-onafhankelijk op eender wat dat compute doet

Mag je nutteloos noemen, maar ik snap niet waarom je dan zelf begint met nóg nuttelozere misinformatie. Als je een rechtzetting van foute info nutteloos vindt, waarom dan niet gewoon meteen feiten noemen?

[Reactie gewijzigd door Arrigi op 22 juli 2024 22:27]

Sorry maar nu kraam je toch onzin uit, neen DLSS is niet gekend omwille van FG maar omwille van super resolution. IK vergeleek ook wat ze nu toevoegen:

NV voegt RR (ray reconsstruction) toe met DLSS 3.5 (wat nu al uit is trouwens) en dat word ondersteund tot 2000 series van 2018 .

AMD voegt FG toe in FSR 3 en dat is vanaf 6000 series uit 2019 .
Dit veranderd dus niks aan dat AMD achterloopt...
Mij boeit het geen rooie biet dat AMD achterloopt. En wat boeit het dat DLSS een jaar geleden is uitgekomen. Ik heb er ook niks aan als een feature een jaar of een eeuw geleden is uitgekomen en ik die nooit heb gemist. Ik koop een GPU als het wat betreft prijs en performance lekker zit. En aangezien wij in het nu leven, is het alleen maar mooi dat er nu keus is waarmee games goed genoeg tot uitstekend spelen.
DLSS en FSR zijn leuke technieken, maar mijn games speel ik op dit moment op een 4K, 144Hz monitor, zonder FSR, op een RX 6950XT dat €649 heeft gekost. En als het moment komt dat ik een GPU upgrade zou willen en/of moeten, koop ik een nieuwe GPU van rond de €500-€600, heb ik de keus om de RX 6950 weg te geven of te verpatsen, heb ik de keus om een half jaar later weer een nieuwere GPU te kopen, weer eentje weg te geven of te verpatsen en heb ik nog steeds niet het bedrag uitgegeven voor een RTX 4090 met DLSS ondersteuning. Ieder zijn ding en recht om op een domme of verstandige manier geld uit te geven.

[Reactie gewijzigd door Obfzk8R op 22 juli 2024 22:27]

Tja je hebt een AMD kaart tuurlijk dat iets van NV je niks boeit.
Dat veranderd niks aan het feit dat het een voordeel is als je een kaart hebt die dat ondersteund en je dat kan gebruiken?
AMD Nvidia, Intel... wederom.. wat boeit het? 3 uitstekend te gebruiken kaarten van €650 zijn in mijn wereld waardevoller dan 1 kaart van €1800+. Waarom zou ik mij lekkerder voelen, wetende dat een artikel iets kan dat weinig meerwaarde voor mij heeft? Mijn auto met Connected Pack Professional en
Live Cockpit Professional en M-sport pakket heeft een heleboel features die leuk zijn en die ik alleen in het begin boeiend vond. Maar ik was net zo snel op de Gamescom afgelopen vrijdag en aan het eind van de dag terug in Nederland als andere Nederlandse weggebruikers met andere wagens, waarvan sommigen vast geen features hadden. Als ik een aantal features had kunnen schrappen om geld te besparen, had ik het gedaan. Volume van muziek met handbewegingen in de lucht bedienen bijvoorbeeld had ik echt wel weg gelaten voor €500 minder.
framegeneration
Frame generation werkt enkel goed bij reeds hogere originele framerates en resulteert in een penalty van input lag die sléchter is dan van de originele framerate, dus is het eigenlijk totaal niet zo nuttig als DLSS v2.
Nee dat werkt altijd ook op lagere fps en nvidia reflex zorgt ervoor dat die latency beperkt blijft en te doen is in single of non competitive multiplayer . Ja als je elke ms nodig hebt best dat niet gebruiken maar meerderheid gamers maakt dat weinig uit.
Het "werkt" op lagere fps, maar met nog te veel artefacten.

nVidia Reflex is niet uniek aan DLSS v3, dus je mag dat niet aanhalen als voordeel van DLSS v3, want originele resolutie (of DLSS v2) met Reflex zal nóg lagere latency geven dan de hogere framerate van DLSS v3 met frame generation ingeschakeld.

Soit, een feature (FG) van een feature (DLSS), dus aan de streep totaal niet zo belangrijk als raster performance of RT.
Dat zei ik dan ook nergens ik zeg dat het een pluspunt is voor 4000 series van nvidia.
De adviesprijs is 550 euro. Doe daar gerust maar 50 tot 100 euro bij voor de fans en naam van het merk.
Zou het dan qua prijs/prestatie niet beter zijn om een 6950XT op te kop te tikken?
Qua P/P is het vrijwel altijd het beste om te houden wat je hebt. Zolang dat niet kapot is dan natuurlijk.
Als je het zo bekijkt, dan kan je qua P/P meestal beter je dedicated GPU verkopen en terugvallen op je iGPU/APU. Zowel door de opbrengst van verkopen als de bespaarde stroom. Tenzij je een dynamisch contract hebt en je game pc alleen aanzet bij negatieve stroomprijzen die zelfs na de belastingen nog een negatief bedrag leveren natuurlijk.[/flauw]
Afhankelijk van je wensen wel. Ik heb hier een ryzen 5800x pc met een 5700xt en ik verbaas me nog steeds over hoe performant die kaart nog is op 1440p. Een 6950xt gaat al 4K kunnen. Het is dus maar net wat je wilt.
ZOu kunenn 4070 is 600+ euro no, 10-20% sneller dan de 6800 xt.
Voor zover ik weet is de 6800 XT even snel als de 4070, zie bv https://www.youtube.com/watch?v=DNX6fSeYYT8 (hardware unboxed), Linus zegt zelfs dat de 6800 XT iets sneller is in https://www.youtube.com/watch?v=nkh9VGCY8as en nog eentje https://www.youtube.com/watch?v=raTOF-Ah4Uc&t=872s

Dit zou betekenen dat de 7800 XT dus niet eens heel veel sneller is dan de 6800 XT, wat ik een beetje vreemd vindt.
Youtube heeft slechte reviews clickbait. Zie gewoon tweakers review.
dus op tweakers met de zeer beperkte game tests, scoort de 4070 7.9% beter met 1440p high en 0% 1440p (med) waar deze voor gepositioneerd zijn.... op 4k is het zelfde plaatje, op 1080p is er minder verschil.

dringend toch eens je eigen statements nakijken zou ik zeggen, want 7-8% is verre van de 20%....tenzij je natuurlijk weer RT meeneemt, maar je vergelijkt een oude generatie kaart met een nieuwe.

544 vs 629 is 15% prijsverschil dan de 6800XT goedkoper is. Enkel in verbruik is de nvidia (nieuwere kaart ) wel de betere, dat verwacht ik trouwens ook vs de 7800XT.

[Reactie gewijzigd door d3x op 22 juli 2024 22:27]

Zoals ik zei 10-20% want ja die kaart is zoveel sneller in non rt/ raytracing dat dat een andere generatie is
Maakt weinig uit.

Tel daarbij dlss3 , verbruik, beter in
Non games workloads,... en
Amd zal heel wat beter moeten doen als ze zo'n prijzen aanhouden
Gezien de specs valt hij denk ik tussen de 6800XT en 6900XT in de 6950XT Is ik hem echt niet evenaren de 7900XT heeft daar soms al moeite mee. In games waar RDNA3 het goed doet sure. Maar in een 40 game test denk ik dat de 6950XT nog steeds sneller is.
Yo man.
Check deze review https://www.youtube.com/watch?v=Iqs6w0ABrvE
Ik denk dat de 7800xt max ongeveer zelfde presteerd als deze kaart.
Mogelijk ietjes sneller dan de 6800xt, ongeveer 5% op 1440p. Ik zit op 1440p, dus ik kijk daar naar.
Moet niet al teveel verwachten van die kaart.
En FSR3 gaat ook op de 6000 series werken.
Ze hebben alleen 1 nieuw dingetje dat niet op oudere kaart werken zeggen ze.
7800xt heeft in ieder geval een redelijke prijs voor redelijke prestaties.
Hoewel denk ik zelf dat het eigenlijk slechter gaat presteren dan de 6800xt, omdat het 20% minder CU heeft. Hopelijk maakt de 10% meer mhz core clocks en 20% snellere geheugen het goed.
De 7900 GRE heeft meer compute power maar minder geheugen bandbreedte. Dus het ligt er een beetje aan wat games meer nodig hebben hoe deze presteert maar je zou idd verwachten dat de 7900 GRE sneller is. Ik denk dat het vooral bij RT gaat schelen maar dat je met high FPS of 4K gaming soms voordeel kan hebben van het snellere geheugen. Nog even afwachten wat de reviews laten zien maar hij zal idd niet veel sneller zijn dan de 6800XT.
Nog 10 dagen wachten, dan weten we zeker hoe en wat.
Ik heb op youtube gezien dat 7800xt 19000 scored in timespy, terwijl 6800xt 19500 scored.
7700xt haalt 17000 punten. Meer dan 10% en 4gb minder dan 7800xt. Deze kaart had 400-430 moeten zijn. Amd zei dat ze aan de markt gaan aanpassen. Van de 2 gaat iedereen de 7800xt halen. En daarna word de 7700xt wel goedkoper.
En Amd versie van frame generator is by launch alleen voor 7000 series.
Mischien in de toekomst ook voor navi 1 en 2.
Ik ben benieuwd, want timespy zegt niet alles.
7700xt presteerd wel veel beter dan zijn voorganger en ook beter dan de 6800.
Zijn nog steeds leaks Maar gezien de specs is het het aannemelijk. Toen ze die presenteerde had ik al zo iets van dit wordt een 2e 7900XT vs 7900XTX.

De 7800 XT gaat qua prijs prestatie verhouding een betere keuze zijn.

Ik ben vooral benieuwd naar de prestaties tov de 6800XT. Ik heb toch het idee dat de 6900XT en vooral de 6950XT aanzienlijk sneller zullen zijn.
Dit is een ontzettend kortzichtige mindset om te hebben. Maar 1 bron bekijken voor enige hardware aankoop is altijd een slecht idee, welke site het ook is. Zeker youtube kanalen als hardware unboxed (die trouwens ook geschreven reviews publiceren) en gamers nexus zijn ontzettend waardevol in de pc markt om geïnformeerde keuzes te maken.
Het aantal games dat tweakers test is zéér beperkt, dus alleen tweakers gebruiken is echt niet handig.
Ik snap DLSS als argument niet echt, er is toch ook FSR wat breed ondersteund wordt? Of de één beter is dan de andere valt over te discussiëren, maar het is niet of je bij AMD helemaal niets hebt. Nog maar te zwijgen over welke games DLSS daadwerkelijk ondersteunen.
Neen daar is geen discussie over: DLSS kan veel meer en ziet er beter uit.
Dus dat is wel degelijk een voordeel als die kaart dat ondersteunt en je speelt games die dat hebben.
Smaken verschillen. Frame generation vind ik nog zwaar tegenvallen. Upscaling is ook verre van onzichtbaar. Als het even kan game ik liever zonder raytracing en de dan benodigde dlss dan met.
Alle reviewers hebben daar een andere mening over maar idd misschien ligt jou dat idd niet.
Niet alle reviewers, maar de consensus is wel dat dlss heel goed werkt. En dat spreek ik ook niet tegen, het werkt heel erg goed. Maar als ik de keuze heb zet ik het uit. Als de framerates het toelaten (dus 60+ fps zonder dlss) dan game ik liever zonder. En met de huidige 4080 en 4090 kan dat prima in bijna alle games.
https://www.youtube.com/watch?v=O5B_dqi_Syc

In sommige gevallen kan dat de beeldkwaliteit verbeteren hoor, in de meeste zal je het niet merken.
Idd als je 60fps wil in games en een 4080/4090 hebt zal dat weinig uitmaken, maar genoeg mensen willen 120 of 144fps en hebben geen ultra high end kaart.

EN nu met dlss 3,5 zie ik toch weeral beter beeld tov native.
Dit is dus gewoon niet waar. DLSS Quality is niet te onderscheiden van native (denk 320kbps .mp3 vs .flac) en gedurende gameplay (dus niet pixel peepen op gezoomde screenshots) is zelfs Balanced praktisch niet te onderscheiden.
Dat mag je niet waar vinden, maar voor mij is het half scherp ;). Meningen verschillen. Er zijn mensen die een mp3 hetzelfde vinden dan een losless bestand en er zijn mensen die zelfs die 320kbps er nog uit pikken als mindere kwaliteit. Als dat niet zo was dan hadden we lossless niet meer nodig en had flac nooit bestaan. Dit kan dus per persoon verschillen. En het hangt ook sterk af waarmee je naar muziek luistert en waarop je dus gamed. Op een 24 inch full HD monitor zal het anders zijn dan op een 48 inch 4K scherm.

[Reactie gewijzigd door cmegens op 22 juli 2024 22:27]

en er zijn mensen die zelfs die 320kbps er nog uit pikken als mindere kwaliteit.
Niet dus. Dat bewijzen dubbel-blind testen keer op keer. Net als DLSS Quality :)

Lossless opslag is voor archivering, niet per sé voor consumptie.
dan op een 48 inch 4K scherm.
Op de afstanden waarop de meeste mensen van hun scherm zitten zie je niet eens het verschil met 1080p. HDR maakt wat dat betreft een stuk meer verschil, met zowel de helderheid als het kleurbereik.

Je moet je echt even een stuk beter gaan inlezen.
Je moet je echt even een stuk beter gaan inlezen.
Right back at ya. En wordt je ook eens bewust hoe vaak je aannames maakt.

Bijvoorbeeld: ik gebruik een 48 inch OLED als monitor. Daar zit ik net zo ver vandaan als van een 24 inch monitor. Als je het als huiskamer tv gebruikt heb je gelijk, maar ja, dat was dus een aanname van jouw kant.

En lossless is niet voor archivering. Het is voor audiofielen. En zoals met alles als je naar gehele populaties gaat kijken heb je een Bell curve verdeling. De grote meerderheid van de Bell curve hoort geen verschil tussen een mp3 en lossless, maar het uiteinde, de audiofielen, dus wel. Ook daar is onderzoek naar gedaan. Jij hoort duidelijk bij de meerderheid van de Bell curve en maakt de aanname dat dat voor iedereen geld.

En ook daarbij: welk audiosysteem gebruik je. Een telefoon met een draadloze koptelefoon gaat nooit het verschil laten horen. Een goede versterker, goede DAC en een kwaliteit high impedance headphone wel.
Niet dus. Flac is gewoon niet te onderscheiden. En ITT jou pluk ik dat uit onderzoeken, niet m’n eigen oren.

De panelen van TV’s zijn overigens expliciet anders ge-engineerd dan monitoren, waardoor ze eigenlijk altijd minder prettig in gebruik zijn daarvoor.

Maar ik ga niet nog meer tijd besteden. Nogmaals, lees je in :)

[Reactie gewijzigd door Halfscherp op 22 juli 2024 22:27]

Ben meer benieuwd naar hoeveel beter de performance zal zijn tov de 6800XT dan.
Dat is inderdaad wel een dingetje. Daarom ook dat de specs lichtelijk tegenvallen. Er is echter nog één ding dat ik vergeten was om te noemen: AV1 hardware encoding support. Dat is voor mij de reden om niet een vorige generatie kaart te willen, en alleen naar de nieuwste generatie te kijken. En dat maakt voor mij de RX 7800 XT wel een hele interessante optie om in de gaten te houden.
Wat kan je met AV1 hardware encoding?
Je vraag is tweeledig:
1) AV1 tov andere formats:
Je hebt de winst in bestandsgrootte (en dus bitrate) want die is bij AV1 zo'n 30% lager dan HEVC(H.265) en 50% lager dan AVC(H.264).
https://www.winxdvd.com/convert-hevc-video/av1-vs-hevc.htm

2) Hardware encoding vs software encoding
Er is een enorme snelheidswinst van hardware encoding (met GPU) tov software encoding (via de CPU). In dit voorbeeld 410% sneller (113 fps vs 22 fps): https://www.reddit.com/r/..._vs_software_av1_encodes/
Tevens is hardware encoding in dit voorbeeld ook 270% zuiniger in W/fps.
Daar staat tegenover dat er bij hardware encoding kwaliteitsverlies is tov software encoding met dezelfde codec, maar dit wordt nog altijd gecompenseerd doordat de kwaliteit van AV1 dus beter is dan oudere codecs voor eenzelfde bitrate.
Ik ben niet heel erg thuis in deze materie, maar waarom vergelijk je AV1 met HEVC (H.265) en niet met VVC (H.266) ?
Omdat VVC niet de keuze lijkt te worden voor de opvolger van HEVC. AV1 is net zo goed en is minder een issue met licenties en kosten... En heeft dus al hardware support.

[Reactie gewijzigd door Waah op 22 juli 2024 22:27]

AV1 wordt bijvoorbeeld al gebruikt door YouTube voor high-quality video encoding, en is een optie voor streamers om direct naar YouTube te uploaden. H.266 zie ik nog nergens in de praktijk, en wordt ook nog nergens in hardware voor gewone consumenten (zoals videokaarten) geimplementeerd.
Omdat AV1 als concurrent voor h265 wordt neergezet. AV2 (of welke andere naam dat ook zal dragen) zal de concurrent voor h266 worden.

Maar verwacht maar dat er nieuwe standaarden komen die een machine learning model gebruiken zowel aan de compressie als decompressie+reconstructie kant, en deze zullen populairder worden dan h266 en AV2.
Is het niet zo dat je met softwarematige encoding iets betere kwaliteit kan verwachten t.o.v. HW encoding? Kan belangrijk zijn voor sommigen

[Reactie gewijzigd door keranoz op 22 juli 2024 22:27]

Niet echt nee. Softwarematige encoding is gewoon minder snel, en daardoor ben je misschien geneigd om de kwaliteit minder te zetten.
Nee dat werkt anders software matig wordt gedaan door CPU wat general prupouse alles redelijk kan maar niet sterk in specialisatie.
Probleem van hardware encoders is net zelfde van specialisatie ASIC het zit vast.
Voor encoding software kan je veel settings aanpassen maar ook met hogere kwaliteit.
Vaak zijn die snelle hardware algoritmen ook compromis. In software kan dat met meerdere variabelen bij sturen. Dus software mag dan trager zijn maar is ten eerste heel flexible en met die flexibiliteit ook zwaardere algoritmes of setting die kwaliteit maximaliseren. Uiteraard wel veel trager.
Video opnemen zonder de CPU te belasten. De vorige generaties aan GPU's hadden al H.264 en HEVC hardware encoding aan boord, maar de AV1 video codec is een stuk moderner en efficiënter. Voor streamen en video capturing is dat erg fijn om te hebben, want dat betekent dat je hogere kwaliteit video kunt opnemen met lagere bitrates en minder schijfruimtegebruik.
JayTwocents had al een mooie youtube vid.

7800Xt zal de concurentie aangaan met de 4070 / 4070 TI. Dus kwa prijs verhouding is dit volgens mij een prima kaart. voor de gene die FullHD op max settings wilt spelen en voor 1440P ook aardig ver komt. ik zeker voor de 7800XT ik zit nu nog met een 1660 super.
Ik volg uw redenering! Als de RX7800 nu 10-20% sneller was (benchmarks afwachten maar lijkt mij in lijn met de Rtx4070) dan had AMD het DLSS gat kunnen dichtrijden puur op basis van prestaties. En dan koop je gewoon AMD aan €550 ipv €650 voor een Rtx 4070 met DLSS.

Het risico bestaat dan dan Nvidia de prijs verlaagt en dan moet AMD er weer onder. In dat scenario verliezen ze beide omzet.

Ben eens benieuwd wat het effect zou zijn van een 3de speler in de toch lucratieve GPU-markt.

[Reactie gewijzigd door Coolstart op 22 juli 2024 22:27]

Intel schijnt nog dit jaar met een "Alchemist+" te komen, en volgend jaar met Battlemage en er gonzen geruchten dat deze een flinke prestatie-boost krijgen t.o.v. Alchemist. We moeten nog maar zien of ze het werkelijk waar kunnen maken, maar het zou zomaar ineens spannend kunnen worden.
Prestatieboost op papier (hardware) geloof ik wel dat Intel voor elkaar kan krijgen als ze het echt willen, maar de software/driver support is de achilleshiel van hun bestaande gpus en dat zie ik ze niet zo snel oplossen.
Ze maken op het gebied van drivers nochtans reuze stappen vooruit.
Drivers zijn maar 1 onderdeel van deze kwestie, Intel zet daarin zeker stappen in de goede richting maar ligt vooral qua features nog achter op de concurrentie.
Het grotere probleem is ondersteuning en optimalisatie in software. Zolang de markt van klanten met Intel kaarten een fractie van een procent blijft gaan ontwikkelaars daar geen tijd in steken.
Echt niet alleen software. Bij Intel staat een relatief groot deel van de GPU niks te doen tijdens het gamen. Een simpel voorbeeld is een integer-unit die niks te doen heeft tijdens een floating-point berekening. Dat is toch grotendeels een hardware-probleem. Hetzelfde geldt voor het hoge verbruik (specifiek ook idle).

Hopelijk kunnen ze daar met battlemage een grote stap zetten.
Ben benieuwd wat doet dit voor de prijs van de Nvidia kaarten!
Waarom zou Nvidia de prijzen verlagen, de mensen die Nvidia kaarten kopen betalen het toch wel; en als ze het niet kopen, des te beter meer capaciteit voor chips die aan datacenters verkocht kunnen worden.
Ik ben benieuwd wat het doet voor de prijs van concurrerende Nvidia kaarten. Gamers die twijfelen op basis van budget kunnen hierdoor wellicht net voor AMD kiezen. De groep die toch altijd Nvidia koopt kan wellicht ook op andere ideëen worden gebracht als ze zien dat voor vergelijkbare performance wellicht veel minder hoeft te worden betaald.

De prijzen van de kaarten van Nvidia staan al heel lang ongeveer op gelijke hoogte. Zelf volg ik het vooral uit interesse allemaal. Mijn 3080 mag het in elk geval nog volhouden tot de 5080 wordt gelanceerd!
Ik ben de 4070 ook een beetje uit het oog verloren (als vervanging van de 3060 Ti) sinds er niks met de prijs gebeurt, de goedkoopsten blijven maar hangen op 599, dan maar nog een tijdje 2 minuten langer wachten op een AI gegeneerd plaatje ;)

Voor gaming hoef ik het niet te doen CS:GO en PUBG draaien prima op 2560x1440 ivm AI kijk ik (nog) niet naar AMD, misschien doen ze daar nog wat aan.
De 3060ti was van die generatie de best bang 4 buck. Als ik puur rationeel zou kijken naar gpu's toen dan had ik hem ook gekocht. Ik denk dat wij beiden gewoon lekker moeten wachten op de 5xxx serie en dan heb je echt weer een grote sprong!

Voor de game die ik nu vooral speel is de 3080 ook sterk zat. Overwatch 2!
Niks waarschijnlijk.. Nvidia is veel te druk met veel geld verdienen aan AI etc.. Dat hun gaming GPU's een dure niche markt worden of zijn vinden ze wel best vrees ik..
De markt is veel te volatiel voor Nvidia om hun roots te negeren. Dit gaming GPUs zijn bovendien waar al die AI algoritmes op ontwikkeld worden.
Ze zitten in de luxe positie om een premium prijs te vragen voor hun producten, maar ze kunnen het zich niet veroorloven om een significant marktaandeel te verkiezen. Het is aan AMD om de fouten van Nvidia af te straffen, naar tot op heden valt ook dat een beetje tegen.
“Hun roots” zijn een betrekkelijk klein deel van nvidia’s omzet en winst. Ze leven niet van de gaming markt en hoeven ook niet competitief te zijn op prijs. Nvidia levert al meerdere gpu generaties slechtere value for money dan AMD en toch zie je AMD slecht terug in bijvoorbeeld steam hardware survey.
Nvidia en AMD weten allebei dat er in een prijzenoorlog niks te winnen valt. Ik gok bovendien dat Nvidia weet dat ze op "mindshare" hun producten kunnen verkopen, en dat veel mensen per se een Nvidia willen omdat bijvoorbeeld "muh drivers" of "muh DLSS".

Nvidia lijkt sowieso niet bezig met de prijs-prestatie verhouding en probeert GPUs grotendeels op featureset te verkopen.

Overigens is deze hele vraag symptomatisch van het hele probleem: het klinkt namelijk heel erg als "ik wil geen AMD, ik wil alleen dat ze prijsdruk op Nvidia uitoefenen". Op gegeven moment houdt dat gewoon op.
AMD positioneert de RX 7700 XT tegenover de GeForce RTX 4060 Ti en noemt een adviesprijs van 489 euro.
Wat voor onzin is dat nu weer? Een RX 6800 is 15% sneller dan de 4060 Ti en kost momenteel € 464.
Als de RX 7700 XT geen 10% sneller is dan de RX 6800, is die adviesprijs veel te hoog. Zeker omdat je ook nog 4 GB aan VRAM inboet.
6800 is 10-15% sneller in niet raytracing, zet dat aan en die is 10% trager .
De 4060 ti is 10% goedkoper dan de 6800 komt dus ongeveer overeen.

De 6700 xt is een 10-20% trager dus als die 7700 xt 10-20% sneller is komt die on par met de 4060ti maar dan idd wel wat duurder.
Sowieso is de 6800 de betere keuze, want 16 GB VRAM ipv 8. Je moet maar eens zoeken online op vergelijkingen tussen de 3070 (weet nu niet zeker of het de Ti versie is) en de RX 6800. Laatste komt er veel beter uit (in niet raytracing) dan de 3070.
Hangt ervanaf wat je speelt in welke resolutie. Maar idd soms maakt die vram wel verschil
4060 Ti heb je vanaf 370 bij NBB.
Niet speciale specs, maar de prijs is erg goed geplaatst. 499 dollar is precies wat de high-midrange nodig had. 550 euro plus Starfield en je bent een jaar of 2 zoet.
Heel eerlijk zijn dit meer vervangingen van de 6800XT en de 6700XT dan opvolgers... De 7700XT zal rond de 6800 hangen maar dan met minder vram en voor dezelfde prijs. Als die genoeg zakt in prijs is het een goede vervanger van de 6700XT en iets sneller.

De 7800XT zal stuivertje wisselen met de 6800XT, evenveel vram, de 7800XT verbruikt zelfs meer power dan een 6900XT...? Prijs is prima, maar een 6800XT is ook al tijden lang voor rond de €550 te koop. Niet onder de indruk.
Ik mis de vermelding/vergelijking van de RX 6950 XT ?

Zelf deze kaart ( Asus RX 6950XT 16GB TUF O16G Gaming) paar dagen geleden voor 549 nieuw besteld verkocht en verzonden door Amazon. (Wel met een lange levertijd, enkele maanden maar soit.)

Zolang deze kaart nog niet verzonden is, kan ik hem nog annuleren mocht er iets interessanter voorbij komen, maar het lijkt erop dat de performance van de 7700/7800XT de 6950 XT niet overtreft, of mis ik een belangrijk detail?
Grote kans dat de RX 7800 XT niet de RX 6950 XT zal overtreffen, wel is de RX 7800 XT een stuk efficienter dan de RX 6950XT. Maar ik zou eerst de benchmarks afwachten. 549 Voor een RX 6950 XT is overigens zeker geen slechte deal. Zelf heb ik het idee dat de RX 7800 XT zich tussen de RTX 4070 en de RTX 4070 Ti gaat positioneren qua performance.
Aparte keuze dat ze naast een mcd minder het ook nodig vonden om er langzamer geheugen op zetten. Misschien heeft het met de prijs te maken gezien de kaarten op een mcd en 2 geheugen modules na identiek zijn en ze dan toch ergens anders nog wat meer moesten besparen. Maar gezien het relatief geringe prijs verschil lijkt de 7800 XT mij de betere keuze.

We gaan het in de revieuws nog terug zien hoeveel nadeel de langzamere geheugen bus heeft maar ik verwacht toch +-20% lagere prestaties.
Heb een RX6800, was toch al niet van plan te gaan upgraden aangezien ik nog steeds meer dan tevreden ben, maar dit is geen goede generatie om te gaan upgraden en dat geldt ook voor het groene kamp.

Ik heb een voorkeur voor het rode kamp, maar de enige kaart die me verrast heeft deze generatie is de RTX4090, maar die heeft een prijkaartje waar je u tegen zegt :P

Op dit item kan niet meer gereageerd worden.