Vermeende specificaties AMD Radeon RX 7800 XT en RX 7700 XT verschijnen online

YouTube-gebruiker RedGamingTech heeft de vermeende specificaties van AMD's onaangekondigde Radeon RX 7700 XT en 7800 XT gedeeld. De youtuber deelt ook specificaties van een Radeon RX 7800 XTX, maar de release daarvan zou 'waarschijnlijk' geschrapt worden.

RedGamingTech deelde de specificaties in een recente video, merkte ook techwebsite OC3D op. Volgens RedGamingTech krijgt de Radeon RX 7800 XT een Navi 32-gpu met 60 compute-units. De videokaart zou daarnaast 16GB GDDR6-geheugen op een 256bit-geheugenbus krijgen, naast vier mcd-chiplets voor in totaal 64MB Infinity Cache. De youtuber spreekt over een tbp van 285W. De prestaties van de RX 7800 XT zouden 'dicht bij' die van de Radeon RX 6950XT en iets onder die van de Nvidia GeForce RTX 4070 Ti liggen.

AMD Radeon RX 7000-specificaties via RedGamingTech
Bron: RedGamingTech

De Radeon RX 7700 XT wordt een lager gepositioneerde desktopvideokaart met een Navi 32-gpu. De videokaart zou daarmee beschikken over 54 CU's en 12GB geheugen op een smallere geheugenbus van 192bit. De videokaart zou ook beschikken over drie extra chiplets voor 48MB Infinity Cache. De videokaart krijgt volgens RGT een 225W-tbp en zou concurreren met de onuitgebrachte GeForce RTX 4060 Ti, waarover ook al langer geruchten rondgaan.

De youtuber spreekt ook over een Radeon RX 7800 XTX. Die desktopvideokaart zou beschikken over een Navi 31-gpu, net als de huidige Radeon RX 7900 XT en XTX. De videokaart zou 70 CU's en 16GB GDDR6-geheugen op een 256bit-geheugenbus krijgen. Volgens de youtuber beschikt die videokaart over vier mcd-chiplets voor 64MB Infinity Cache. De tbp van dit model zou 300W bedragen en de videokaart zou concurreren met de RTX 4070 Ti. AMD zou de release van de Radeon RX 7800 XTX 'waarschijnlijk geschrapt hebben', zo zegt de youtuber.

AMD bracht zijn eerste Radeon RX 7000-desktopvideokaarten eind vorig jaar uit, in de vorm van de Radeon RX 7900 XT en XTX. Het bedrijf heeft nog geen details gedeeld over lager gepositioneerde videokaarten voor in pc's, hoewel het begin januari wel laptopvarianten aankondigde. AMD introduceerde recent ook een Radeon PRO W7000-serie voor workstations, waaronder een Radeon PRO W7800-variant die lijkt op de vermoedelijk geschrapte Radeon RX 7800 XTX.

Door Daan van Monsjou

Nieuwsredacteur

25-04-2023 • 15:12

44

Lees meer

Reacties (44)

Sorteer op:

Weergave:

Heeft de RX 7700 XT niet een hoog stroomverbruik met 225W-tbp. Dit als tegenhanger van de RTX 4060.
De 12 GB die op de 7700 XT zit is wat mij betreft een gigantisch voordeel dat bijna niet meer goed te maken is door in elk geval de 4060 Ti.

[Reactie gewijzigd door Ludewig op 22 juli 2024 14:11]

Het is één van de redenen waarom ik voor de RX 6750 XT ben gegaan in plaats van een RTX 3070.

Ik heb mijn hele leven nVidia-kaarten in het "x70"-bereik of daaromtrent gehad. Denk aan de GF4600, 9600GT, GTX 560 Ti, GTX 1070. Mijn vorige kaart was een GTX 1070 met 8GB RAM, en hoewel het x70-bereik nog steeds prima voor mij is, vond ik het geen doen om een kaart te kopen die bijna 3x zo snel was, maar nog steeds 8GB RAM had.

Daarom heb ik voor de eerste keer in mijn leven een AMD-kaart gekocht; de RX 6750 XT met 12GB.

(Zwaardere kaarten trekken met 300+ watt teveel stroom en ik heb er het geld niet voor over, want ik ben geen die-hard gamer. 1440p @ 60 Hz met "High" settings is genoeg; Very High / Ultra / Epic etc levert vaak te weinig op voor het FPS-verlies.)

Andere redenen om voor de RX 6750 XT te gaan waren de lagere prijs ten opzichte van de vergelijkbare 3070 van dezelfde fabrikant (€105 goedkoper ten tijde van aanschaf), en de open-source Linux-driver.

Als er een 7700 XT of 7800 XT was geweest én die zou worden ondersteund in Debian Stable (wat nu dus 2 jaar lang niet gaat gebeuren behalve als je met custom kernels en eigen MESA gaat werken), dan had ik deze mogelijk ook overwogen.
Op zich een goed punt en een overweging, maar niet alleen de specs schalen op, ook het benutten ervan. Zo gebruikt RTX3xxx ook nieuwe en betere geheugencompressie (aldus, nvidia). Het nut daarvan is natuurlijk discutabel, wilde het enkel als nuancering / kennis toevoegen.
Er zijn redenen om voor nVidia te kiezen, zelfs als de prijzen hoger zijn dan bij AMD, en zeker als je een grafische kaart gebruikt voor andere dingen dan gamen. Er zijn een aantal professionele video-editors die hardwareversnelling via CUDA hebben, maar niet via OpenCL, of OpenCL is trager op een kaart van vergelijkbare prijs. Als je de kaart gebruikt voor AI (neurale netwerken), dan is CUDA veel beter ondersteund dan OpenCL. In verscheidene video's heb ik ook gehoord dat je voor sommige "creator tasks" (ik ga ervan uit, video-editing) AV1 zou willen hebben (wat dat dan ook moge zijn; niet opgezocht).

Zelf doe ik enkel twee dingen met mijn grafische kaart:
- beeld krijgen
- spellen spelen (die soms 10+ jaar oud kunnen zijn)

Dus mijn vereisten zijn niet extreem hoog. Sommige van de spellen die ik speel zouden zelfs op de geïntegreerde GPU van de 5700G CPU gedraaid hebben.

Alle niet-gaming voordelen van nVidia zijn voor mij dus niet van toepassing. Het enige dat ik nodig heb van een grafische kaart is beeld leveren, en redelijk recente spellen (2021 en ouder, want ik wacht standaard 1-2 jaar met spellen totdat alle bugs eruit zijn; te vaak tegen de lamp gelopen met game-breaking bugs) draaien op 1440p @ 60 Hz met een beetje acceptabele settings.
AV1 is een zeer goede techniek voor video compressie, die veel beter is dan de H.264 codec die nu het meest wordt gebruikt. Hij kan ook nog eens gebruikt worden zonder royalties te betalen, dus als men overstapt gaan de kosten omlaag van hardware en software die gebruikt wordt om video's af te spelen of te encoderen. Daarom denken veel mensen dat dit de meest gebruikte codec gaat worden in de toekomst.

Zodra met name genoeg mobiele telefoons een decoder aan boord hebben, zou het heel snel kunnen gaan met de adoptie. Zo lijken zowel YouTube als Twitch van plan om AV1 te gaan gebruiken in de toekomst.

Nu is het wel zo dat zowel de 6000-serie van AMD als de 3000-serie van Nvidia al een AV1-decoder aan boord hebben, wat voldoende zou moeten zijn voor de meeste consumenten. Een AV1-encoder is met name interessant voor VR-gamers en mensen die video(streams) produceren. De eerste groep draait spellen op de PC en stuurt de videobeelden dan door naar de VR-headset. Gezien de beperkte bandbreedte van de verbinding tussen de PC en de headset is een goede encoder dan van groot belang.
De eerste groep draait spellen op de PC en stuurt de videobeelden dan door naar de VR-headset. Gezien de beperkte bandbreedte van de verbinding tussen de PC en de headset is een goede encoder dan van groot belang
Bwa beperkt... latency is the name of the game, en als je draadloos wilt gaan dan investeert men toch beter in je netwerk zodat je een goede verbinding hebt naar een 5Ghz of 6Ghz antenne op de kamer. (En tegenwoordig zetten moederbordfabrikanten naast 2.5Gbit Ethernet een Wifi 6E/7 antenne die perfect als brugje kan dienen.) Als je dan nog maar 1 stream wilt vullen zit je aan zo een hoge bitrate dat je HEVC encoder (zelfs h264) al niet weet wat te doen met alle extra bandbreedte. Kwaliteit is een ander verhaal natuurlijk :+
Dat hebben AMD en Nvidia haast elke generatie. Zoek maar eens op de term delta color compression ;). Waarschijnlijk is het weer een kleine verbetering.
Helemaal mee eens, geheugen is zo belangrijk als je lang met je kaart wil doen. Ik speel nu Red Dead Redemption 2 op een RX 480 4GB en het geheugen zit vol. Terwijl er nog genoeg paardenkracht is :+ ;) om de graphics hoger te zetten.
Het is alleen wel een flink nadeel ten opzichte van de 6800, die 16GB heeft, waarmee de kaart eveneens vergeleken zal gaan worden.
Over de hele linie een redelijk verbruik.

Jammer. Kan me herinneren dat mijn GTX1660 Ti genoegen neemt met 140W. Niet veel zin in kaarten die twee keer zoveel hitte in de kast en daarna in de kamer dumpen.
Voordeel is dan wel dat de verwarming niet aan hoeft.

Zonder gekkigheid, mijn 8700k met 1080ti maken mijn game kamer welke 2,80 bij 2,80 bij 2,30 zijn toch behoorlijk warm zelfs op de koudste winterdagen. En dat in mijn 1943 woning weliswaar nieuwe spouw isolatie en kunststofkozijnen met hr++ glas. Maar ik heb hier echt nooit de verwarming aan als ik aant gamen ben..
Nou exact. Ik gebruik geen verwarming in de winter. Met de pc aan wordt het toch iets warmer. Alleen in de zomer is het natuurlijk een nadeel.
Nou exact. Ik gebruik geen verwarming in de winter. Met de pc aan wordt het toch iets warmer. Alleen in de zomer is het natuurlijk een nadeel.
Yes zomer is minder maar heb gelukkig 15 zonnepanelen sinds dit jaar, dus kan overdag de hele dag de airco aanzetten en alle ramen dichthouden.
Tijdens een hittegolf binnen zitten te gamen wordt zonder airco dan wel weer ietwat onaangenaam, tenzij je natuurlijk de power limiter flink omlaag gooit.
Zomeravonden game ik niet hoor
De 7700XT is de tegenhanger van de RTX4060ti, die ook rond de 200 watt zal zitten.
Ik ben benieuwd, als deze tussen de 550-600 dollar gaat kosten, zou het wel eens DE videokaart van het jaar kunnen zijn. En dan heb ik het over de 7800xt met 16gb ram. Rx 6950xt prestaties met betere raytracing, 16gb ram en een aantrekkelijke prijs. Dat wordt dan mijn videokaart :)
Ja, als de prijs goed is zou dat idd echt een prima kaart zijn voor de lange termijn met een 1440p systeem. De rest van de kaarten stellen voor nu wel een beetje teleur. De 7700xt heeft een hoger verbruik dan de 4070, maar prestaties die daar 1 kaart onder zitten.

Maargoed, is allemaal speculeren voor nu. Hopelijk komen ze snel uit en krijgen we meer duidelijkheid.
De 4070 wordt dan wel overal afgeknald, maar als die zou dalen naar €500 euro (wat ik ook heb betaald voor mijn 1070 een jaar of 6.5 terug, en wat ik heb betaald voor mijn RX 6750 XT), dan zou het voor dat bedrag een monsterachtige kaart zijn. Het is een kaart met een verbruik van rondom de 200W, met maar 1x 8-pin stroomaansluiting. Ruwweg 85% van de snelheid van een RX 6950 XT, maar met een stroomverbruik van 200W in plaats van 350W (350W+ in geval van sommige fabrikanten).

Als ik nu een nieuw systeem zou bouwen en de 4070 beschikbaar zou zijn voor ~€500-525 in een wat meer high-end model (Asus TUF, MSI GamingX, etc) dan zou ik die zeker overwegen, komend van een GTX 1070.
De 4070 kost gecorrigeerd voor inflatie exact hetzelfde als de 1070 toentertijd koste. 500 euro in 2016 is nu 666 euro waard volgens deze site. Het is al een prima kaart voor een prima prijs. Dat 670 euro veel geld is staat overigens ook als een paal boven water, maar dat doet niets af aan dat de prijs van de 4070 gewoon in lijn is met die van 3 generaties eerder.

Ben wel heel benieuwd wat AMD dus met hun prijzen gaan doen. Als de 7800xt op ongeveer hetzelfde prijs punt komt als de 4070 maar prestaties gaat evenaren van de Ti versie is dat echt een prima kaart voor de prijs.
Alleen krijg je daar nu de ‘60’ gpu chip voor. Je krijgt dus echt minder waar voor je geld.
Als de 4070 tenminste 3080ti prestaties had, dan was het een geweldige deal. Maar momenteel komt hij amper voorbij de 3080 en dan is 660 geen fijne prijs
Same here. Voor mij is een belangrijk selling point van de nieuwe generatie kaarten de native AV1 encoding support. Anders was de 6950 XT wel een interessante optie geweest. Maar geen van de nieuwe kaarten tot nu toe is erg overtuigend. Ik had m'n hoop gevestigd op de RTX 4070, maar de combinatie van prijs, prestaties en slechts 12 GB VRAM maken het een hard sell. De 7800 XT zou wel eens dé kaart kunnen zijn waar ik op zat te wachten. Nu hopen dat AMD een beetje opschiet, ze laten een aantal grote gaten in de markt nu wel heel lang open liggen.
Ze hebben in ieder geval niet dom gedaan mbt het geheugen, 16GB is gewoon het minimale dat nieuwe kaarten als de 4060+ zouden moeten hebben, 8GB en 12GB is gewoon te weinig.
Hmm, zal toch echt aan de prijs moeten gaan liggen of deze kaarten de moeite waard zijn ten opzichte van de huidige RDNA2 opties, die 7700xt zal ergens tussen de 6700xt en 6800 uitkomen, met pakweg evenveel stroomtverbruik.

Dat zat een vrij hard prijsplafond van ~550 EUR/USD op die kaart, aangezien je voor ~570 een 6800 hebt, en sub 600 ook 6800xts te vinden zijn. En dan moet er nog genoeg extra performance zijn om zich te onderscheiden van de 6700xt vanaf pakweg 400 euro.

Ik voel me in ieder geval niet persee enthousiast over de 7000 series, mocht je nu een upgrade willen, dan is gewoon een 6700xt/6800(xt) halen je beste optie in AMD land
Er zijn zelfs 6900XT en 6950XTs te koop voor onder 700 euro dus ze zouden inderdaad echt zo laag geprijsd moeten zijn om het waard te zijn
yep, en hoewel het rdna2 spul natuurlijk een keer op gaat raken, stel je nu wel een vergelijkingspunt kwa bang/buck. Mensen roepen nog steeds "slechtere bang/buck dan mijn rx580"
RX580 gebruikt 14 nm procedé. Ik kan me niet voorstellen dat dat efficiënter is dan de nieuwste generaties (ik heb een 6700 XT en die gebruikt 6 nm procedé). Er zullen vast mensen zijn die dat roepen, maar dat zijn dan bijvoorbeeld mensen die goedkope stroom hebben (via bijv zonnepanelen of vanwege algehele lage energieprijzen), mensen met bovenmodaal inkomen, of kinderen die zelf niet de elektra-rekening hoeven te betalen. Daarnaast heb je een sunk cost. Je hebt de RX580 al in je bezit, en die zou je dan ook nog eens moeten verkopen.

Het is wel zo dat de beste concurrent ook de voorganger van hetzelfde merk kan zijn, en er is nu een overschot want post-covid is de vraag omlaag gegaan tov het aanbod. Persoonlijk heb ik best interesse voor 4k gaming maar dan wel met meer dan 60 FPS. En dan heb ik een heel nieuwe hardware nodig: nieuwe monitor, nieuwe grafische kaart, en misschien ook nieuwe processor, nieuw moederbord, en DDR5 geheugen. Dus daar wacht ik dan maar nog even mee en hou het op 1440p.

[Reactie gewijzigd door Jerie op 22 juli 2024 14:11]

Klopt, het "muh 580" argument vind ik ondertussen ook vrij onzinnig, mijn rx6600 doet toch echt meer dan de dubbele performance dan de 570 die hij verving, voor hetzelfde stroomverbruik. En aangezien 6600s tegenwoordig al vanaf 219 euro in de pricewatch staan, mogen die 580s toch echt wel een keer vervangen worden.

Neemt niet weg dat er nog genoeg mensen vast hangen aan het idee dat als die kaart 5 jaar terug 150 euro kostte, alles meer dan 150 euro afzetterij is en AMD uitzuigers, reason be damned
Het punt met die RX480/580 is dat het de laatste heel erg populaire midrangekaart was die rond de 200 euro zat voor de grote stagnatie/inflatie. Een GTX1060 zat in vergelijkbaar vaarwater. Een goed prijs/performance punt. Nu is dat dan een RX6700XT, alleen kost die nog steeds zo'n 400 euro. Da's het dubbele.
Inflatie sinds de RX480 introductie betekent dat we van 200 eerder naar 250 gegaan zijn, geen verdubbeling. En da's waar het wringt.

De RTX4070 (ook wel 4060Ti genaamd in de volksmond) nu bvb zit op 64% van de performance van de 4080 (wat niet eens het topmodel is) en kost alsnog 600-700 euro. Dit is het veld waar de RX480/580 zaten aan een prijs die 3x lager was.
250-300? Realistisch ivm inflatie enzo. 650? Nee. En daar gaat het om.

Zie bvb ook de $/frame van Techspot: https://www.techspot.com/article/2608-cost-per-frame-gpu/
Waar de RX480/580/1060 allemaal uitblinkten in zoveel mogelijk frames per euro, zie je nu dat het speelveld veel meer lineair is geworden. Je krijgt gewoon geen (duidelijk) betere deal meer in de lagere segmenten. Dat steekt.

laatste edit: kijk voor de gein ook eens naar een soortgelijke - zeer beperkte - grafiek op deze pagina: https://www.techspot.com/article/1626-gpu-pricing-q2-2018/ , ctrl-f op "a cost per frame". Daar zag je heel duidelijk gewoon de tiers. Een RX580 gaf je gewoon 50% meer rendement per euro. In 2023 zie je gewoon een 7900XTX met een zelfde verhouding als een RTX3060 en doet een RX6600 het slechter.
Als we het op dezelfde methode zouden terugrekenen:
- 7900XT aan 900 euro met 118fps
- 7700 aan 380 (50% meer rendement) euro met 75fps (64%)

[Reactie gewijzigd door Arrigi op 22 juli 2024 14:11]

tentative specs lijkt me hier wel duidelijk de 7900xt kan maar net competen met de 4070 ti
Als ze dan zeggen dat de 7800 xtx de rechtstreekse concurrent is van de 4070 ti
en de 7800 xt close to 6950 xt range??

Met andere woorden zit AMD nu met zichzelf te concurreren en de 7900 xt die toch al amper verkocht volledig dood te maken.
Of het moet zijn dat er een wezenlijk verschil zit in performance, ben ik wel benieuwd naar!
grote voordelen zouden wel zijn:
RT
AV1
DP2.1
Drivers
Stroomverbruik op vergelijkbare prestaties
Buiten de raytracing-prestaties en misschien het stroomverbruik (=warmte) om is het voor het overgrote deel van de klanten niet erg interessant, tenzij ze de prijs fors verlagen.
Het verschil tussen de 7900 XT en 4070 TI is ongeveer 10% en dat is exact evenveel als het verschil tussen 6800 XT en 6900 XT. Er is dus wel ruimte voor een product, maar heel zinvol is het niet nee...
Aan welke prijzen zou je dan voor die RX 7800 XT & RX 7700 XT moeten denken? Aangezien AMD toch vaak lager in prijs zit dan dezelfde prestaties in een NVIDIA kaart.
Voor mijn systeem is de 7900 overkill en het geld niet waard. Ik hoop dat de 7800 serie rond de 500 gaat kosten, ben benieuwd performance wise wat het gaat doen.
Ik denk dat je dat wel kunt vergeten. De 6800 xt kost namelijk een stuk meer en de 7800 xt is beter. Er is ook al (enige tijd geleden) gemeld dat ze de prijs hoog houden ondanks de lage vraag. Zouden ze deze kaart inzetten op 500 euro, dan zijn de 6800 xt kaarten ook gelijk een stuk minder waard. Die zijn dan niet meer te verkopen zonder een flink verlies te leiden voor de retailers, waardoor AMD-kaarten dan een stuk minder aantrekkelijk worden en daarmee dus minder ingekocht en dus ook verkocht worden. Dit zou dus een mes in eigen rug zijn van AMD. Tenzij ze alsnog de prijs omlaag halen en de retailers compenseren, maar dat zie ik niet zo snel gebeuren.

Mijn idee: Als je geen nieuwe videokaart nodig hebt, koop het dan ook niet. Er is geen chiptekort meer, er is geen hoge vraag meer. Door voornamelijk die 2 aspecten is de prijs in korte tijd flink opgedreven, nu zou het weer moeten zakken, maar ze zien dollar-tekens. Ik weiger een nieuwe kaart te kopen tot de prijs weer met minimaal 20% zakt en als iedereen dat doet (als alternatief voor 1 midrange videokaart kun je bijvoorbeeld ook een ps5 kopen, kun je daar in de tussentijd op spelen als je gpu kapot gaat bijvoorbeeld), dan kunnen de fabrikanten dit gewoon niet volhouden. Dit is een spelletje van geduld. Wie de langste adem heeft wint. Wij kunnen wel zonder overprijste midrange/lowrange videokaarten, zij kunnen die niet blijven ontwikkelen/produceren zonder de verkoop daarvan, dus we hebben het voordeel aan onze kant. Jammer alleen dat velen het geduld niet hebben.
Mijn idee: Als je geen nieuwe videokaart nodig hebt, koop het dan ook niet. Er is geen chiptekort meer, er is geen hoge vraag meer. Door voornamelijk die 2 aspecten is de prijs in korte tijd flink opgedreven, nu zou het weer moeten zakken, maar ze zien dollar-tekens. Ik weiger een nieuwe kaart te kopen tot de prijs weer met minimaal 20% zakt en als iedereen dat doet (als alternatief voor 1 midrange videokaart kun je bijvoorbeeld ook een ps5 kopen, kun je daar in de tussentijd op spelen als je gpu kapot gaat bijvoorbeeld), dan kunnen de fabrikanten dit gewoon niet volhouden. Dit is een spelletje van geduld. Wie de langste adem heeft wint. Wij kunnen wel zonder overprijste midrange/lowrange videokaarten, zij kunnen die niet blijven ontwikkelen/produceren zonder de verkoop daarvan, dus we hebben het voordeel aan onze kant. Jammer alleen dat velen het geduld niet hebben.
Ik heb rond 2020 een nieuwe pc gebouwd, toen heb ik geen amd 5700 xt gekocht omdat ik wilde wachten op de nieuwe generatie. Nu heb ik al 3 jaar langer met mijn gtx 1050TI moeten doen ivm de prijzen die absurd zijn.. de 1050ti doet wat hij moet doen, maar als ik nieuwere titels wil spelen zoals een RD2 moet ik dus op 720p spelen op een 1440p monitoren om maar rond de 30fps te krijgen. Op 1080 kom ik dus onder de 30fps en dan ben je al snel klaar met spelen. Op oudere titels zoals gta 5 kan ik nog rond de 40 fps spelen, maar je wil soms ook wat nieuws spelen.

Kaarten zakken zeker wel in prijs, je kan nu al een high end 6950XT voor 650 euro kopen nieuw bijvoorbeeld, nog geen jaar terug was dat het dubbele. Ja je kan een ps5 kopen nu tegenwoordig, maar dan moet ik ook alle spellen nog eens los aanschaffen die ik al heb. Die kosten moet je dan ook meenemen als je dat niet hebt.
Altijd mooi die speculaties, Ik las gisteren dat de volgende uitgebrachte AMD kaart de 7600 zou zijn en dat deze op deze eind mei te zien moet zijn op COMPUTEX (https://www.igorslab.de/e...tex-wohl-kleinere-karten/).

Er wordt vaak geroepen dat AMD meer bang for buck levert. Daar lijkt met deze generatie voorlopig nog geen sprake van, de feature set van Nvidia is in deze generatie voor mij aansprekender dan wat AMD levert.

RT mag dan wel beter zijn t.o.v. NAVI 2, maar kan zich absoluut niet meten met Lovelace (https://www.tomshardware.com/reviews/gpu-hierarchy,4388.html). DLSS is beter dan FSR (https://www.youtube.com/watch?v=O5B_dqi_Syc). Of je echter op de lange termijn en misschien met uitzondering van de 4090 ook echt iets aan de huidige RT-capaciteiten hebt is afwachten. Er valt nog heel veel winst te behalen voor Nvidia en dus nog meer voor AMD.

Blijft over dat Nvidia te weinig geheugen prikt op de kaarten. Iets wat steeds problematischer gaat worden, maar tegelijkertijd voor iedereen die op 1440p of lager gamed ook wel behoorlijk overdreven wordt omdat met een beetje tweaken je ook met 8 GB echt nog prima kunt gamen. Of dat zo blijft, vraag ik me ernstig af. De verhalen dat de 4060 (ti) maar 8 GB geheugen zou hebben en de 7600 'meer', spreekt in elk geval in het voordeel van AMD hier, ook omdat RT alleen in het hogere segment echt meerwaarde biedt.

Het lijkt me dus een logisch verhaal, dat er eerst een 7600 uitgebracht gaat worden, waarmee AMD dan op prijs en prestatie kan concurreren, iets wat ze volgens in het hogere segment niet kunnen en dus ook niet doen.
Over geruchten gesproken: er zijn nu geruchten over een AMD APU die betere performance heeft dan een 4070 mobile 😲 Klinkt als een mooi alternatief voor een (dure) midrange videokaart.

[Reactie gewijzigd door Cristan op 22 juli 2024 14:11]

Zou wel pas voor ergens in 2024 zijn ... daartegen kan er al bijna een 5070 mobile zijn natuurlijk ...
Ik weet niet of ik de branding die RGT voorstelt helemaal zo tof vind. 256 bit Navi 31 met 70CU bestaat al als de W7800, dus het lijkt me logisch om die config de 7800 serie te noemen en dan Navi 32 alleen voor 7700 serie te houden.

Deze 7800 XT met 60 CUs word door TPU geschat op 11% sneller dan 6800 XT, 3% sneller dan 6900 XT en 5% langzamer dan 6950 XT. Dat lijkt me in lijn met de quotes van RGT, maar ik ben niet echt onder de indruk. Nou ja, hopelijk is de prijs goed.

Ze hebben overigens niet heel veel keus. Als de 7800XT ongeveer even snel is als de 6950XT, dan is de huidige ~$600 prijs van de 6950XT wel ongeveer de max.

[Reactie gewijzigd door B127 op 22 juli 2024 14:11]

Op dit item kan niet meer gereageerd worden.