AMD bevestigt voor eind juni goedkopere Radeon 7000-kaarten uit te brengen

AMD heeft bevestigd voor eind juni goedkopere Radeon 7000-kaarten uit te brengen. Tot nu toe kwamen alleen de RX 7900 XT en XTX uit. Onlangs kwam al een gerucht naar buiten over een RX 7700 XT en 7800 XT.

AMD zegt in een bespreking van de kwartaalcijfers dat de leveringen van zijn grafische kaarten toenamen. "We zagen sterke verkopen van onze high-end Radeon 7900 XTX-gpu's in het eerste kwartaal, en we zijn op weg om onze RDNA 3-portfolio uit te breiden met het uitbrengen van nieuwe mainstream Radeon 7000-gpu's dit kwartaal."

Daarmee bevestigt AMD dat er dit kwartaal nieuwe gpu's aankomen. Daarover ging onlangs al een gerucht. De Radeon RX 7800 XT is een Navi 32-gpu met 60 compute-units. De videokaart zou daarnaast 16GB GDDR6-geheugen op een 256bit-geheugenbus krijgen, naast vier mcd-chiplets voor in totaal 64MB Infinity Cache. De tbp zou 285W zijn. De Radeon RX 7700 XT wordt een lager gepositioneerde desktopvideokaart met een Navi 32-gpu. De videokaart zou beschikken over 54 CU's en 12GB geheugen op een smallere geheugenbus van 192bit. De videokaart zou ook beschikken over drie extra chiplets voor 48MB Infinity Cache. De videokaart zou een 225W-tbp krijgen. De Radeon RX 7900-gpu's kwamen eind vorig jaar uit.

AMD draaide afgelopen kwartaal zijn eerste verlies sinds jaren. De omzet kwam uit op 5,4 miljard dollar, 9 procent minder dan een jaar geleden. Het netto-inkomen kwam uit op -145 miljoen euro, waar dat vorig jaar +786 miljoen euro was. Volgens het bedrijf zelf gaat het niet slecht. "We hebben het goed gedaan in het eerste kwartaal", zegt ceo Lisa Su. "We leveren beter dan verwachte omzet en betere kwartaalcijfers in een omgeving van gemengde vraag."

AMD Radeon RX 7000-specificaties via RedGamingTech
AMD Radeon RX 7000-specificaties via RedGamingTech

Door Arnoud Wokke

Redacteur Tweakers

03-05-2023 • 07:18

58

Reacties (58)

58
58
54
5
0
2
Wijzig sortering
Volgens een comment van cherryteastain in op reddit zou er ook een 7950XT(X) aankomen. De typenamen zouden in een ROCm github pull request hebben gestaan.
Dat wordt een interessante kaart. Ik vraag me sowieso af of ze in deze kaart al de inefficiëntie van de 7900 XT(X) (als gevolg van een ontwerpfout) hebben gecorrigeerd of dat het gewoon dezelfde chip is met meer shaders en hogere kloksnelheden.
Als de specificaties kloppen, dan is het jammer dat het lijkt dat AMD Nvidia niet kan bijbenen qua stroomverbruik op lagere kaarten. Volgens Nvidia heeft de RTX 4070 een TGP van 200 watt. Volgens het gerucht krijgt de 7700 XT (bedoeld om te concurreren met een lagere kaart van Nvidia) een TBP van 225 watt. Natuurlijk zijn er wat subtiele verschillen tussen TGP en TBP (met name of koeling en verlichting wordt meegenomen in het verbruik), maar enkel fans en verlichting verklaart geen 25 watt verschil, lijkt me.

Als de specificaties kloppen, is 7700 XT vs RTX 4070 (een kaart in een hoger segment, aldus de specificaties), de 4070 een stuk zuiniger. Dit is belangrijk voor degenen die kleine systemen bouwen, waarbij de GPU niet een heethoofd mag zijn. ;)

Afijn, we weten niets zeker totdat de onafhankelijke benchmarks binnenkomen. Tot die tijd rustig op de handen zitten. :P

[Reactie gewijzigd door The Zep Man op 29 juli 2024 09:48]

Het is ook vooral of AMD zo'n kaart agressief klokt of niet. Bij hogere kloksnelheden gaat het verbruik onevenredig snel omhoog. Dus als een fabrikant in een verhitte concurrentiestrijd die kaart gewoon even 200MHz hoger zet dan ze in een monopoliepositie zouden doen, dan zie je het verbruik omhoog vliegen.

Zie ook de verschillen tussen de RX6700, RX6700XT en RX6750XT. Die laatst heeft 23% meer FLOPs met een 43% hoger verbruik dan die eerste. En dan zitten die extra FLOPs hem voor een deel nog in extra compute units, met een gelijk aantal CU's zouden de verhoudingen nog schever liggen.

NVidia heeft met de RTX40-serie een veel efficiëntere serie neergezet dan de vorige generatie, terwijl de verbetering bij AMD lager ligt. Dus zoeken ze meer de grens op. De RTX30-serie was relatief inefficiënt dus kon AMD het ook met lagere kloksnelheden af.
Ik heb zelf mijn 6800xt op 80% clockspeed draaien: van 255 naar 155 watt tijdens benchmarks. Dus 20% van de performance voor 40% van het stroomverbruik. Gok dat ik met iets undervolten nog wel verder kan komen maar dan moet ik stabiliteit testen en dat is me teveel moeite
Doen, echt het gros draait met gemak op tegen de 10% lager. En doet heel veel voor zowel performance als verbruik.
Mijn 6800XT wil helaas niet undervolten :( maar hoor van veel mensen inderdaad wel veel positieve berichten.
Undervolten is de moeite waard imho, ik heb m'n 6800 (niet xt) draaiende met een ppt limiet van 162w, met de core meestal rond de 2300mhz en geheugen op 2100, dus een kleine overclock t.o.v. stock. Scheelt ook een hoop hitte, zelfs de hotspot komt niet boven de 70c uit met fans op minimaal in een oude antec P280
Het probleem is dat mijn kaart nogal coilwhine heeft als ik de frequency boven de 2k laat komen :( misschien dat het met een undervolt bij 2.1k begint though dus zal er eens mee gaan spelen
Er zijn ook ander subtiele dingen. Nvidia doet hun scheduling voor het grootste gedeelte op de cpu. Dat zorgt voor een cpu overhead en dat is ook waarom ze veel eerder tegen een cpu bottleneck aanlopen. AMD doet de scheduling op de gpu en heeft daarom veel minder last van cpu bottlenecks in moderne API's zoals DX12 en Vulkan. Het nadeel is dat AMD dus iets meer gebruikt met hun gpu's.
In oudere API's zoals DX11 heeft Nvidia dus een voordeel doordat ze wel meerdere threads kunnen gebruiken voor de draw calls. Dat voordeel valt overigens weg als je het op Linux gaat testen doordat er gebruik wordt gemaakt van DXVK, hierdoor kan ook AMD in de oudere titels op meerdere threads draw calls batchen omdat er gebruik wordt gemaakt van Vulkan.

Een van de grote redenen dat de GTX 680 zoveel minder gebruikt dan de GTX 480/580 van Nvidia is omdat de Fermi generatie nog wel de meeste scheduling op de hardware deed.

Het is dus lastig om het verbruik dus te vergelijken omdat Nvidia bij voorbaat al een hoger cpu gebruik heeft door hun architectuur.

Zie ook de uitgebreide analyse van Hardware Unboxed:
https://www.youtube.com/watch?v=JLEIJhunaW8
TBP heeft echt totaal is te maken met het uiteindelijke verbruik, behalve dat het een maximum aangeeft van alle onderdelen samen.

Daar je hoop door laten varen en nu al nvidia gaan lopen promoten is echt een rare handelswijze aangezien je geen flauw idee hebt wat het daadwerkelijke verbruik zal zijn vs de snelheid die het biedt tov Nvidia.

Niks staat in beton gegoten op dit moment.

Edit: Ik zie dat je een belangrijk zinnetje hebt toegevoegd aan je post, we weten nog niets zeker. Zo is het ;)

[Reactie gewijzigd door darkcarlaza op 29 juli 2024 09:48]

Mijn 7900xtx zit toch echt bijna constant tegen zijn TDP aan hoor.
Mijn 'dode' reference en mijn aftermarket.
Ook als er wel benchmarks binnenkomen, komt er nog een factor bij: prijs.
De 4070 is zo zuinig, omdat het eerst niet de bedoeling was dat het een 4070 zou worden maar een hogere tier de bedoeling was. Deze 4070 zou jame dan ook underclocked mogen noemen met een overmaatste koeling. Wat je dan ook terugziet in het verbruik en de temperatuur.
Toch beetje apart om een 12gb te zien.
Dat is toch vandaag de dag de "bare minimum" met alle recente "aaa" games die in sommige gevallen de 15gb opzoeken op 1440p.
En vooral nadat AMD een "sneer" deed richting Nvidia over Vram

[Reactie gewijzigd door Xander.M op 29 juli 2024 09:48]

Toch beetje apart om een 12gb te zien.
Dat is toch vandaag de dag de "bare minimum" met alle recente "aaa" games die in sommige gevallen de 15gb opzoeken op 1440p.
En vooral nadat AMD een "sneer" deed richting Nvidia over Vram
Ik denk dat er zo langzaamaan een grotere markt komt voor niet-AAA games. AAA-spellen in 2023 doen het niet zo goed tot zover, en ik speel al helemaal geen AAA-spellen. Er zijn zat andere spellen waarbij veel VRAM niet nodig is, maar waarbij een snellere GPU wel welkom is om bijvoorbeeld een hogere resolutie of refresh rate te halen. Graphics junkies kunnen altijd nog een duurdere kaart kopen, en zijn daar ook enthousiaster over. Geduldige gamers die nog met een oude videokaart doortukken kijken de kat uit de boom. Daaronder val ik, met een combinatie van een Steam Deck en een desktop met een GTX 1080.

Te vaak wordt veel VRAM als excuus gebruikt om maar niet te optimaliseren. Een vergelijking van een nieuw spel dat VRAM slurpt met een oud spel dat efficiënt met VRAM omgaat.

[Reactie gewijzigd door The Zep Man op 29 juli 2024 09:48]

[...]
Te vaak wordt veel VRAM als excuus gebruikt om maar niet te optimaliseren.
Uit interviews met ontwikkelaars komt juist naar voren dat ze zich een ongeluk optimaliseren, maar dat ze allerlei verbeteringen niet konden doen omdat die nu eenmaal meer geheugen vereisen. Dat ging steeds meer knellen omdat de geheugentoename de laatste tijd stagneert bij Nvidia. Overigens is dat ook nogal vreemd van Nvidia omdat ze willen dat we aan de raytracing gaan, maar dat is precies een voorbeeld van een techniek die extra geheugen gebruikt.

Nu de consoles wel meer geheugen hebben, maken ontwikkelaars daar ook gebruik van en gaat het logischerwijs mis wanneer de spellen naar de PC worden geport.

[Reactie gewijzigd door Ludewig op 29 juli 2024 09:48]

Uit de interviews met ontwikkelaars komt juist naar voren dat ze allerlei verbeteringen niet konden doen omdat die nu eenmaal meer geheugen vereisen
Wat voor 'verbeteringen' dan?
Want bij sommige games lijken die 'verbeteringen' neer te komen op 4K textured onkruid en dat je het karakter fotorealistisch ten alle tijde op ook maar ieder reflecterend oppervlak gereflecteerd ziet. En als dat hetgeen is waar ik al dat VRAM voor nodig heb dan pas ik daarvoor.

Die berichten van mensen die menen dat 10 of 12 GB het 'bare minimum' is duid er op dat we deze kunstmatige push naar meer grafische details en lichtreflecties e.d. klakkeloos accepteren.
Het is de afgelopen 2 jaar ook al vaak genoeg gezegd dat het voelt alsof het RTX 3080 niveau eerder mid-range is geworden i.p.v. high end.
Maar dat komt meer doordat GPU's de sprongen niet kunnen volgen die gamesontwikkelaars maken die met iedere game een soort 'but can it run Crysis' niveau willen halen.

Het is overduidelijk dat er enorm veel meer rekenkracht en geheugen nodig is om een game op 4K met dito textures en full on raytracing en fotorealisme op een acceptabele 60 fps te draaien dan voor wat de norm 5 jaar geleden was en, realistisch, wat de norm nu nog is.
Het is ook overduidelijk dat veel games engines daar helemaal niet voor geoptimaliseerd zijn en dat de verschillen in capaciteiten van PC's ook voor problemen zorgt.
Als consument die wat te besteden heeft ontstaat min of meer een psychologische druk om vaker te upgraden of de meer high end onderdelen aan te schaffen om er maar verzekerd van te zijn dat men de games op een bepaald niveau kan blijven spelen.

Ik heb vorig jaar een hoop geld uitgegeven voor compleet nieuwe hardware die me, omdat ik nog op 1080p game, theoretisch in staat stelde in alle games die ik speelde (waaronder ook veeleisende games zoals Cyberpunk 2077) blind de ultra instellingen te selecteren en met alle toeters en bellen makkelijk 60 fps te halen.
Er zijn nu echter een aantal games uitgebracht waarbij ik het idee heb dat ik weer met mijn oude systeem zit te spelen waarbij ik steeds de instellingen terug moest schroeven om het speelbaar te krijgen.
Hoewel ik het er op zich mee eens ben dat GPU's die nu op de markt worden gebracht met minder dan 10 GB VRAM niet toekomstbestendig zijn als er op hogere resoluties dan 1080p gespeeld wordt ligt het probleem gewoon bij de games en de ontwikkelaars.
[...]
Wat voor 'verbeteringen' dan?
Want bij sommige games lijken die 'verbeteringen' neer te komen op 4K textured onkruid en dat je het karakter fotorealistisch ten alle tijde op ook maar ieder reflecterend oppervlak gereflecteerd ziet. En als dat hetgeen is waar ik al dat VRAM voor nodig heb dan pas ik daarvoor.
Er zitten in de nieuwere spellen meer polygonen. Zo is het haar nu vaak veel mooier en zijn dingen in het algemeen gedetailleerder. Ook worden er nu meer en meer aparte textures gebruikt voor bijvoorbeeld de kleding en het lijf van de persoon, waardoor het er beter uit ziet als de persoon beweegt. Er worden ook meer aparte textures gebruikt, waardoor de omgeving er minder monotoon uitziet.

Al die extra textures kosten geheugen, dus wanneer het dan in dezelfde beperkte hoeveelheid VRAM gepropt moet worden, kan dat alleen door de textures met een lagere kwaliteit op te slaan. Dus het gevolg kan dan zijn dat gebruikers met weinig VRAM er meer op achteruit gaan dan vooruit, terwijl mensen met voldoende VRAM er wel op vooruit gaan.

Overigens is het altijd zo dat nieuwe technieken die meer resources vragen aan het begin vaak nogal tegenvallen, omdat ontwikkelaars van spellen en engines nog moeten leren hoe deze het beste toegepast kunnen worden. De ontwikkelaars kunnen zich het niet veroorloven om het spel te vertragen zodat ze de tijd hebben om de nieuwe techniek helemaal te doorgronden. Ze doen wat ze kunnen in de beschikbare tijd en de lessen die ze leren passen ze dan weer toe bij het volgende spel, waar ze ook weer meer stappen zetten. En ze leren ook van andere spellen.

Ook zie je vaak wat je benoemd, dat de nieuwe techniek initieel op een overdreven manier wordt gebruikt. Juist doordat het een marketingspeerpunt is, voelen ze zich verplicht om je ermee om de oren te slaan, bijvoorbeeld door alles reflecterend te maken bij raytracing. Dat verkoopt vaak ook goed aan mensen die zich willen vergapen aan de nieuwe techniek en het dus wel prima vinden dat het overdreven veel gebruikt wordt. Na een tijdje is de nieuwigheid er af en dan wordt het op een meer normale manier gebruikt.

Als ontwikkelaars nooit de techniek gaan toepassen, omdat het aan het begin tegenvalt en te veel gebruikt wordt, komen ze echter nooit in de situatie waar het wel heel goed werkt.
Uit de interviews met ontwikkelaars komt juist naar voren dat ze zich een ongeluk optimaliseren, maar dat ze allerlei verbeteringen niet konden doen omdat die nu eenmaal meer geheugen vereisen.
Dat is een andere definitie van optimaliseren dan dat ik gebruik. Je kan ook lagere kwaliteit textures meeleveren/inladen om het VRAM gebruik te beperken, bijvoorbeeld.
Nu de consoles wel meer geheugen hebben, maken ontwikkelaars daar ook gebruik van en gaat het logischerwijs mis wanneer de spellen naar de PC worden geport.
Een Xbox One Series X heeft 16 GB totaal geheugen, met 10 GB effectief bruikbaar als (snel) VRAM. De Series S heeft maar 10 GB RAM en slechts 2 GB effectief bruikbaar als (snel) VRAM. Het klinkt meer alsof men lui voor de PC ontwikkelt.

[Reactie gewijzigd door The Zep Man op 29 juli 2024 09:48]

En dan is er nog de groep gamers die gewoon ‘oudere’ games speelt op een kaart.

Met ouder bedoel ik dan games die één of twee generaties eerder uitkwamen dan de kaart.
Ik baal nu ook wel een beetje van mijn 3070 met maar 8GB. Aan de andere kant ben ik net pas klaar met RDR2, moet Shadow of the Tomb Raider nog afmaken, hierna Horizon Zero Dawn en tegen die tijd misschien Cyberpunk 2077 of eerst nog een nieuw rondje the Witcher III. Tegen die tijd dat dat allemaal klaar is ben ik zeker 2 jaar verder als het niet meer is :+
Dit is exact ook mijn strategie. Ik kan me geen triple A game herinneren die ik direct na launch heb gekocht of gespeeld. Vrijwel al die games speel ik pas na een jaar of twee vanwege een lange backlog of leuke andere indie games die tussendoor komen.

Tevens ideaal omdat die oude triple A games zoals je zegt nu ook al een stuk beter te spelen zijn op wat oudere hardware, zoals bijv. de Steam Deck :)
De meeste AAA games speel je ook best niet meer meteen bij launch, omwille van performantieproblemen of features/QoL die later in patches uitgebracht worden.
quote: sapphire
En dan is er nog de groep gamers die gewoon ‘oudere’ games speelt op een kaart.

Met ouder bedoel ik dan games die één of twee generaties eerder uitkwamen dan de kaart.
Ik baal nu ook wel een beetje van mijn 3070 met maar 8GB.[...]
Yep: ik kocht een tweedehands RX 590 met 8GB @ 8Gbps om Horizon Zero Dawn 1+2 in alle pracht & praal te kunnen spelen en veel andere (Xbox 1/360, PS4 tijdperk) games die ik regelmatig speel (86 op steam, en een half dozijn op de PS4 Pro) zijn 5-20 jaar oud (zelfs Morrowind speel ik nog met veel plezier en zonder graphics mods).

16GB klinkt leuk maar ik betaal er wel een hele berg poet voor en 12GB klinkt net te veel als een (te kleine) tussenstap. Beter is het misschien om wachten op de volgende (mainstream) generatie die ergens in 2025 zou moeten uitkomen, tenzij er in de tussentijd een AMD RX 7650/7750 met 16GB uitkomt, maar dat zal wel niet ;-)

/edit: zaken verduidelijkt en een quote toegevoegd

@!GN!T!ON De game komt vanzelf uit voor de PC en het draait, net als deel 1, prima op de PS4 Pro ...en dus ook op de RX 590 ;)

[Reactie gewijzigd door John Stopman op 29 juli 2024 09:48]

[...]


Horizon Zero Dawn 2
huh?
Ook ik zit in de groep van de gamers die oudere spellen speelt.
Ik weiger gewoon een half (minimum-)maandloon neer te leggen voor een midrange kaart, omdat de prijs na een flinke stijging kunstmatig hoog gehouden wordt.
Ik ben weer begonnen aan Civilization 5 en spellen als Age of Mythology en Warcraft 3. Best leuk om na zoveel jaar weer eens te spelen. Ik heb bergen spellen liggen, dus ik vermaak me voorlopig wel met mijn RX 480

Ondertussen hoop ik dat het verlies van AMD alleen maar oploopt, zodat ze dit niet vol kunnen houden en er weer concurentie komt in de GPU-markt, in plaats van 2 partijen die de prijs hoog houden.
Te vaak wordt veel VRAM als excuus gebruikt om maar niet te optimaliseren. Een vergelijking van een nieuw spel dat VRAM slurpt met een oud spel dat efficiënt met VRAM omgaat.
Misschien, maar ik heb toch liever "te veel" geheugen als ik een kaart koop. Wat kost het om ipv 8GB 16GB op een kaart te zetten? 30 euro?
Wat kost het om ipv 8GB 16GB op een kaart te zetten? 30 euro?
Meer geheugen op zich zal idd. niet meer dan een tientjeskwestie zijn. Maar op een zeker moment kom je - denk ik, ik ontwerp die dingen niet - aan de limieten van bus en controller. Dan levert meer geheugen nauwelijks meer prestaties op, tenzij zo ongeveer de halve kaart opnieuw ontworpen wordt. En da's wel weer duur.

Terzijde: zijn er ooit GPU's geweest met door de gebruiker uitbreidbaar geheugen? 🤔
Terzijde: zijn er ooit GPU's geweest met door de gebruiker uitbreidbaar geheugen? 🤔
Ja. Nog een voorbeeld.

[Reactie gewijzigd door The Zep Man op 29 juli 2024 09:48]

Grappig, dank voor de links!
Niet-helemaal-recente hardware, zo te zien 😉
Titanfall 2 is ook wel erg last, last gen met blurry textures. Die draait nog op mijn laptop chip met 2gb.
Titanfall 2 is ook wel erg last, last gen met blurry textures.
Als het totaal er mooier uitziet, dan maken 'blurry textures' mij niet uit. Zo geniet ik bijvoorbeeld van de graphics van Valheim, een spel dat juist bekend staat om het gebruik van lage kwaliteit textures.

'Meer pixels per plaatje' is geen garantie voor mooie plaatjes. Sterker nog, het is niet eens een garantie voor gedetailleerdere plaatjes. Ik kan een afbeelding maken van 256x256 en die met Microsoft Paint uitvergroten tot 16384x16384. De grotere afbeelding zal meer geheugen gebruiken, maar dat houdt niet in dat de kwaliteit beter wordt.

[Reactie gewijzigd door The Zep Man op 29 juli 2024 09:48]

Je moet het in perspectief zien. Een kaart van 8GB voor onder de 200-250 euro is zeker acceptabel, ook nog in 2023. Daar kan je prima de meeste games vlot (medium settings bv) mee spelen, ook die in 2023 zullen launchen. Ga je meer betalen dan dat, dan is het een ander verhaal. Zeker boven 400 euro is 8GB een zwar af te raden keuze. Aan de (zeer) slechte verkoopcijfers van bepaalde kaarten te zien is dat ook precies wat de gemiddelde koper er van denkt. Met een 12GB kaart denk ik dat je het nog wel even zal rekken. Natuurlijk is 16-20GB beter, maar dat is voor een bepaald budget niet haalbaar.
Mee eens. Je koopt bv geen 4070 ti 12GB van bijna 1000 euro. Die kaart gaat binnen 2 jaar van high end naar instap performance. Maar de vanilla 4070 is vanwege de lagere prijs wel weer een goede optie.
Te vaak wordt veel VRAM als excuus gebruikt om maar niet te optimaliseren. Een vergelijking van een nieuw spel dat VRAM slurpt met een oud spel dat efficiënt met VRAM omgaat.
Zo, als dat een eerlijke vergelijking is, is dat best for schrikken.

Je ziet het al een tijdje met software. Dat wordt met bakken aan overbodige libraries wordt geschipped omdat schijfruimte en downloadsize er niet echt toe doen.

Wellicht zien wij hetzelfde gebeuren met VRAM nu. Omdat er zoveel is hoef je niet spaarzaam om te gaan met de 2-4-6 gb die je eerder had.
Ik denk niet dat dit helemaal klopt; gamen op deze kaarten kan met 60fps op 4 of zelfs 8k. Dat is dus (7680 * 4320 * 60=) 1.990.656.000 pixels per seconde. Natuurlijk zijn niet alle textures deze resolutie, maar ze kwadrateren in principe wel als je resolutie van 4K naar 8K gaat.

Da's nogal wat data die gedecomprimeerd moet worden als je op 8K gamet met compressed textures. Ik geloof niet dat dat snelheidsverlies opweegt tegen het uncompressed opslaan, ten koste van je vram.

Ben benieuwd of iemand met meer verstand hiervan dit beter uit kan leggen.
Ik heb er een (erg) hard hoofd in dat je met deze kaarten met 60fps op 8k kan spelen in recentere triple A games. Minecraft en League of Legends zal wel lukken, maar bijvoorbeeld een hogwarts legacy of CoD: MW2 geloof ik niet dat dat performant is op 8K met deze kaarten.
Mee eens. Ik game ook niet voor super mooie graphics, ik game voor de lol (ik vind bijvoorbeeld Mario Kart Wii beter dan Mario Kart 8 Deluxe vanwege gratis online in MKWii, en de CPUs zijn in beide games te makkelijk). Als je hyperrealistiche graphics wil, sure en daar is een markt voor, maar ik ben dat niet.

En over dat vram verhaal, je kan best semi realistiche textures hebben met maar 64MB vram (en als voorbeeld neem ik The Legend of Zelda: Twilight Princess)
[...]


Ik denk dat er zo langzaamaan een grotere markt komt voor niet-AAA games. AAA-spellen in 2023 doen het niet zo goed tot zover, en ik speel al helemaal geen AAA-spellen. Er zijn zat andere spellen waarbij veel VRAM niet nodig is, maar waarbij een snellere GPU wel welkom is om bijvoorbeeld een hogere resolutie of refresh rate te halen. Graphics junkies kunnen altijd nog een duurdere kaart kopen, en zijn daar ook enthousiaster over. Geduldige gamers die nog met een oude videokaart doortukken kijken de kat uit de boom. Daaronder val ik, met een combinatie van een Steam Deck en een desktop met een GTX 1080.

Te vaak wordt veel VRAM als excuus gebruikt om maar niet te optimaliseren. Een vergelijking van een nieuw spel dat VRAM slurpt met een oud spel dat efficiënt met VRAM omgaat.
IMHO is het geen slecht teken dat een game veel geheugen kán gebruiken, het voorkomt namelijk ook zaken als texture pop-in (dus ook het pas later laden van hogere resoluties). Het wordt pas een probleem als je het (ook bij lagere texture instellingen) écht nodig hebt. RDR2 heeft zo bepaalde cutscenes waar pas later de hogere resoluties geladen worden(specifiek bijvoorbeeld in je kamp bij de trading tafel). Dan is het leuk dat de game maximaal iets van 6,5GB VRAM gebruikt, maar ik heb er 24. En zelfs de knap vlotte NVMe helpt niet om te verbloemen dat bepaalde textures gewoon veel te laat geladen worden. Verkeerde efficiëntie dus wat mij betreft. Gebruik dat vrije geheugen dan ook voor pre-loading. Ik vind dan ook scalability minstens net zo belangrijk als efficiëntie.

Verder vind ik dat ik van niet-AAA titels minder optimalisatie mag verwachten. Valheim vond ik toen wij het speelden bijvoorbeeld en vrij lage framerate hebben op high end hardware in vergelijking met de graphics, juist bij zo'n titel accepteer ik dat. Overigens ook van een AAA die op ultra settings een grafisch festijn is. Zo lang hij op lagere settings er nog steeds goed uitziet en dan wél performt is het wat mij betreft alleen een subjectief probleem. Je kan dan de hoogste settings niet instellen, so what? Dat hoeft ook nu niet, misschien lukt het wel als je het spel over 5 jaar weer speelt(scheelt weer een remake).
Welke recente aaa games heb je het dan over? En wat is het probleem de instellingen die het meeste invloed op het geheugen hebben dan iets lager te zetten?

Zolang als ik game (30+ jaar) pas ik mn instellingen aan aan de hardware die ik heb, daar zijn de instellingen voor, het is geen console...

Ik game heerlijk op 3440x1440 met mn 3060 Ti met 8 GB. Pas de instellingen aan zo aan dat ik op 100 fps zit een gaan. Ik durf te zeggen dat de meeste gamers niet eens het verschil zien tussen verschillende instellingen en stapje hoger of lager.

Deze discussie valt voor mij in dezelfde wereld als waarin het normaal zou zijn dat je 1000 euro voor een videokaart uitgeeft. Dat is allemaal pure marketing, de meeste mensen kunnen en willen dat helemaal niet betalen.

Ps 'bare minimum' betekent voor mij dat een spel anders niet speelbaar is, dus minder dan 30 fp op laagste settings. Als een uitgever zo'n spel uitbrengt is de uitgever het probleem, niet de hardware maker. Op dat moment moet je het spel gewoon niet kopen en ze in hun portemonnee raken.

[Reactie gewijzigd door Alxndr op 29 juli 2024 09:48]

Zo goed als alle next gen only games zitten tegen de 12gb aan minimaal, met flinke uitschieters. Als ik vandaag de dag een pc zou bouwen hoop ik toch op ze minst dat ik games van vandaag op goede settings kan draaien, iedegeval gelijk of beter dan een console van 3 jaar oud.

En dat is vandaag, wie weet wat de toekomst brengt.

Als je vram "op" is gaat je perfromance flink naar de getver of crashed het gewoon.

Misschien ben ik "out of touch" met de mid-range gamer, maar zo zie ik het
Kun je specifieke titels noemen? "Next gen only" is voor mij namelijk een echte console term.

Nogmaals, wat noem je 'minimaal' en waar haal je cijfers specifiek voor 1440p vandaan?

Misschien ben ik "out of touch" met de mid-range gamer, maar zo zie ik het
Correct me if I'm wrong, maar dit klinkt alsof je neerkijkt op mensen die met minder dan 100 fps en Ultra settings genoegen nemen?

En wat ik al zei, als uitgevers zich gaan richten op meer dan 8 GB, zijn ze de realiteit volledig uit het oog verloren. 80% van de gamers heeft 8 GB of minder volgens de laatste Steam Hardware Survey
12 GB op een 7700XT tegenover de vermeende 8 GB op een 4060 Ti is nog steeds een flinke vooruitgang.
Ben alleen benieuwd vanaf welke kaart AMD dan besluit ook voor 8 GB te gaan, bij de 7600(XT) of de 7500(XT).

De meer wij in ieder geval 12 GB in de midrange gaan zien, de beter. Die hangt al te lang op 8 GB.
Dat 12 GB voor sommige games wat krap is, toont wel aan dat dingen momenteel sneller gaan dan de fabrikanten dachten. Maar we gaan zien waar dit heen leidt.
Dit is een stap de goeie kant op, en ik hoop dat dit de minimale standaard gaat worden op de midrange.
Dat klopt maar alles valt oké staat met de prijs inpricipe is er geen slechte videokaart alleen een slechte prijs als ze de 7700xt rond de 350/400 euro houden dan valt het wel mee dan ga je echt veel verkopen, daar boven word het lastigere de 4070 staat in de price Watch 669 zelfde prijs als de 6950xt
Maar is dat niet gewoonweg slechte optimalisatie? Dat er zoveel vram en system ram nodig is? Consoles hebben toch enkel een 16gb shared mem pool gpu/sys? Of heb ik niet genoeg kennis van zaken?
Vind het inderdaad erg magertjes. Tuurlijk, het is meer dan Nvidia, maar gezien de richting waar games op gaan met VRAM gebruik, het feit dat de 6700XT al 12GB had en de lage prijzen van geheugen op dit moment had ik toch echt wel gehoopt dat ze minimaal 16GB zouden kiezen voor alles boven entry level.
De 7700XT met 12GB moet tegenover de 4060 ti staan, en die kaart van nVidia heeft 8GB VRAM. AMD biedt dus 50% meer, waarom is dit dus apart?
Hmmm, lijkt weer weinig verschil te zijn tussen de 7800 XT en de 7800 XTX.
Waarom doet AMD dit?
De 7800 XTX is een Navi 31, dus dezelfde chip als de 7900 XT(X). De 7800 XT is een Navi 32, dus een chip in een lager segment.

Via de 7800 XTX kunnen ze N31 chips met wat foutjes toch nog verkopen (aantal CU's uitschakelen).

Verder heeft de 7800 XTX 70Cu's tegenover 60 in de 7800 XT, da's toch 17% meer. Vult mooi het gat tussen de 7800 XT en de 7900 XT wss :-)
Volgens de rumors gaat die XTX er uberhaupt niet komen, dat staat ook in de screenshot die overigens niets met officiele AMD slides to maken heeft. Dat zal voornamelijk (mijn mening) te maken hebben met de al dalende prijzen van de 7900XT. Een 7800XTX zou er qua prijs nergens tussen passen én het kan best dat AMD maar weinig matige Navi 31 chips heeft en dan zouden ze 7900XT-waardige chips moeten gebruiken voor een lagere kaart, met dus minder winst.
Enorme kans voor AMD om marktaandeel te claimen nu Nvidia enorm aan het blunderen is in de consumentenmarkt. Het is te hopen dat AMD realistisch is wat betreft de adviesprijzen maar ik ben bang dat ze net als met de 7900XT de plank weer volledig mis zullen slaan en dus niets zullen winnen aan terrein.
Ik begrijp dat ook niet. Met die enorme prijzen die Nvidia vraagt zou je zeggen dat het de uitgelezen kans is voor AMD om veel minder te vragen voor dezelfde performance en veel zieltjes te winnen. Dus een kans om hun marktaandeel te vergroten tov Nvidia maar misschien is dat een illusie en verlaagt Nvidia ook direct zijn prijzen om AMD te kunnen pareren. Beide bedrijven zullen echt wel capabele marketingmensen in dienst hebben die meer kunnen overzien dan wij.
Dan ga je er vanuit dat de bedrijven eerlijk zijn en geen afspraken met elkaar hebben :+ .

Maar we zullen zien.
Ik hoop serieus dat AMD met de 7700 en de 7600 het geheugen op orde heeft. Hun jeste naar Nvidia is anders weer een kogel die ze in hun eigen voeten schieten. Mjah we moeten niet te veel van AMD marketing vragen....
Het blijft mij verbazen dat een bedrijf dat goede cpu/gpus maakt een marketing afdeling heeft wat zichzelf steeds voor het blok zet.
Nouja, als ze met een 12GB versie komen die concurreert tegenover een 8GB 4060ti dan is dat al een vooruitgang. nvidia heeft zichzelf juist goed in de voet geschoten door nu nog een 8GB (4060) en 12GB (4070) uit te brengen welke beiden op zijn mijnst 12GB/16GB had moeten zijn.
Persoonlijk hoop ik op een kaart met dezelfde afmetingen als een RTX 4070 ongeveer,
want een Meshify-C zit zo vol als je voorin de pc een 280 AIO hebt, en ik zit niet bepaald te springen om een nieuwe kast te kopen die groter is.. want dan kan ik ook net zo goed upgraden van AM4..
Mmm, mooie release maand, ik zit in de markt en ben toch AMD georiënteerd, rest van de build is al af, zal een 7800 XT(X) worden, afhankelijk van de prijs, maar toch niet nodig voor de zomer. Wellicht toch een eerste prijsdaling richting herfst en dan upgraden :)
Nou wat goed geprijsde kaartjes in het middensegment is meer dan welkom. Tijd om eens wat marktaandeel bij NVidia weg te halen. Dus als de mensen i.p.v te klagen over dure kaarten aan de groene zijden de AMD variant aanschaffen dan gaat de markt mooi vooruit.

Op dit item kan niet meer gereageerd worden.