Onaangekondigde AMD Radeon RX 7600 verschijnt vroegtijdig in Aziatische winkel

De onaangekondigde AMD Radeon RX 7600-desktopvideokaart is vroegtijdig verschenen in een Aziatische winkel. De videokaart krijgt een RDNA 3-gpu en 8GB geheugen. Volgens een bron van VideoCardz gaat de gpu 249 dollar kosten, hoewel dat niet officieel is bevestigd.

Het vroegtijdig verschenen model betreft de Sapphire Radeon RX 7600 Pulse, meldt een bron aan VideoCardz, die ook foto's met die website deelt. De verpakking van de RX 7600 bevestigt onder meer dat de videokaart 32 compute-units krijgt. Dat zou neerkomen op 2048 streamprocessors. De videokaart krijgt ook 32MB Infinity Cache en 8GB geheugen, vermoedelijk op een 128bit-geheugenbus.

Volgens de tipgever van VideoCardz gaat de RX 7600 ongeveer 249 dollar kosten, hoewel het medium dat niet onafhankelijk kon bevestigen. Dezelfde videokaart verscheen onlangs bij een webwinkel in Singapore voor omgerekend 410 dollar, meldt Tom's Hardware. Het is onduidelijk welke prijs klopt.

Er gaan al langer geruchten rond over de komst van een Radeon RX 7600. AMD zou die videokaart mogelijk op 25 mei uitbrengen, bleek uit eerdere geruchten. Rond diezelfde tijd zou Nvidia met een GeForce RTX 4060 Ti 8GB komen, hoewel dat bedrijf volgens recente berichten ook een 16GB-variant van de RTX 4060 Ti zou uitbrengen in juli.

AMD Radeon RX 7600 via VideoCardz
Bron: VideoCardz
Specificaties AMD Radeon RX 7600 (volgens geruchten)
Gpu RDNA 3, Navi 33
Compute-units 32
Streamprocessors 2048
Geheugen 8GB GDDR6
Geheugenbus 128bit
Infinity Cache 32MB
PCIe-interface PCIe 4.0 x8
Releasedatum 25 mei 2023

Door Daan van Monsjou

Nieuwsredacteur

10-05-2023 • 07:47

88

Submitter: icall5s

Reacties (88)

88
88
36
3
0
41
Wijzig sortering
En deze kaart is straks even snel als een 6700xt die nu ongeveer 400 euro kost?

Krijgen we straks meer performance voor minder geld?!

8gb vram is dan wel karig maar de prijs is er ook naar.
Is 8gb vRAM weinig tegenwoordig? :'(
Volgens sommige mensen wel. Onder elke nieuwsposting van nieuwe videokaarten waarbij de kaart 8GB krijgt lees je mensen die daar kritiek op geven, en dan denk ik: als je meer nodig denkt te hebben, koop dan een kaart met meer.

Ook mensen die zeggen dat zelfs 16GB aan VRAM niet veel meer is terwijl dat evenveel werkgeheugen is als in de meeste computers maar beschikbaar is vind ik vreemd. Soms denk ik dat mensen hun eigen wensen aanzien als wat heel de wereld nodig heeft terwijl de meeste PCs het gewoon met een iGPU doen.
Volgens sommige mensen wel. Onder elke nieuwsposting van nieuwe videokaarten waarbij de kaart 8GB krijgt lees je mensen die daar kritiek op geven, en dan denk ik: als je meer nodig denkt te hebben, koop dan een kaart met meer.
Het punt is juist dat Nvidia kaarten uitbrengt met relatief weinig geheugen. Om bij hen 16 GB te krijgen moet je bijna 1000 euro uitgeven, wat ik een absurd bedrag vindt. En dit terwijl VRAM relatief weinig kost. Dus dan is het logisch dat mensen klagen.
Ook mensen die zeggen dat zelfs 16GB aan VRAM niet veel meer is terwijl dat evenveel werkgeheugen is als in de meeste computers maar beschikbaar is vind ik vreemd. Soms denk ik dat mensen hun eigen wensen aanzien als wat heel de wereld nodig heeft terwijl de meeste PCs het gewoon met een iGPU doen.
Je verhaal wordt nu wel heel bipolair. Mensen moeten volgens jou of maar honderden euros meer uitgeven, of ze moeten niet zeuren omdat de meeste mensen een iGPU hebben?? Je geeft met je vreemde redenatie wel precies aan dat het middensegment nu in de steek gelaten wordt.

En het is trouwens helemaal niet vreemd dat er evenveel VRAM op een kaart zit als RAM in de PC. Textures zijn heel groot en die hoeven niet in de RAM, maar wel in de VRAM.
als leveranciers (AMD-Nvidia) het middensegment (dat jij aangeeft als dit type) bepalen dat 8GB voldoende is dan zou ik er vanuitgaan dat hun positionering klopt..... Als ze een marktsetting willen doen (naar hogere ram) en daardoor denken dat ze meer kunnen verkopen dan zullen ze dat zeker doen. Echter is het duidelijk dat die 12 of 16GB ram op dat "middensegment" niet de juiste positionering is of dan toch zeker niet de kost/winst/performance heeft dat zij in gedachte hebben.

trouwens voor mij is een 7600-4060 nog altijd budget, maar soit gezien de inflatie en hogere prijzen dezer dagen zullen we daar maar weer geen discussie over starten.

Elke kopers wil meer voor eenzelfde prijs :)

[Reactie gewijzigd door d3x op 26 juli 2024 13:31]

Meerdere game developers geven aan dat dit niet genoeg is; bij andere games is dit al zichtbaar. Het is dus niet echt aan AMD en Nvidia in mijn ogen. Zeker niet we sinds 2016 al kaarten hebben met 8GB voor 250 euro en zelfs minder als ze later in hun lifecyclus komen en goedkoper worden.

Voor kaarten van 500-1000 euro maar 8GB of 12GB geheugen te krijgen is gewoon raar. Textures zijn nog steeds de setting die het meeste impact hebben op hoe het spel er uit ziet en is in veel gevallen de setting die je als laatste naar beneden zet als het niet goed draait.
het topic gaat hier over budget kaart... de midrange die sommigen zo mooi verwoorden.
Onder de 500eur dus (want anders zou hier heel tweakes landje op zijn kop staan over de prijsjes) laat staan in de categorie richting van 1000.... en daarbij gaat het hier over een AMD kaart. Wat nvidia doet is een andere zaak met hun portfolio. Bij mijn weten kan je nog altijd kiezen naar eigen voorkeur en verwachting.

laatste check van high end amd kaarten onder de 1000eur heeft al 20GB
categorie: Videokaarten
Als de prijs iets van 250 euro is en de kaart 8GB geheugen heeft dan kan dat echt maar net vind ik. Die 250 euro is in ieder geal lager dan de launch prijs van de 6600 destijds.
Probleem is ook een beetje dat de geheugenbus grote invloed heeft op hoeveel geheugen er op de kaart past en welke configuraties mogelijk zijn. Ik ben van mening dat een "lowend" kaart meer dan 8GB geheugen moet hebben; 16GB is te veel. Iets van 10-12GB zou mooi zijn geweest, maar kan helaas niet door de geheugenbus.
Ach, voedsel heeft ook krimp flatie, we betalen meer maar krijgen minder; tegenwoordig krijgen we grotere zakken chips maar meer lucht en minder chips.

Ik vind die 8gig wel prima voor een 250 euro kaart; 400 a 600 euro voor 12-16 gb en en duurde > 16 maar 20+ leun ik meer tegen.

Kan zelf ook niet alles verwijten aan de videokaarten; ik vind het ook een verantwoordelijkheid van ontwikkelaars om low-end/entry kaarten ook goed te ondersteunen
8>16 gb gddr6 kost ca 24 dollar extra.
Dat meerdere game devs dat aangeven is mij bekend.

En Nvidia mag best wat meer vram geven op hun high end kaarten.

Maar

Ik denk dat veel devs een beetje lui aan het worden zijn, als je ziet hoe zo’n Hogwarts Legacy uitziet, vraag ik mij werkelijk af hoe dat spel zoveel vram nodig heeft, tegenover hoe deze eruit ziet.

Er zijn wel meer games met dat issue maar niet allemaal, daarom vind ik ook dat Nvidia meer vram zou moeten geven op hun xx80 en xx70 modellen.

Maar tegelijkertijd mogen veel devs even in de spiegel kijken, als ik systeem eisen zie voor bepaalde games, en dan kijk ik naar hoe zo’n game eruit ziet, valt dat in sommige gevallen best tegen.

Beide partijen mogen beter hun best doen dus.

[Reactie gewijzigd door Mizgala28 op 26 juli 2024 13:31]

Sommige ontwikkelaars kunnen gewoon niet programeren en zullen nooit genoeg geheugen hebben.
Het werkt immers langs 2 kanten.
Als de midrange 8GB geheugen heeft, dan moet de ontwikkelaar er voor zorgen dat het spel vlot kan draaien op 8GB. Dat hoeft dan niet met de hoogste settings, maar het moet kunnen.
Zo simpel is het.
Dat sommige niet kunnen optimaliseren dat weet iedereen. Ik vind wel dat er makkelijk wordt gedaan over dat optimaliseren. Bij textues valt er weinig te optimaliseren, je kiest het juiste formaat een goede resolutie en dat is het (je bent tegenwoordig ook niet meer gelmiteerd aan texture resoluties die in machten van 2 vallen). Als je meer visuele variatie wilt in spellen zul je dus meer textures nodig hebben; en dat is wat de trend is. Vroeger werden textures veel meer hergebruikt, maar zag alles er hetzelfde uit.
Het optimaliseren zit hem voornamelijk in resource management en moderne game engines doen dit al tot op zekere hoogte voor je.

Ontwikkelaars ontwikkelen voornamelijk nu voor de PS5 en de Xbox. Die hebben meer geheugen en gaan er over het algemeen veel efficienter mee om. Dat betekent uiteindelijk dat de settings die je op een low/midrange kaart krijgt er minder goed uitzien dan op de consoles; ondanks dat de gpu sneller is.
We zijn langzaam de overgangs periode voorbij dat spellen ook nog voor de oude consoles werden ontwikkeld die veel minder geheugen hadden.
De positionering klopt alleen als de verkopen goed zijn. Tot nu toe vallen de verkopen heel erg tegen voor de duurdere kaarten en de nieuwe 8 GB kaarten zijn nog niet uit, dus heeft de markt nog niet kunnen tonen of dit verkoopt. Het is ook nogal een vreemd idee dat bedrijven perfect in staat zijn om de markt in te schatten.
trouwens voor mij is een 7600-4060 nog altijd budget
Knap dat je dat weet zonder dat de prijs bekend is. Maar ja, je 'weet' ook al dat deze producten perfect gepositioneerd worden, dus...
budget in de visie van performance richting bepaalde resolutie... en ja ook in prijs want dat zit nog altijd onder de 500eur wat in meeste positionering in huidige prijsranges dus budget is.

De verkopen vallen algemeen tegen, op alle IT vlak,wat is er nieuw? enkel die 4090 ging heel vlot in de verkoop bij start. Zelfs budget reeksen zullen niet vlot verkopen. Als je niet onder een steen leeft, heeft het niks met knap te maken... logisch denken... moeilijk tegenwoordig op dit forum.

[Reactie gewijzigd door d3x op 26 juli 2024 13:31]

budget in de visie van performance richting bepaalde resolutie... en ja ook in prijs want dat zit nog altijd onder de 500eur wat in meeste positionering in huidige prijsranges dus budget is.
Voor onder de $500 heb je al heel lang een x070, wat gewoon de hogere midrange is. De x060 kaarten zaten de vorige generaties tussen de 300 en 350 dollar. Dit is de mainstream-kaart (en lagere midrange) en echt geen budgetkaart. De 3050 was de budget-kaart voor Ampere, de 1660 Super en daaronder was budget voor Turing. De 1050 Ti en daaronder was budget voor Pascal.

Jij lijkt veel geld (over) te hebben voor GPU's, wat uiteraard prima is, maar daardoor lijkt je blik op de markt wel sterk verwrongen. De echte budget-kaarten bestaan niet alleen, maar ze worden relatief ook erg goed verkocht. Dat jij ze niet ziet staan betekent niet dat dit bij anderen zo is.
De verkopen vallen algemeen tegen, op alle IT vlak,wat is er nieuw? enkel die 4090 ging heel vlot in de verkoop bij start. Zelfs budget reeksen zullen niet vlot verkopen. Als je niet onder een steen leeft, heeft het niks met knap te maken... logisch denken... moeilijk tegenwoordig op dit forum.
Maar de slechte verkopen bij CPU's, laptops en dergelijke kun je grotendeels verklaren doordat bedrijven hun aankopen naar voren hebben gehaald voor het thuiswerken en dergelijke. Dit verklaart niet waarom gamers massaal minder zijn gaan kopen. Ik zie wel degelijk heel veel interesse in nieuwe kaarten, maar frustratie dat het aanbod zo slecht is.

Jij lijkt precies te weten dat de configuraties en prijzen van de GPUs optimaal zijn, maar je hebt daar geen argumenten voor behalve een adoratie van de bedrijven, die volgens jou blijkbaar altijd perfecte keuzes maken. Beide fabrikanten hebben echter al hun positionering aan moeten passen (de 4080 12 GB veranderen naar de 4070 Ti en het verlagen van de prijs van de 7900 XT), dus het is al aangetoond dat de bedrijven daarin fouten maken.
heoveel keer ga je de dingen nog omdraaien en veranderen? ga je nu weer met dollars afkomen ...

de hogere midrange... alles is kwestie van verwachtingen en budget. dus maal het zoals je wil. voor mij is een 6800xt/3080 de hogere midrange. de 6700-6800 / 3060ti/3070 de lagere midrange. Als je kijkt naar marketing slides zie je het dan ook zo in hun positionering. Alleen is er dikwijls veel misvatting door gebruik van resoluties. Want ook dat is een gigantisch discussiepunt. de ene 1080 de andere 1440 of 4k ....

jij kwam af met het feit dat je 1000eur nodig hebt voor 16GB , die stelling van 500eur komt trouwens niet van mij.. lees alle replies eerst eens zou ik zeggen

adoratie voor fabrikanten.. grapjas.. blijf nog wat melken op forums zoals zovelen hier. feit is, je kan er zelfniks aan veranderen. niet akkoord, je eigen keuze wat je er dan mee doet.

[Reactie gewijzigd door d3x op 26 juli 2024 13:31]

Ik vergelijk tussen generaties altijd in dollars, want de prijzen worden vastgesteld in dollars. Anders ga je Nvidia/AMD verwijten dat ze slechte of goede prijzen hanteren, terwijl dat alleen maar komt door andere wisselkoersen.

En de x080 en x080 Ti was tot Ampere altijd de high-end. Nvidia heeft sinds de vorige generatie een extra niveau erboven geïntroduceerd, maar dat betekent niet dat de x080 nu opeens van een lager niveau is, want de prijzen zijn niet gedaald. Het is ook niet zo dat wanneer Volkswagen een auto gaat verkopen voor 1 miljoen, een auto van 100 duizend euro opeens een middenklasser wordt.
je eigen keuze wat je er dan mee doet.
Ja, en dat is net het punt. Als er weinig waar wordt geleverd voor je geld kunnen veel mensen beter een (extra) generatie overslaan, of slimme keuzes maken. Bijvoorbeeld geen 500 euro betalen voor een 8 GB kaart.
@Ludewig heeft gewoon een punt met zijn opmerking, Jij kunt wel een leuk een kaart van 500 euro budget vinden, maar dan maak je gewoon je eigen waarheid

Wil je een echt budget kaart weten, kijk eens op de Steam hardware survey:
https://store.steampowered.com/hwsurvey/videocard/

Dan zie je dat de echte budgetkaarten dus kaarten zoals de 1650 of 3050/ti zijn.
lees volledig de thread... het budget platform was rond 250 ... dan begint iemand anders over 500eur. Ik geef gewoon aan dat voor mij alles onder de 500eur budget series is... als er dan zijn met meer dan 8GB is dat mooi meegenomen (bij mijn weten is 250 ook onder 500.. maar soit, moeilijk te vatten voor vele tweakertjes die centjes). Ik heb dus ook 2*6800XT, wederom mijn keuze. Maar aangezien ik mijn kennis gebruikt heb, beetje moeite en deze 2* aan MSRP gekocht heb 2j geleden heb ik nog steeds een goede deal.

Steam survey is dikke bullshit. Als je alle niet hoog techonologische landen mee in een hoop smijt dan kom je nergens uit. Er zitten ook een pak fouten en regelmatig correcties in, zo was er overlaatst ineens 10% markaandeel voor de 3060. Waarom zit intel gpu er dan zoveel in, ja omdat er een shit hoop dGPU zit in de miljoenen laptops waar mee gespeeld wordt op erbarmelijke resolutie... zo is 1080p dan ook nog steeds high end...Daarbovenop kan je op steam heel veel oude games spelen die totaal geen gpu vereisten hebben. dus de balans is daar totaal wacko.

Een brood betaal ik hier ook vlot 3eur, in andere regio's in EU maar 1.5eur en vaak daarbuiten nog en pak minder.

je kan trouwens heel af en toe zien wat er zoal verkocht wordt bij zelfbouw door enkele post van grote online etailers...
https://twitter.com/TechE...47231335575040000/photo/2
Dan zie je dat ECHT BUDGET GPU toch vooral komt van prefab materiaal...

[Reactie gewijzigd door d3x op 26 juli 2024 13:31]

Ah ok duidelijk. Voor jou zijn budgetkaarten onder de 500. Voor de rest van de samenleving niet.

Ergens makkelijk geld op stuk kunnen slaan betekent niet dat het budget is. Budget betekent dat het in een bepaalde prijs categorie valt, niet meer niet minder.

[Reactie gewijzigd door Praetextatus op 26 juli 2024 13:31]

en daardoor denken dat ze meer kunnen verkopen dan zullen ze dat zeker doen
Ze geven net een tekort aan VRAM omdat ze meer kunnen verkopen. Of, dat denken ze toch alleszins. Kaart voldoet niet meer aan wensen = ze kopen een nieuwere kaart voor meer geld.

De RTX 3080 is 50-80% sneller dan een 1080ti maar krijgt wel 1GB minder. En dat terwijl die kaart meer dan goed genoeg is voor raytracing, iets wat VRAM gebruik enkel verhoogt.
Ook mensen die zeggen dat zelfs 16GB aan VRAM niet veel meer is terwijl dat evenveel werkgeheugen is als in de meeste computers maar beschikbaar is vind ik vreemd.
Waarom? Er is geen regel dat je meer RAM dan VRAM moet hebben. Als je spelletjes speelt dan loop je nu eenmaal sneller tegen de limieten van je VRAM aan dan je reguliere werkgeheugen.
Sterker nog, de PS5/XBSX hebben 16GB shared geheugen en daarvan prakken ze 10-12GB vol met grafische assets. En dat is exact de reden dat 8GB voor nieuwe games instap is.
Kanalen als digital foundry hebben het hier ook over - het gaat er dan om dat de huidige consoles meer dan 8GB vram kunnen aanspreken waardoor brakke pc ports niet goed op 8gb vram draaien.

Het komt er dus eerder op neer dat de games slecht geoptimaliseerd worden voor pc, 8gb zou eigenlijk ruim voldoende moeten zijn.
Is een port brak als het target systeem deze niet de minimum systeem eisen haalt? Nee toch? Ze kunnen niet toveren...

Het idee is nu juist dat een game-pc wat meer 'ruimte' heeft dan een console (natuurlijk zijn er plenty PC's die dat niet zijn maar daarvoor heb je dus quality settings om mee te stoeien).

Dus als mid-range kaarten niet eens de minimum specs halen van een console die al even bestaat dan klopt er iets niet. Dan is het mid-range qua prijs maar low-range qua specs.
Een ontwikkelaar kan draaien aan knoppen als texturekwaliteit en grafische settings bij bepaalde gpu configuraties waardoor het benodigde geheugen omlaag gaat. Het heeft weinig nut om 4k textures te gebruiken als je op 1080p speelt.
Dan haal je dus de minimum systeem eisen niet...

Want voor een console (tegenwoordig) zijn die dus 30-60 HZ op 4K.
Dan vergeet je even de Xbox series S. (Laten we de Switch even buiten beschouwing) De steam deck is ook nog een factor tegenwoordig. Fixed hardware platform met lagere resolutie.
Leg mij eens uit waarom 4k textures geen nut hebben op 1080p? Dan wil ik daarna wel uit leggen waarom dat gewoon fout is.

Daarnaast zijn textures nog steeds de setting die naast goede lightning de meeste impact hebben op het totaal plaatje.
Klopt, aan andere kant zie je wel een groep fanatieke programeurs die een sport van maken om de spellen die normaal niet speelbaar zijn op bepaalde hw / console toch deze speelbaar maken.
Voorbeelden zijn op YT te vinden, zie; Modern Vintage Gamer - Tomb Raider on the Nintendo Game Boy Advance
Of 8-bit guy > heeft ook veel content soortgelijke projecten waar ze oude hw toch wel moderne spellen uitbrengen.
Klopt maar dan ligt de focus op emulatie, VRAM speelt daarbij geen grote rol. Emulators als pcsx2 hebben 4GB videogeheugen nodig. Dat is veel (de ps2 gebruikt 4MB) maar nog lang geen 8GB.
Dan hou jij het toch bij een iGPU, 4GB normaal geheugen en 1GB videogeheugen. De rest van de wereld gaat wel door en spellen worden gewoon zwaarder, zeker met de release van de nieuwe consoles. Steeds meer spellen worden ook neit meer op de oude consoles uitgebracht en dat is het omslagpunt.

Als ik 500-1000 euor voor een kaart neerleg wat een stuk meer is dan de kaarten vroeger kosten omdat vooral Nvidia en helaas ook AMD nu hun marges hebben vergroot; dan wil ik meer dan het magere 8GB geheugen wat we al sinds 2016 op kaarten van 250 euro en minder kregen.

Als consument heb je wensen, dat lijkt mij niet meer dan normaal. Het is ook goed om te zien dat de meeste mensen niet meer van plan zijn om zoveel geld voor een kaart neer te leggen met weinig geheugen. De verkopen van de 4070 en 4070 Ti zijn nu niet echt fantastisch.

Ik ga de hele discussie met alle argumenten hier in ieder geval niet meer voeren. Als mensen interesse hebben hoe en waarom zou je kunnen kijken op de topics op het forum en in het speciaal het volgende topic: https://gathering.tweaker...message/75286064#75286064
idd - deze truc wordt nu op veel plaatsen toegepast. Naast prijsverhogingen worden ook 'spec-verlagingen' toegepast. Minder produkt in dezelfde verpakkingsgrootte is ook zoiets. En met video-kaarten is dat dus relatief weinig VRAM.
Wat bereikt de aanbieder hiermee: dat je in het prijs hogere segment gaat kijken. Maar dat heeft natuurlijk een grens (want: budget). En dan gaan consumenten/afnemers wel klagen natuurlijk maar ook minder afnemen (in het geval van videokaarten)....

Te weinig VRAM in een snelle videokaart is als een sportwagen met een kleine accu/brandstof tank. Ding kan nog steeds hard maar toch valt de gebruikerservaring tegen. :9
en dan denk ik: als je meer nodig denkt te hebben, koop dan een kaart met meer.
? Dat is dus exact de redenering van Nvidia en co, u pushen naar een hogere reeks.

Meer ram = meer fps op de zelfde chip. En dat verschil neemt enkel maar toe met moderne games in ultra settings. Ook met midrange kaarten.

Met een iGPU kan je geen moderne titels spelen. Punt uit. Of jij dat nu denkt of niet.
Straks komt het argument nog boven dat alles boven 30fps nutteloos is voor het menselijke oog.
Wees dan ook zo eerlijk om dan ook te vermelden dat 'sommige mensen' ook iedere keer netjes uitleggen waarom dit zo is.

Zal het nog een keer herhalen: PS5/XBSX native games gebruiken standaard 10-12GB van de 16GB shared geheugen voor grafische assets. Voorheen werd ook nog PS4/XBX ondersteund en kon je ook met minder toe. Maar met nieuwe games niet meer. 8GB is dus niet genoeg tenzij je op je dure PC genoegen neemt met mindere settings dan console.

Voor deze kaart met een prijs van 249 dollar geen probleem overigens, want dit is duidelijk een instap kaart. En ja, 8GB is instap. 16GB RAM trouwens ook.

Speel je oudere games: no problem. Geef je nu geld uit om een paar jaar vooruit te kunnen met nieuwe games: koop iets met meer VRAM.

Zo simpel is het.
Als een 3070 met 8GB stottert op 1080P high settings in de nieuwste triple A games maar een tragere GPU met meer VRAM op dezelfde settings vloeiend draait. Dan kun je wel stellen dat 8GB Anno 2023 niet meer afdoende is voor nieuwe GPU releases.

Sinds juni 2016 zitten we al aan de 8GB bij mid-end (RX480). Dus het is niet vreemd dat developers nu meer VRAM gaan gebruiken.
Volgens sommige mensen wel.
De GTX 1070 uit 2016, inmiddels 7 jaar en 3 generaties geleden, had ook al 8GB.

De huidige consolegeneratie, die inmiddels richting de 3 jaar oud is, heeft 16GB VRAM, dus moderne games worden met die verwachting gemaakt. Dat merk je ook in benchmarks: tragere GPUs (chips met minder TFLOPS van het rode team) draaien moderne games beter dan snellere chips met midner VRAM van team groen.

Ik zou dus wel durven stellen dat 8GB VRAM simpelweg weinig is, ipv het af te doen als een subjectief iets.

[Reactie gewijzigd door kiang op 26 juli 2024 13:31]

Super vreemd verhaal als er laatste tijd zoveel bewijzen zijn geleverd dat een 8GB kaart tegenwoordig gewoon niet meer mee kan.(zeker niet in de hogere serie kaarten) Snap dan ook niet hoe je dan bij het punt komt dat dit alleen maar wensen van mensen zijn??

Dit is vooral duidelijk in games die nu worden geport van de PS5/XboxsX ipv de vorige generatie consoles

Ja natuurlijk niet iedereen speelt die soort spellen en dan kan je ook toe met een iGPU, maar als je wel de nieuwste spellen wilt spelen op max settings is het gewoon een feit dat 8GB niet altijd meer voldoende is
De data zegt wat anders:
https://store.steampowere...e-Survey-Welcome-to-Steam
  • Van alle Steam gebruikers heeft nog altijd 82% =< 8GB VRAM
  • Alle kaarten met >8GB hadden afgelopen maand procentueel gezien geen toename, maar afname.
  • De kaarten met 16GB en 24GB VRAM hadden afgelopen maand een toename van slechts 1,38%.
In de hele vraag "is 8GB VRAM wel voldoende tegenwoordig" zit dus vooral een behoorlijke "community bias".
Tevens Steam Survey:
  • Het aantal gebruikers met 8GB videokaarten nam af met ruim 4%
  • Het aantal gebruikers met 1, 2 en 4 GB tezamen is groter dan het aantal gebruikers met 8GB aan VRAM (en is tevensstijgende)
  • Slechts 3.41% van de gebruikers heeft een CPU speed van 3.7 GHz of meer
Statistieken kunnen het totaalbeeld nogal vertekenen :)
De Steam survey is een leuke indicatie van wat hun doorsnee gebruiker heeft. De doorsnee Steam gebruiker speelt echter geen moderne games, maar speelt Counter Strike (2010), op ruime afstand gevolgd door DOTA 2 (2013): https://store.steampowered.com/charts/mostplayed

De community bias is dus vooral in de Steam Survey te zoeken. Als je nu op zoek bent naar een nieuwe GPU om moderne games te spelen, dan is de vraag weldegelijk legitiem. Maar, zoals hierboven aangegeven, is dat voor een GPU als de 7600, afhankelijk van de prijs, nog een acceptabel compromis.
Steam geeft natuurlijk slechts weer wat in het verleden is gekocht. Het is geen weergave van wat mensen die een nieuwe kaart kopen aan eisen hebben. We zien dat de nieuwste spellen nu echt meer nodig hebben dan 8 GB en mensen kopen meestal een nieuwe kaart om daarmee nieuwe spellen te kunnen spelen en niet alleen oude spellen.
Anoniem: 1849202 @EnigmA-X10 mei 2023 10:19
Dat getal zal ook relatief hoog blijven vanwege het feit dat 77,4% van de Steam-gebruikers nog op 1900x1200 of lager aan het gamen is. Voor lage resoluties heb je immers niet zoveel VRAM nodig, of althans minder dan als je op hogere resoluties games speelt zonder e.v.t. mods.

Hetgeen waar men zich echter op verkijkt is dat games met een hoog aantal grafische mods toegepast, behoorlijk veel VRAM kan gebruiken, als je bijvoorbeeld hier naar een hevige modded Skyrim kijkt:
https://youtu.be/UGHBmbp493A?t=338

Dan zie je dat deze tussen de 15-21GB VRAM gebruikt, nu weet ik niet of de toegepaste mods goed geoptimaliseerd zijn, maar denk dat zelfs met een optimale set-up je rustig over de 8GB VRAM heen gaat. De base game gebruikt zover ik weet ongeveer 2GB~ VRAM.

Je hebt in het volgende artikel https://www.techspot.com/article/2670-vram-use-games/ een tabelletje staan met games, met de resolutie 4k zonder upscaling en daar zie je dat bij pieken, 7 van de 10 games uit dat lijstje al over de 8GB VRAM heen gaat en waarschijnlijk bij 1 die 7.5GB verbruikt je last zal heb van stuttering.

Dus voor 77%~ van de gamers die de Steam Survey hebben ingevuld (dus niet alle users) want ik klik dit vaak genoeg weg namelijk, zal 8GB hoogst waarschijnlijk voldoende zijn tenzij ze (veel) grafische mods gaan installeren.

Voor de overige 23%~ zal minder VRAM al eerder voor problemen zorgen bij grafisch intensieve games op hogere resoluties.
Voldoende mits ze oude games spelen, gezien 1080p high of ultra niet echt meer kan met 8GB geheugen in moderne spellen.
Hoezo bias? De hoeveelheid VRAM is altijd al oplopend geweest omdat het de snelheid ten goede komt. (tot een bepaald punt natuurlijk) en daarnaast is de resolutie waarop 'men' gamed (niet iedereen natuurlijk maar over het algemeen dus) ook oplopend. Al die verhogingen gaan in stapjes omdat ze afhankelijk zijn van de naastliggende techniek:
  • meer en snellere storage laat veel grotere textures toe (HDD -> SSD -> NVMe)
  • meer VRAM is alleen zinnig als de GPU het ook kan benutten dus die moet ook sneller worden
  • maar VRAM is alleen zinnig als je het snel kan aanspreken dus de geheugenbus wordt ook telkens ietsje breder
  • meer VRAM ook nodig als de resolutie van de schermen hoger is en ook die neemt met stapjes toe
Aangezien we dus bij al die punten een vinkje kunnen zetten verwachten we - als afnemer - dat meer VRAM bereikbaar is. Als dat alleen gebeurt bij de top-end kaarten dan is dit niet bepaald bereikbaar.
Ligt aan de resolutie waarop je speelt. Volgens mij zit je op 1080p hiermee nog prima.
1080p is leuk als je framerate boven alles wilt hebben, maar games van tegenwoordig weten dusdanig veel details te leveren, dat ze op deze resolutie niet meer volledig tot hun recht komen.

Uiteraard betekent dat in de andere richting weer, dat het op die resolutie ook een stuk minder opvalt wanneer je dus de settings wat lager zet, zoals textures. Wat dan verder helpt in het drukken van VRAM gebruik.

Ik zie dus wel een markt voor een 7600 met 8GB. Maar dan moet de prijs er wel naar zijn. En uiteraard blijft het een domper dat een midrange nummer "x600" niet eens de huidige games op max zou kunnen spelen.
Er wordt gevraagd of 8GB weinig is tegenwoordig, waarop mijn antwoord is: op 1080p niet. Check eens de Steam-Survey en kijk hoeveel mensen nog gewoon lekker gamen op 1080p. Daar is dit een prima videokaart voor.
Zelf op 1080p, Ultra settings en Raytracing aan kan 8GB al niet meer voldoende zijn in bepaalde games.
zoek maar op, en je kan het makkelijk vinden

Je kan dan natuurlijk de settings naar beneden gooien, maar daar heb je de kaart niet voor gekocht

Je argument over Steam is dan ook echt een vreemde, want op Steam spelen de meeste mensen Dota en SC:GO en ja voor die games kan je ook nog weg komen met een 4GB kaart... zegt echter helemaal niks over het feit dat het voor de nieuwste games op high settings niet meer genoeg is

om maar niks te zeggen dat de statistieken van Steam ook grotendeels uit landen komen waar ze het niet zo breed hebben en dus ook geen dure kaarten kopen.. 1 van de vele redenen dat je Steam statistieken met een korel zout moet nemen

[Reactie gewijzigd door Sinester op 26 juli 2024 13:31]

Ik kan je helaas garanderen dat de eisen steeds hoger worden.
Als iedere gamer plotseling op magische wijze een extreem high-end systeem heeft, gaan de game studio's minder optimaliseren.
1. Programmeur: Ik wil nog wat extra tijd want in schaam me voor die slome code.
2. Sales: Releasen die hap, de systemen v/d gamers kunnen het wel trekken.
3. Gamers: Geen 120Hz ultra high setting op 4k, klaag, klaag, klaag.
4. nvidia: Er is markt voor een nog zwaardere kaart.
5. Ga naar 1.
Het is geen kwestie van optimaliseren, maar van steeds betere kwaliteit, wat meer VRAM kost.

En het is nu juist Nvidia die niet erg scheutig is met VRAM, terwijl de consoles nu 16 GB in totaal hebben, waarvan zo'n 10-12 GB als VRAM gebruikt kan worden. We zitten nu in de nogal absurde situatie dat je voor ongeveer 500 euro een volledige console hebt met 16 GB, maar geen kaart van de nieuwe generatie met die hoeveelheid.
je basis vergeljik is niet juist...

de huidige consoles (xbox - ps5) hebben een RDNA2 generatie GPU
je vergelijkt nu met een nieuwere generatie GPU waarvan de middenmoot er eigenlijk nog niet is.
De RDNA2 generatie kan je al enkele jaren kopen rond de 500eur (de 6800) met 16GB. Heb hem meermaals gekocht aan MSRP.
Ja er zijn genoeg games die nu 10-12 gb kunnen gebruiken met hoge texture quality dus opzich is meer dan wel fijn dan kan je textures hoog laten staan die laten een spel er een stuk beter uit zien.

Er zijn ook al games die op medium de 8gb of hoger aantikken. Consoles hebben 16gb aan boord en minder last van overhead. Dus opzich is het niet raar dat games die voor next gen gemaakt zijn dan 12gb vram willen.
Voor videokaarten die snel genoeg zijn om 4K te kunnen renderen misschien wel, maar in de klasse van een 7600 zal het zeker genoeg zijn. Sommige mensen kicken nou eenmaal op dergelijke specs ..
Voor de prijs zeker een koopje, dan boeit die 8gb echt niet. Maar dat is als het 250 dollar wordt. 420 is dan weer te hoog. Wil je high end game dan gaat 16gb wel de standaard worden. Jammer dat developers hun games niet goed optimaliseren waardoor we de hoeveelheden in gb op videokaarten steeds hoger gaan zien.

[Reactie gewijzigd door dutchnltweaker op 26 juli 2024 13:31]

Ik vermoed dat het om 410 Singapore Dollar gaat. Dat is omgerekend 281,58 Euro.
Ahh, that makes sense.. Excuus. Dan zou de prijs bij ons ergens tussen de 250 en 300 euro vallen.
Dat hangt af of de prijs in Singapore inclusief btw is. Als ik me niet vergis is het daar 7%. Dus dan zou de prijs tussen 450 en 485 SGDollar kunnen liggen als we 21% btw. Omgerekend is dat dan 310 tot 353 euro.
Wat ik ook een prima prijs vindt.

Ik wil best een videokaart in mijn systeem proppen, en 350/400€ is eigenlijk een mentale grens
Voor de prijs zeker een koopje, dan boeit die 8gb echt niet.
...
Wil je high end game dan gaat 16gb wel de standaard worden.
Voor 250 dollar is 8GB net aan. Die kaart mag echt niet meer kosten dan dat.

Wat 16GB aangaat, dat is al geen high-end meer. Dat is midden segment. Kaarten van $400 of meer (500 euro in de btw) moeten minimaal 16GB hebben anders zijn ze echt te duur.

Kom op mensen. Die 8GB kaarten kwamen acht jaar geleden op de markt. Stilstand is achteruitgang in de ICT.
Tja maar alles wat 16gb hoger is, kost 1000 of meer.. Niet erg reële prijzen eerlijk gezegd.
Je kan vandaag leuke RDNA2 kaarten halen met 16GB VRAM voor een pak minder dan 1000EUR..En dat zijn nog meer dan prima kaarten!
Ja dat klopt, maar dat zijn geen highend kaarten meer met de huidige series. Over die reference kaart hoor ik niet veel positiefs qua cooling.
Die reference koeler van RDNA2 kaarten is goed hoor. En er zijn ook AIB kaarten te vinden voor dezelfde prijs. Daarnaast zijn dat nog steeds highend kaarten hoor.. En RX 6800 XT is ongeveer net zo snel als een RTX 4070 en een RX 6950 XT is zelfs sneller dan een RTX 4070 Ti.. Dat lijkt me toch nog steeds 'high end' te zijn..
Ja dat klopt, maar dat zijn geen highend kaarten meer met de huidige series.
Dat werd toch al gezegd maar door jou ontkent door te stellen dat die kaarten allemaal 1000+ kosten.

@Blorgg:
Wat 16GB aangaat, dat is al geen high-end meer. Dat is midden segment. Kaarten van $400 of meer (500 euro in de btw) moeten minimaal 16GB hebben anders zijn ze echt te duur.
Jij:
Tja maar alles wat 16gb hoger is, kost 1000 of meer.. Niet erg reële prijzen eerlijk gezegd.

[Reactie gewijzigd door watercoolertje op 26 juli 2024 13:31]

Dat werd toch al gezegd maar door jou ontkent door te stellen dat die kaarten allemaal 1000+ kosten.
Dat zijn toch geen high-end kaarten meer nu de 7900xt en xtx er zijn? High end vorige generatie kan je toch niet vergelijken met de 7900 serie?
En ik doelde op 16 hoger, niet 16 en hoger...16 hoger bedoel ik al boven de 16gb en niet 16 gb en hoger.

[Reactie gewijzigd door dutchnltweaker op 26 juli 2024 13:31]

je doelde op 16GB ram, nu trek je er ineens High-end bij...en seffens ga je weer debateren dat high-end niet high-end is 8-)

en die reference kaarten zijn al jaar en dag de standaard bij velen in hun builds... maarja een echte high-end is dan eentje met custom cooling etc neem ik aan....

https://tweakers.net/pric...qP33W1i_U2KeEiV7ehNtZ-90A
je doelde op 16GB ram, nu trek je er ineens High-end bij...en seffens ga je weer debateren dat high-end niet high-end is 8-)

en die reference kaarten zijn al jaar en dag de standaard bij velen in hun builds... maarja een echte high-end is dan eentje met custom cooling etc neem ik aan....

https://tweakers.net/pric...qP33W1i_U2KeEiV7ehNtZ-90A
Nou ja, ik associeer high-end wel met een hoge ram. De laatste high-end kaarten hebben geen 16gb geheugen. De 7900 xt heeft 20 en xtx 24gb.
8gb vram is dan wel karig maar de prijs is er ook naar.
Welke prijs?
Volgens de tipgever van VideoCardz gaat de RX 7600 ongeveer 249 dollar kosten, hoewel het medium dat niet onafhankelijk kon bevestigen. Dezelfde videokaart verscheen onlangs bij een webwinkel in Singapore voor omgerekend 410 dollar, meldt Tom's Hardware. Het is onduidelijk welke prijs klopt.
volgens mij is 8GB voor de meeste spellen prima. Ik heb een 3080 met 10GB. Dan moet je een behoorlijk inefficiënt spel hebben wil je dat helemaal vullen. Ik speel zelf Forza Horizon 5, GTA 5 en die gebruiken nauwelijks de helft.
Waar staat er ergens dat deze even snel zou zijn als een 6700XT? Ik hoop het, maar valt nog te bekijken.

Ik zou met deze prijs vooral uitkijken naar de positionering van de 7700XT dan, deze zou dan hopelijk ook rond de 400 EUR uitkomen met performance van een 6800XT. En de 7800XT rond de 600 met betere performance dan de 4070, rond de performance van een 6900XT of 6950XT..

We mogen het met zn allen hopen...
Er zit een factor van ongeveer 1.5 tussen Singapore dollar en Euro. Dus 410 SGD = 282 Euro. De link werkt niet dus geen idee of daar al voor gecompenseerd was?

[Reactie gewijzigd door olafdeswart op 26 juli 2024 13:31]

Weet je toevallig of die 410 SGD inclusief of exclusief BTW / Sales Tax is? Geen flauw idee hoe dat in Singapore gaat.
Reken dat er nog maar bovenop samen met verzendkosten of ze moeten eigen winstmarges gaan beperken.
Ik denk niet dat je snapt waar ik naartoe wil. In sommige landen is het verplicht prijzen inclusief BTW / Sales Tax aan te geven. In andere landen moet het juist exclusief zijn en weer andere landen kennen het hele concept van BTW niet. En voor de conversie maakt het uit of die SGD 410,-- BTW bevat of niet. Ik kan dat natuurlijk via Bing/google uitzoeken, maar ik was een beetje lui.
Dat is dus een RX 6600 XT, maar dan met RDNA 3 ipv RDNA 2.
De RX 6600 XT werd gelanceerd met een adviesprijs van 379 dollar, dat is fors meer dan 249 dollar voor deze RX 7600.
Prijs-kwaliteit lijkt me het een zeer goede kaart. Beter en goedkoper dan de Rx 6600 XT, die met de huidige lage prijzen ook al veel waar voor je geld geeft.
de verschillende chips lopen bij AMD mooi over: navi32 is het dubbel van navi33 en navi31 is het driedubbele zowel qua CU's als busbreedte (ok navi31 is 320 ipv 384bit) en verbruik (navi31 is "slechts" 405W ipv 600W).

Ik vrees dat de prijs hier misschien wat hoger gaat zijn, maar dan nog is hij redelijk te noemen.
De 7700 zal wat sneller geklokt zijn en hopelijk meer geheugen krijgen, maar ook vast zitten aan de 128bit bus.
Dat heet graaiflatie...
Ik hoop niet dat dit "another RX480" is zo als de RX5500.
Wat maakt de onderliggende technologie uit? Zolang die kaart levert en zaken ondersteunt die nu gangbaar zijn, dan mag ie wat mij betreft van hout zijn.
Die snap ik niet, de architectuur is gewoon RDNA 1 met de RX 5500. Als je er op doelt dat de performance slecht is of weinig beter dan de RX 480 dan moet je dat iets beter verwoorden.
Precies de prijs wat low end 8gb nodig heeft. AMD begint het te snappen. Nu de rest van de line up nog, ik zie graag de rx 7800 xt verschijnen voor 500-550
Anoniem: 532949 10 mei 2023 09:48
Verwacht dat karten met meer dan 8GB beginnen bij de RX7700 en RX7800. Voor mij persoonlijk is vram belangrijk voor scientific compute werkt (al kom je dan al snel uit bij nvidia).
Dit nieuws komt net optijd zeg. Ik was net van plan een 2e hands Rx 6600 te kopen. Eerst maar eens kijken wat deze kaart gaat doen dan. Hopelijk is prijs een beetje behoorlijk. Kan straks niet alleen Diablo 4 op Ultra maar Starfield mischien ook😌
Maar 128 bit. Waarom zo weinig eigenlijk?
omdat dit voor 32 Compute units bijgestaan door infinity cash vermoedelijk meer dan voldoende is. En een bredere bus het pcb onnodig duurder maakt.
Dan is natuurlijk maar weer de vraag met welke NVidia kaart deze zich gaat meten, kan met niet voorstellen dat deze gelijk op zal gaan met de 4060ti als die maar 250-300 euro kost.

Op dit item kan niet meer gereageerd worden.