Gerucht: Nvidia GeForce RTX 5050 krijgt even snel GDDR6-geheugen als AMD RDNA 4

Nvidia rust de GeForce RTX 5050 voor desktops uit met GDDR6-geheugen met snelheden van 20Gbit/s. Dat zegt de bekende leaker MEGAsizeGPU. Volgens geruchten wil Nvidia deze instapvideokaart in juli op de markt brengen.

MEGAsizeGPU schrijft in een post op X dat de RTX 5050 beschikt over een stroomvoorziening met 3+2 fasen. De eerste drie zijn bedoeld voor de gpu, gevolgd door de andere twee voor het geheugen. Dat is opmerkelijk, aangezien de RTX 4060 voor desktops een enkele fase gebruikt voor de stroomvoorziening van het geheugen.

Opvallend is dat de RTX 5050 de eerste Blackwell-videokaart lijkt te worden die geen GDDR7, maar het langzamere GDDR6-videogeheugen gebruikt. Met een snelheid van 20Gbit/s zou het geheugen van de RTX 5050 overeenkomen met dat van de AMD Radeon RX 9060 XT, RX 9070 en RX 9070 XT. De voor China bedoelde RX 9070 GRE moet het doen met 18Gbit/s.

VideoCardz deelde begin deze maand meer informatie over de RTX 5050. De komende desktopkaart zou 2560 CUDA-cores combineren met 8GB geheugen, een 128bit-geheugenbus en een 130W-tdp. Het gaat om de eerste en waarschijnlijk enige gpu op basis van de GB207-chip. Nvidia zou de RTX 5050 in juli willen uitbrengen.

Door Idriz Velghe

Redacteur

13-06-2025 • 19:25

54

Reacties (54)

Sorteer op:

Weergave:

De GeForce RTX 5050 hebben ze toch net uitgebracht, met een 8GB en een 16GB versie? :+
Je zou het bijna bedenken met hoe belabberd de resultaten zijn van de 5060, vooral de 8gb is tegenwoordig toch wel heel erg achterhaald.
En toch blijven mensen NVIDIA kopen en het merk verdedigen. Ik snap het niet, maar het is misschien omdat ik als Linux gebruiker een beetje een vooroordeel heb?
Waarom zou je uberhaupt een merk verdedigen.
Ik ben zon specifieke gebruiker, ik game een enkele keer op de PC. Ik wil mijn GTX1660super upgraden naar een RTX5060Ti dan wel de RX9060.
Maar daarnaast gebruik ik de videokaart ook voor renderen/ondersteuning met DXO photolab dan wel davinci resolv.

En dan heb ik met Nvidia Cuda wel een voordeel tegenover AMD die dan op OpelCL moet terugvallen. En o danks dat de RX9060 goedkoper is, denk ik toch dat het een RTX5060TI gaat worden
Dat is een prima kaart en keuze zolang het de 16gb versie is, en de prijs niet absurd veel hoger dan MSRP is uiteraard.
Precies. Er zijn zat gamers die simpele of oudere games spelen. Er is gewoon een markt voor. Niet zo huilen en je spaargeld overmaken naar die geldwolven voor die 30 fps meer!!
CUDA en NVENC is een belangrijke reden om nVidia te kiezen. Voor gaming is AMD betere value, tenzij je perse Ray Tracing wil gebruiken en diepe zakken hebt.
Jouw use case snap ik helemaal. Maar als je kijkt naar hoeveel % van Steam gebruikers NVidia nog steeds koopt, lijkt het wel alsof de hele wereld aan renderen doet?
Is Nvidia echt zoveel beter in rendering? Ik heb 1080 gtx die volgens mij geen cuda cores heeft of toch alleszinds heel weinig en slechte AI ondersteuning, capture one (gelijkaardig programma als dxo) werk gewoon, Davinci resolve ook.

In pudget benchmarks scoort amd alleen slecht in 'top' of the heap AI (zo van de nieuwste van nieuwste dingen) daar ik mij daar niet interesseer scoort 9070 xt beduidend goed.

Vaker is vram limiterende factor, bv 7900xtx in sommige specifieke (vaak gebruikte, niet ai) render technieken toch uit boven 5070 ti en 9070 xt.
Mischien omdat AMD precies t zelfde spelletje speelt?
NVidia was toch echt eerder. Dat AMD vervolgens besluit hetzelfde te doen is wel ronduit Dom en slecht.
Juist dat, maakt t imo nog erger (gezien de feedback r al was....)
Erger niet perse vooral extreem Dom en een gemiste kans. Maar het is wel erg dar ze het doen.
NVidia heeft opzettelijk geen review samples van de 8gb kaarten beschikbaar gesteld en de driver achter gehouden zodat alleen de 16gb versie vanaf dag 1 te zien was. Dst maakt het nog wat erger.

Maat het is allemaal niet fraai en we moeten dit echt niet willen. Hopelijk verkopen die 8gb kaarten slecht.
Ik zou juist wel zeggen erger, je ziet immers de concurrent iets doen waar ze een enorme bak kritiek op krijgen, waardoor jij, doordat niet te doen, een hele simpele PR win kan halen, het enige wat AMD had hoeven doen is ofwel geen 9000 serie Sku met 8GB uitbrengen en een RX9060XT alleen uitrusten met 16GB, of als je zo nodig een 8GB sku moet hebben voor de OEM markt en APAC / Afrika en Zuid Amerika noem het dan niet de RX9060XT 8GB maar gewoon de RX9060 8GB, zodat iedereen duidelijk in een oogopslag kan zien: 9060 = 8GB, 9060XT is 16GB en mensen niet in de val kunnen trappen bij het kopen van OEM systemen of bij het filteren bij de webshops (en het consument onvriendelijke is natuurlijk dat die RX9060XT 8GB juist wel zo heet om juist die verwarring bij de consument te creeren).

Daar zijn ze geen haar beter in dan Nvidia en door juist na Nvidia de consument hetzelfde trucje te flikken en het niet op een meer consument vriendelijker manier te doen is het eigenlijk simpelweg nog erger.

Om nog maar de zwijgen over de tweet over de 8GB Sku's (nadat uiteraard ook AMD kritiek kreeg omdat duidelijk werd dat ze hetzelfde gingen doen als Nvidia), wat Frank Azor (hoe krijgt ie het toch steeds voor elkaar) ook weer op stevige kritiek kwam te staan van diverse reviewers.
NVidia heeft opzettelijk geen review samples van de 8gb kaarten beschikbaar gesteld en de driver achter gehouden zodat alleen de 16gb versie vanaf dag 1 te zien was. Dst maakt het nog wat erger.
Laten we niet doen of AMD dat beter deed, kijk bijv. een naar de embargo perikelen bij (o.a. video GN), maar ook bijvoorbeeld bepaalde outlets die ondanks beloftes van AMD dat als men wilde men 8GB kaarten gesampled zou krijgen zodat ze een review konden doen voor release, maar uiteindelijk geen 8GB kaarten kregen (of in ieder geval niet op tijd).
Maar het is allemaal niet fraai en we moeten dit echt niet willen. Hopelijk verkopen die 8gb kaarten slecht.
Daar zou ik, helaas, maar niet vanuit gaan, die Sku's zijn er met een reden, en die reden is dat normaliter 8GB Sku's veel beter verkopen dan de 16GB Sku's met dezelfde die configuratie, en dan vooral in de OEM / boutique prebuild markt en de meer budget georienteerde koperen die gewoon kijken naar laagste prijs voor een model en dan uiteraard bij de 8GB sku's uitkomen.

[Reactie gewijzigd door Dennism op 14 juni 2025 01:47]

De feedback hier, is van demographic wat hardware volgt en boven gemiddelde eisen stelt dan mainstream. En wat vaker triple A games speelt en of de nieuwste titels. Maar er is ook mainstream
Ook casual gamers.
Ook pure retro gamer.
En bargin bin gamer die uitsluitend de oudere titels koopt. Of backlog van 3 jaar oud.

Ik weet dat ik niet representatief ben tov grote mainstream.
Ik moet die 16GB hebben zelfs meer. Omdat ik hardware langer gebruik.
Maar voor groot deel dat licht gamed is 8GB voldoende.
Zelf blijf ik weg van low budget. Ipv elke gen upgraden omdat nieuwe al zeer mager is ga liever om 3 a 5 jaar voor midrange minstens. Een high-end zou ik dus ook veel langer gebruiken en elke tier hoger heeft ook meer v-ram. En kan je langer gebruiken.
Wat moet je dan kopen?

Nvidia heeft nou eenmaal de beste kaarten en daarnaast ongelofelijk goede dlss support. Waardoor je sommige games scherper met meer fps kan spelen wat in shooters toch echt kan helpen om net die persoon te ondekken en neer te schieten 😉
Het probleem is dat je weinig anders kan kopen. Intel komt er nu bij, AMD is er al een tijd, maar ik zal zeker niet ontkennen dat CUDA bijvoorbeeld veel beter is dan wat AMD aanbied. Al gaan ze eindelijk wakker worden lijkt het, en komen ze met alternatieven ervoor.

Hetzelfde vind ik ook op de x86 CPU markt. Je kunt kiezen uit maar drie, en anders moet je al overstappen op ARM. Nu is ARM zeker geen slechte keuze, maar niet elke distro ondersteunen weer goed/voldoende ARM.

Er is niet veel anders, maar om te zeggen dat dit dan maar zo is, vind ik wat kort door de bocht.
Waardoor je sommige games scherper met meer fps kan spelen wat in shooters toch echt kan helpen om net die persoon te ondekken en neer te schieten 😉
Sorry hoor, maar dit klinkt echt als een nVidia marketing praat, kan me ook niet voorstellen dat je dit serieus denkt, maar goed ik hoor wel vreemdere zaken.

Jij denkt zeker ook dat de 5070 net zo snel is als een 4090 :P
Het is de werkelijkheid ik denk het niet, ik zie het op mijn scherm 😆

En nee een 5070 is niet een 4090 gaat niet om wat je denkt maar wat werkelijk is.
Oh ja, ik begrijp je helemaal, met slechte beschikbaarheid en daardoor ook veel te hogen prijzen vergeleken met de competitie.
Zelf zit ik momenteel op AMD, maar zou inmiddels ook Intel een redelijk alternatief vinden met de Battlemage kaarten.
Waarom zou je amd kopen of verdedigen terwijl amd hetzelfde doet met zijn instapkaart de 9060?
Omdat er, als Linux gebruiker, niets anders in de markt ligt dat werkt, en als professioneel, niets anders in de markt ligt dat werkt.

NVIDIA heeft jarenlang geinvesteerd in compatibiliteit, CUDA en applicaties terwijl AMD met zijn duimen draaide en dacht dat de markt enkel maar op prijs concurreerde - als je geen investeringen doet in je product, kan het inderdaad een stuk goedkoper. Nu proberen ze een inslag te maken met oa. Instinct maar als het niet beschikbaar is in een on-prem cloud dan gaat niemand het op schaal implementeren, ROCm heeft hetzelfde probleem, waarom ROCm implementeren in C en manuren erin steken om TensorFlow aan de praat te krijgen, als AMD je toch niet gaat helpen, het is gewoon goedkoper een CUDA functie aan te spreken in Python en met een beetje zakgeld kun je zelfs met een AI/CS PhD aan de telefoon hangen die kan uitleggen hoe het werkt.

[Reactie gewijzigd door Guru Evi op 13 juni 2025 23:30]

Je het geen voordeel, je hebt als nadeel dat Nvidia minder efficeint is op Linux. Amd videokaarten werken prima op Windows
Ik ben een Linux gebruiker en heb zelf 2 AMD kaarten gehad en veel ellende ervaren. Sommige van deze problemen met kernel parameters opgelost als workarounds, maar had toch nog altijd regelmatig dat de amdgpu driver crashte (getest in een andere PC bij een vriend van met met Microsoft Windows en dat werkte prima). Uiteindelijk naar NVIDIA geswitched op Linux en sindsien ervaar ik dus geen enkele vorm van instabiliteit meer. Men kan zeggen wat men wilt en ja, het is jammer dat een groot gedeelte van de NVIDIA driver proprietary is, maar deze werkt in ieder geval zonder problemen voor mij t.o.v. 2 AMD kaarten waarmee ik getest heb, en gewoon werkt. Dit kan ik van de open source AMD driver met zowel een RDNA 2 als RDNA3 kaart helaas niet zeggen (hiervan zijn overigens ook 3 bekende gerapporteerde issues, waar veel meer gebruikers last van hebben in de corresponderende mesa github posts), dus ben tevens niet de enigste die de desbetreffende problemen ervaart.
Welke kaarten dan? Want ik ben net overgestapt naar Linux met 0 problemen. Ok, de laptops en een nuc doen niet veel meer gaming en draaien Mint. Erg stabiel.

Mijn gamebak draait CachyOS met een 7900xtx. Eigenlijk werkt alles naar behoren, inclusief undervolten/OC.
Valve heeft echt puik werk geleverd voor spellen

Het enigste waar ik af en toe tegenaan loop zijn de anti kopieer/cheat beveiligingen.
Maar het systeem is eigenlijk stabieler als onder win11
Valt weinig te verdedigen als AMD sowieso al niks te bieden heeft in het hogere segment.
Voor €50 meer heb je betere features die bij meer spellen werken, plus Nvidia is waardevaster voor een volgende upgrade.
Tsja, ze presteren over t algemeen (Windows) gewoon iets beter dan AMD, ondanks de vaak veel hogere prijs.
En dlss werkte tot fsr4 wel beter.

Alleen nvidia focust wat mij betreft nu iets teveel op neural ipv raw performance.
De 5060 heeft in verhouding vergelijkbare prestatiewinst als dat bij voorgaande overgangen is geweest, dat sommige tweakers onrealistische verwachtingen hebben is een ander verhaal.
De prestatiewinst is minimaal, er is duidelijk sprake van stagnatie:
De RTX 5060 is eigenlijk een middelmatige RTX 5050

Voor iedereen die liever leest:
https://www.techspot.com/...idia-rtx-config-timeline/

[Reactie gewijzigd door HuisRocker op 14 juni 2025 12:27]

Wat een bullshit artikel, oa simpel cores vergelijken zonder rekening te houden dat de cores bij lange na niet hetzelfde zijn. Dus versie 1 2000 cores maar versie 2 ineens maar 1000 cores, maar dan dus voorbij gaan dat versie 2 cores wel ff bv 2.5x zo efficient/sneller zijn...
Kijk naar hardware unboxed die hebben ook gpu stagflatie video. Daar vergelijken ze cores per generatie (per model). Ze bewijzen letterlijk dat xx60, xx70 kaarten véél minder % van topkaart aanbieden dan vroeger. (Meer dan alleen de 'super opschaling van grote gpu's' kan verklaren.
Dat de markt stilstaat of eerder teruggaat, vind jij okay en een realistisch beeld?
Teruggaar? Echt niet, maar blijibaar kun jij nier begrijpen dat we zo'n beetje aan de limieten van onze huidige technologie zitten en het wordt steeds duurder om die kleinere fabricage process te ontwikkelen, en DAT is waarom nieuwe chips steeds duurder worden, zie Nvidia, AMD, Intel, Apple en ook alle highend android device fabricanten.
We hebben nieuwe materialen/methodes nodig om weer aanzienlijke vooruitgang te boeken tegen 'betaalbare' prijzen.
Het weinige gddr / lagere bus op de mainstream kaarten is voor deze tijden eigelijk not done.

Maar misschien doen ze dat bewust zodat de highend kaarten beter uit de verf komen.

Dus bij nader inzien heb je wel een sterk punt.
Not done? Zoals ik al aangaf, te hoge onrealistische verwachtingen.
De 5060 heeft in verhouding vergelijkbare prestatiewinst als dat bij voorgaande overgangen is geweest,
Klopt hoor, alleen vergeet je dat de vorige generaties ook al niet al te best waren.. de 4xxx serie was niet eens altijd sneller als de 3xxx serie

Dus ja, klopt wat je zegt, maakt het verhaal echt niet beter.
Maar altijd leuk om de schuld bij de consumment te leggen en deze wanpraktijken te verdedigen natuurlijk.

[Reactie gewijzigd door Sinester op 16 juni 2025 10:44]

vroeger prakte nvidia toch juist de low-end kaartjes vol met relatief veel geheugen?
Zo had bijvoorbeeld de GeForce GT 230 tot wel 1,5gb, terwijl de GTX 275 de helft daarvan had.
Oef dat is al wel weer een tijdje geleden, zo'n 15 jaar?
Een hoop veranderd in die tijd. Maar de gtx275 had ook een Physx edition, met betere ondersteuning voor physics engins. Dat was toen ook best een ding.
Deze instap-kaart heeft evenveel cuda-cores als de oude RTX 3050
Ben benieuwd naar de prestaties op FHD en de prijs.

[Reactie gewijzigd door vman128 op 13 juni 2025 20:14]

Wat nog altijd meer is dan de GTS 450 (192 cores) of de 1050 (640 cores) of de 1650 (896 cores).

De RTX 2050 bestond niet voor desktops. De 2060 had er 1920.

Sinds de RTX serie zijn de prijzen van instapkaarten inderdaad omhoog gegaan. Ik denk dat NVIDIA probeert raytracing en dergelijke standaard te maken om hun concurrentiepositie te versterken. Daarom hebben ze niet echt kaarten van 200 euro of minder denk ik.

Persoonlijk hou ik het nog bij mijn 3070ti. (Wou alleen dat ik voor de 3080 was gegaan met meer vram.) Ik moet kwaliteit en resolutie soms verlagen, maar een upgrade hoef ik nog niet zolang nieuwe games het goed doen op 1080p, redelijke settings en rond de 40fps.
Zolang je geen CUDA nodig hebt is Nvidia nooit echt interessant geweest qua instappers. Hoewel AMD in dit segment ook weleens belabberde kaarten weet uit te brengen.
Oke, laten we eerlijk zijn. De 5050 had eigenlijk de specificaties van de 5060 moeten hebben met een prijs van de 5050, dus tussen de €200,- a €250,-
Nee, juist als je eerlijk bent is dat niet zo, mensen hebben gewoon te hoge verwachtingen waar die kaarten niet aan kunnen voldoen, maar het verschil in prestatiewinst is nagenoeg gelijk aan de overgang bij voorgangers.
Gemiste kans dat de 5050 geen 75w kaart gaat worden.
Dit nieuwsbericht is toch vrijwel het zelfde?
Moeten we daar nu nog 1 over uitbrengen met een paar vage details?

nieuws: VideoCardz: Nvidia brengt in de komende weken RTX 5050 met 8GB geheug...

[Reactie gewijzigd door Dennisb1 op 13 juni 2025 19:49]

nee, dit is een gerucht... ondanks wat eerder al aangekondigd is :P
het vorige gerucht ontkrachte het eerste gerucht dat nu door dit gerucht weer bevestigd wordt. Iemand op de redactie heeft duidelijk heimwee naar de fancy/story uit z'n kinderjaren :+
3060ti en had eindelijk de keus gemaakt om over te stappen op een 9070xt. Kaart zat al in mijn mandje toen ik plots realiseerde dat ik nog een oude Asus P279Q Met Gsync chip heb. Als ik wil overstappen op AMD moet ik ook een nieuwe monitor kopen. Dus dan toch maar een 5070ti of een 9070xt met nieuwe 4k monitor?
Moet?
... ik weet niet in welke wereld jij leeft, maar een gsync monitor werkt gewoon prima met een AMD kaart.
'Moet' is nou ook weer overdreven maar na ongeveer 6 tot 10 jaar is een nieuwe monitor sowieso een fijne upgrade, er is heel wat moois te krijgen voor wat je destijds voor een PG279Q kwijt was, in tegenstelling tot videokaarten die alleen maar duurder en duurder worden terwijl verhoudingsgewijs de prestaties stagneren. ;)
512 cores minder dan de 4060, maar wel meer stroomverbruik dus wsl hoger geclocked ? Maar als het een kaartje van de rond de 175 euro wordt zoals nu de 3050 is het misschien nog wel enigzins interessant. Hoewel de 3050 dus onder de 75W blijft. Dan is 130W misschien wat te gortig voor een low range kaartje.

[Reactie gewijzigd door AtariXLfanboy op 15 juni 2025 02:51]

Op dit item kan niet meer gereageerd worden.