VideoCardz: Nvidia brengt in de komende weken RTX 5050 met 8GB geheugen uit

Nvidia brengt naar verluidt ergens in de komende weken de GeForce RTX 5050 op de markt. De gpu zou 8GB geheugen krijgen en over 2560 CUDA-cores beschikken. Vooralsnog heeft Nvidia de videokaart niet officieel aangekondigd.

Bronnen melden tegenover VideoCardz dat de kaart binnenkort op de markt gebracht moet worden en dat het niet om een laptopvariant gaat. Nvidia bracht in de vorige generatie een RTX 4050 op de markt, maar alleen voor laptops.

Dezelfde bron schrijft dat de videokaart 8GB aan GDDR6-geheugen krijgt; dat meldde een doorgaans goed geïnformeerde leaker onlangs ook. Benchlife stelt nu echter dat de gpu, net als de rest van de RTX 50-serie, beschikt over sneller GDDR7-geheugen. Eerder bracht Nvidia de RTX 4050 met GDDR6-geheugen uit, ofwel met dezelfde geheugengeneratie als de andere 40-serie videokaarten.

Tot dusver is de RTX 5060 het instapmodel uit de 50-serie videokaarten. De kaart had bij de introductie begin mei een adviesprijs van 320 euro.

Door Yannick Spinner

Redacteur

05-06-2025 • 20:48

66

Submitter: TheProst

Reacties (66)

Sorteer op:

Weergave:

Als deze kaart rond de 200-250 EUR zou kosten, denk ik dat die 8 GB VRAM nog meevalt voor een instapkaart. Maar meer ook niet.
Ik zie niet in waarom je voor een dergelijke kaart meer dan 8GB nodig hebt. De kaart is gericht op het laagste segment, lage resoluties en geen maximale settings. Niet voor gaming op ultra mode en 4K texture packs.

Als een game dan alsnog meer VRAM vereist dan is er gewoon iets mis met de optimalisatie.
Over gebrek aan optimalisatie valt wel het een en ander te zeggen. Maar ik heb wel vaker het argument gehoord van "deze kaart is toch niet zo sterk dus heeft minder VRAM nodig". Om achteraf toch blij te zijn dat ik de duurdere variant had gekocht met dubbel VRAM toen dat na een tijdje toch niet meer waar bleek.

Ik raad mensen uit eigen ervaring toch aan om VRAM in de gaten te houden. Natuurlijk is het flauwekul om 32GB op een budget kaart te plakken. Maar als de volkswijsheid is dat 8GB gewoon echt niet meer voldoet, zou ik me daar echt niet meer aan wagen. Zelfs als je er nu genoeg aan hebt, kunnen er zomaar een paar spellen die qua GPU kracht nog enigszins speelbaar zijn, maar gewoon echt meer VRAM vereisen. Ik heb dat al eens vaker zien gebeuren.
IMHO zijn xx50 kaarten er voornamelijk voor om meer schermen op je pc aan te kunnen sluiten van je kan met alleen een igpu - niet om te gamen.

Wat betreft igpus, ik vraag me af hoe dicht die in de buurt van deze kaart van komen.
De apu van een Ryzen 8600g is vergelijkbaar met een gtx 1050 kaart, die ongeveer 65 Watt verbruikt. Deze gtx 5050 verbruikt ongeveer 130 Watt volgens VideoCardz en is zeker stukken sneller dan de 8600g apu
Ik heb op een rtx3050 laptop met 6gb echt prima kunnen gamen, ook triple a-games op FHD met mediun-high settings. Dat wil je echt niet proberen met een igpu. Er is hier zeker een markt voor en ik verwacht dat 8gb ook voor die markt voldoende is.
ik speelde tot voor kort vrijwel alles met een 3060ti met 8gb op 1440p, op heel hoge of zelfs ultra settings. Geen enkel probleem. Nu heb ik een 7800xt met 16gb en ik merk het verschil amper.
Als een game dan alsnog meer VRAM vereist dan is er gewoon iets mis met de optimalisatie.
Dit is het argument dat ik een beetje mis in dit dialoog. 8GB is de meest gangbare hoeveelheid VRAM onder gebruikers. Wat bezielt je als ontwikkelaar om daar niet voor te optimaliseren?
Omdat optimaliseren voor een game tegenwoordig niet alleen bestaat uit het beperken van het geheugen gebruik van een game, maar ook rekening houden met technieken als DLSS4 of framegen. Deze technieken zijn niet gratis en verbruiken ook geheugen, iets wat vaak vergeten wordt...

Daarnaast worden veel spellen ontwikkeld voor consoles, waar bij de nieuwste generaties meer dan 8GB beschikbaar is....
Onder 200, want de andere super budget instapkaarten zitten nu op 200
Intel A750 met 8gb vram is 188,88 euro in de pricewatch... Is deze kaart beter dan dat?
Probleem met de Intel kaartjes is dat ze veel meer driver overhead hebben en je met langzamere processoren sneller veel prestaties verliest dan met Nvidia of AMD.

Juist in dat goedkopere segment is het best aanemelijk dat iemand een budget of een stuk oudere processor gebruikt.
Juist, maar daar heeft Nvidia ook zijn eigen problemen, in dat segment. Nvidia budgetkaarten hebben doorgaans maar een x8 interface, wat wel goed werkt met moderne moederborden, maar op budgetmoederborden met een oudere interface dan weer niet...
Dat valt wel mee als je kijkt naar een RTX5090: https://www.techpowerup.com/review/nvidia-geforce-rtx-5090-pci-express-scaling/29.html.

Die verliest van 8x PCIe 5.0 naar 4.0 een 3% performance. En dat is wel een beetje de meest waarschijnlijke om te hebben. Ga je naar 8x 3.0 dan verlies je wel een 10%, maar dat is bij een RTX5090, bij een 5050 zal het verlies ook nog gerommel in de marge zijn.

Enige uitzondering als je VRAM vol zit, dan ga je meer op je PCIe bus leunen om systeemgeheugen te gebruiken. Maar dan zakt sowieso je performance in, onafhankelijk van PCIe versie, en 8GB / wat trade offs bij een xx50 lijkt mij niet vreemd.
De vraag is of dit wel zin heeft als investering nu dat we krachtige igpus hebben zoals and ai max 395 cpu. Die hebben veel meer Bram, waar de limiterende factor is van de 5050 en 5060
Mijn 8gb rx5700 op pcie 3.0 sukkelt in sommige games soms wel met vram, ik kan me voorstellen dat deze krachtigere kaarten ook wel wat problemen zullen zien.

[Reactie gewijzigd door pitagamer12 op 6 juni 2025 15:51]

Kan het NOG slechter en trager dan?
:+ ;) :Y)

Ik dacht dat de 5060 eigenlijk een 5050 in schaapskleren was? :?
Is ie natuurlijk ook. Maar er is altijd nog ruimte to een RT 5030 DDR5
Nou. De 1030 heeft nog steeds geen opvolger. Een 5030 zou voor die markt een uitkomst zijn. 4 GB is voldoende. De niche is extra schermen, niet gaming
Dat is omdat er geen lagere versie is van de 1030. :+ :D

Dus ze zitten hun eigen systeem in de weg, hihi.
Dit is gewoon 1650ti. Bizar.
Dat is natuurlijk ook weer niet waar. Qua performance schat ik rondom de 3060. Dat is nog altijd een prima kaart voor 1080p.
En heel veel wil prima draaien op 1440p zelfs met fps in de 100+ maar goed dan mag deze nieuwe kaart niet meer dan 180-200 euro kosten want anders is het een slechte deal.
Natuurlijk overdrijf ik. (ook al zit ik er niet ver af)
Maar jouw voorbeeld als 3060 werd ook verkocht als een variant met pci-gen4 x4...
Zeker, van de 5050 zal ook een laptop versie komen, die zal nog een stuk trager zijn waarschijnlijk.
Eigenlijk niet wat ze presteren maar DE prijzen van 5000 serie heeft deze generatie kapot gemaakt.
Wat een onzin, de prijzen zijn niet echt anders dan tijdens de introductie van de 40xx serie, en zo gek veel verschillen ze ook niet met AMD.
zo gek veel verschillen ze ook niet met AMD.

Als nvidia de volgende generatie voor 10k begin model introduceert, denk je dan dat ams ze voor 300 in de markt gaat zetten :+
Tja, overdrijven is een kunst, 10k vs 300 voor vergelijkbare performance is zelfs voor sarcasme overdreven.
AMD heeft niet de luxe om hun kaarten duurder in de markt te zetten om zo een hogere marge te pakken. Als hun aandeal in de markt vergelijkbaar is, of in de buurt komt van Nvidia, ja, dan zouden ze dat kunnen doen. Maar deze prijzen, die AMD aan hun afnemers vraagt, zijn echt zo laag mogelijk als dat ze financieel kunnen (om gezond te blijven).
Dat AMD meegaat met de prijzen verandert niet dat Nvidia de prijszetter is in deze markt en dat de verbetering gen over gen enorm aan het dalen is. Dat laatste staat ook los van de inflatie, dat maakt het nog veel vervelender.

Als consument zijn deze prijzen gewoon niet okay.
De prijs wordt niet door inflatie alleen bepaald.
Er komt TSMC steed hoger wordende wafer prijzen in decade van $ 500 naar $5000
De dieshrinks worden sowieso duurder omdat grotere investeringen worden.
De reden dat RTX50 net als RTX40 op 4nm zit.
Dat set al bepaald verwachting patroon. Als kijk naar hoe groot de DIE is tov vorige gen .
De oorlog maakt distributie in EU duurder.
Dat nv een zeer gezonde marge aanhoudt dat verwacht ik wel.
Maat als je over 4 jaar high-end next next gen wilt zien zul gezonde marge betalen als consument zodat er kapitaal komt voor R&D.
Wat consumenten gpu in de licht houd bij intel en AMD is dat ze ook mee willen met grote vraag in AI gebeuren. Omdat nv features in game markt introduceerde die pro hardware features ook gebruiken Tensor en RT cores . Is de Reden voor UDNA.
Maar ja ze gaan geen high-end voor dump prijzen bieden.
Nouja, verbeteringen zijn wel degelijk gewoon aanwezig, maar de verwachtingen zijn tegenwoordig gewoon onrealistisch geworden. Met de huidige technieken wordt het ook steeds lastiger om meer kracht uit de chips te halen, het verkleinen van de chips wordt ook steeds moeilijker en duurder.
AMD gaat niet zomaar mee met de prijzen, ze zetten ze gewoon al zo laag mogelijk dat ze (financieel) kunnen in de markt, want hoe goedkoper zij zijn met vergelijkbare kracht, hoe meer ze zullen verkopen. Maar als dat verschil in prijs niet heel veel verschilt met nvidia, dan us dat dus voor hun echt wel een probleem. Dus de prijs die ze nu vragen is echt niet extra verhoogd omdat ze nog ruimte hadden ten op zichte van Nvidia om hun marge te verhogen.
Als deze kaart zonder extra voeding kan werken zou het een interessante toevoeging aan de 5000 reeks zijn, de RTX 3050 is de laatste NVIDIA kaart die dat kon.
Als deze dan ook nog uitkomt in small formfactor kan het wel een heel leuk kaartje zijn voor een kleine (retro) emulatorbox of als render kaartje in een kleine NAS/server. Daar moet je nu nog vaak terugvallen op vrij gedateerd spul of een dure Quadro. Voor normaal gebruik, vrij irrelevante kaart tenzij ze gaan stunten met de prijs, wat ik niet verwacht.
De Intel Arc kaarten zijn heel interessant als render kaart voor video, super codec support, te krijgen voor zo’n 100 euro, in low profile. Helaas wel hoog idle verbruik.
De 3050 is daar meestal nog prima voor te gebruiken, ik heb 2 van die low profile single slot kaartjes daarvoor in gebruik. Ik gebruik overigens ook een 3050 maar dan de 8GB versie als dedicated PhysX en stream kaart in mijn game pc naast mijn 5070 ti.

De gen 7 NVENC encoder (van de RTX 3050 6GB, GA107) kan nog prima meekomen echter de gen 9 heeft 10 bit H.264, AV1 en 4:2:2 color format support. Uitgaande dat de 5050 ook een GB20x krijg zou het een zeer welkome kaart zijn mits dus zonder extra voeding.

De huidige geruchten geven echter 130Watt TDP aan dus ik acht de kans klein :(
Een idee zou zijn om de PCIe power connector optioneel te maken en dan een power limit van 50% in te stellen, over het algemeen kost dat niet 50% performance..

[Reactie gewijzigd door DukeBox op 5 juni 2025 22:18]

ik ben een sucker voor low wattage GPU / CPU's.. 75w voor GPU en 35W voor CPU en ik kan prima mijn games erop spelen. dus laat maar komen ;)
RTX A2000 (ADA) ed.
Zakken inmiddels flink in prijs.
Of een 4060 flink undervolten. ;) 8-)
ada 4000 sff is denk ik het beste in low profile segment op 75w. kost wel 1400e
Klopt en 20GB VRAM enzo.

Spijtig dat hier niet gewoon consumenten varianten van zijn voor een betere prijs.
Ik ben al jaren tevreden met mijn RTX A2000!!
Dit doet een beetje denken aan die cartoon waarin Mickey Mouse een plakje brood afsnijd zo dun dat het transparant is. Als ze die Ada-die nog veel verder opknippen blijft er weinig meer over.

De 5060 die is zo'n 181 mm². De 5050 krijgt ongeveer 2/3 van de Cuda cores dus zal misschien een kwart kleiner worden, laten we dikke duim zeggen 136 mm². Dan zit ie aardig in de buurt van een GeForce GTX 1050 die uitkwam met een MSRP van maar liefst $109 in 2016 of zo'n $145 in 2025. De 2050 krijgt een geheugen downgrade van GDDR7 naar GDDR6 van vorige generaties. Ook leuk om te weten is dat 2GB GDDR5 in 2016 ongeveer net zoveel kostte als 8GB GDDR6 nu.

De RTX 2050 is dus een low budget instap kaart die niet meer zou moeten kosten dan pak hem beet €180 incl. BTW.
RTX 5050 bedoel je neem ik aan?
Ik ben benieuwd wat de meerwaarde van een 5050 gaat zijn t.o.v. bijvoorbeeld een single fan 4060. O.a. vanwege de relatief beperkte vermogenswinst tussen de 40- en 5060 kaarten.
Ik heb een PCIe-5 x16 slot voor m'n PCIe-4 GPU (4060) en daar kan dus een 5th-gen NVidia GPU in. Hij deelt de 16 lanes met m'n PCIe-4 M.2 slot dus een PCIe5 x8 is dus eigenlijk een must have. De 5060ti met 16GB lijkt me dan beter voor 460 eu. Voor 250 eu zou ik em wel willen.

[Reactie gewijzigd door BasHouse op 6 juni 2025 01:18]

Laten we zien of het voor een schappelijke prijs verkocht zal worden, dan kan het leuk zijn voor een eerste game PC van je zoon of iets dergelijks.

Edit: of wanneer je zelf niet noodzakelijk op hoge settings wilt spelen uiteraard.

[Reactie gewijzigd door 4ttitude op 5 juni 2025 21:09]

de 5060 is al slecht en kan eigenlijk helemaal niets met 8GB als geheugen.
die word al op alle onafhankelijke tech kanalen afgebrand.
hardware unboxed, jayztwocents en der bauer om maar eens enkele te noemen.
en dan wordt vrolijk de 5050 met 8GB uitgebracht?
gaat nvidia daar ook de tech kanalen vertellen wat ze wel en niet mogen testen?
nvidia is echt de weg kwijt.
Voor een 50 serie kaart is 8GB IMHO prima, mits de prijs 200,- of minder is.

het wordt zeker te krap in de 60 en hogere regionen, maar deze kaart is bedoeld als echte gaming instapper en vermoedelijk zal hij dat heel aardig doen. Om maar aan te geven, we hebben hier RX6600 draaien en spelen daar ook moderne spellen zonder problemen op (meestal hoge settings, soms zelfs native1440p).

Grafisch geweld als Cyberpunk etc gaat hem niet worden, maar dat is vooralsnog een handvol games (en als je van MMO's en Strategy houdt ga je er nooit tegenaan lopen). Horses for courses.
De 5060 was inderdaad slecht ontvangen vanwege gegronde redenen. Vooral de pcie x8 bus is slecht voor systemen die niet op pcie 5.0 draaien. Juist bij een ouder systeem koop je een budgetkaartje om er goedkoop op te kunnen gamen.
Deze kaarten zullen vrij snel het standaardgeheugen moeten aanspreken wat op een pcie 3.0 of 4.0 systeem met 8 lanes tergend langzaam gaat. Dat heeft nòg meer impact op de toch al lage performance.
Dan zou ik eerder naar een wat oudere kaart kijken in dat geval.
8GB vram is eigenlijk écht te weinig voor een kaart in deze serie.
Voor 720p is dat meer dan genoeg! Meer kan de kaart waarschijnlijk niet aan of je moet een spelletje met 15 FPS willen spelen. 😉

Ff serieus deze kaart hadden ze gewoon weg kunnen laten. Er zijn CPU's die een betere GPU aan boord hebben volgens mij.
Er is maar een CPU met een goede iGPU en dat is die Rozen AI Max 395 die in de ASUS Z Flow Z13 zit en die is vergelijkbaar met een mobile 4060

Deze 5050 gaat waarschijnlijk minstens zo goed als een 4060 desktop presteren is mijn gok.

En die CPU? Daar kan je wel 2 van deze 5050’s voor kopen zo knetter duur is die.

Ik ben hyped voor de 5050, met name benieuwd naar hoe zuinig die is, vorige generatie was de 4060 de efficiency king ben heel benieuwd hoe dat deze generatie gaat worden
Doe niet zo gek. Als deze hetzelfde presteert dan een RX6600 dan is het voor het gros van de moderne games een prima 1080P kaart. Je kan dan verassend veel op de hoogste instellingen spelen (en 1440P zal je ook vaak positief verassen). RT en grote textures gaat hem natuurlijk niet worden, maar in het algemeen echt prima te doen.

Het punt wordt de prijs. Als het meer dan 200,- kost is het een slechte deal (want dan kan je ook een RX6600 kopen).

Betreft iGPU? Deze gaat echt nog wel rondjes lopen rond een iGPU, ook al zijn daar ook stappen gezet.

[Reactie gewijzigd door roffeltjes op 6 juni 2025 08:28]

Op dit item kan niet meer gereageerd worden.