Nvidia kondigt RTX 5050-videokaart met 8GB GDDR6-geheugen aan voor 259 euro

Nvidia heeft een GeForce RTX 5050-videokaart voor desktops aangekondigd. De grafische kaart maakt, in tegenstelling tot de andere kaarten in de RTX 50-serie, gebruik van GDDR6-geheugen. Hij komt in de tweede helft van juli uit en kost omgerekend 259 euro.

De RTX 5050 beschikt over 2560 CUDA-cores en is gebaseerd op de Blackwell-architectuur. De kaart ondersteunt daarmee features als DLSS 4 met Multi Frame Generation. De chip is geklokt op 2,31GHz met een boost naar 2,57GHz. De gpu heeft verder een PCIe 5.0-interface met acht lanes en een tgp van 130W.

Nvidia voorziet de RTX 5050 van een 128bit-geheugenbus en 8GB aan GDDR6-geheugen. Het is tot op heden de enige RTX 50-kaart die gebruikmaakt van dat geheugentype; alle andere RTX 50-videokaarten hebben sneller GDDR7-vram. De RTX 5050 haalt een geheugenbandbreedte van 320GB/s, een stuk lager dan andere kaarten in de RTX 50-serie. De RTX 5060 heeft bijvoorbeeld wél GDDR7-geheugen en haalt daarmee een 40 procent hogere bandbreedte van 448GB/s.

De grafische kaart heeft daarnaast drie DisplayPort 2.1b-poorten en een HDMI 2.1b-aansluiting. In totaal kunnen maximaal vier 4k-schermen met een verversingssnelheid van 165Hz tegelijkertijd aan de kaart aangesloten worden. Nvidia zegt niet wanneer de videokaart precies uitkomt, maar meldt wel dat de RTX 5050 vanaf 'de tweede helft van juli' beschikbaar is.

Videokaart RTX 5050 RTX 5060 RTX 5060Ti
Architectuur Blackwell Blackwell Blackwell
CUDA-cores 2560 3840 4608
Boostclock 2,57GHz 2,50GHz 2,57GHz
Geheugen 8GB GDDR6 8GB GDDR7 8GB/16GB GDDR7
Geheugenbus 128bit 128bit 128bit
Bandbreedte geheugen 320GB/s 448GB/s 448GB/s
Tgp 130W 145W 180W
Interface PCIe 5.0 x8 PCIe 5.0 x8 PCIe 5.0 x8
Releasedatum Juli 15 april 15 april
Adviesprijs ~259 euro 324 euro 8GB: 405 euro
16GB: 459 euro

Door Imre Himmelbauer

Redacteur

24-06-2025 • 17:24

95

Submitter: TheProst

Lees meer

Reacties (95)

Sorteer op:

Weergave:

Voor welke toepassing is zo'n kaart nou geschikt? Waarom zou je als je deze kaart overweegt niet voor een IGPU kiezen?
In mijn ogen is een kaart als deze voor gaming niet bepaald geschikt want je moet er nu al mee op lagere resolutie en lagere grafische instellingen spelen. Grote kans dat (een deel van de) spellen die over 2 jaar uitkomen überhaupt niet op deze kaart draaien.
Volgens mij is een 5050 altijd veel sneller dan een IGPU.
Ik durf te betwijfelen of dit zoveel sneller is dan een Ryzen AI HX 395
Zou leuk zijn als de Tweakers redactie eens een vergelijking zou maken met dedicated GPUs vs IGPUs van deze klasse, want volgens mij zijn APUs zoals idd de HX 395 behoorlijk bruikbaar als je gewoon af en toe even een (moderne) game wilt spelen en niet veel geeft om grafische kwaliteit.
Meer dan af en toe.

Het is praktisch een halve 7800XT.
Maar met modernere architectuur.

Dat is op 1080p prima te doen verwacht geen 4k
Wie denkt met een budget kaart zoals de 5050 meer dan 1080p te draaien is wel beetje delusional.
Ligt helemaal aan de spellen die je wil spelen.

Factorio werkt prima in 4K hoor, ook op de iGPU van m'n laptop.
Uiteraard kan ik ook snake op een nokia spelen, daarvoor heb je geen pc nodig
Ik draai met een Radeon 6650XT ook 'gewoon' 1440p of 4K als het moet hoor.
Er zijn veel gamers die het vooral gaat om hun bestaande en soms immense gamelibrary en niet zo zeer om nieuwe games, en dan kan zelfs een 5050 best vaak op 1440p en in sommige gevallen zelfs met 4k goed uit de voeten. Dat er voor iets meer geld betere alternatieven zijn is een ander verhaal. Ik zie ook niet zo waarom iemand die niet genoeg heeft aan een APU en een paar honderd euro te besteden heeft niet iets meer betaald voor een 5060 of 5060 Ti. Maar ik snap dat iedereen een budget heeft waar ze niet boven kunnen of willen gaan.
De 780M (heb zelf een 8700G CPU) is bij medium settings met 1080p al heel goed bruikbaar (vaak is het meer gewoon de schaduwen terugschroeven en je bent er al bijna) dus laat staan dit stapje hoger.
En is 'heel goed bruikbaar' dan 40fps, of 60+ fps?
review: AMD Ryzen 5 8600G en Ryzen 7 8700G - Snelle graphics in een moderne p...

maar het lijkt mij aangeraden als je de overwaging maakt om even af te wachten wat de 9000 serie zal brengen die gelijk is aan de laatste mobile generatie.

[Reactie gewijzigd door d3x op 25 juni 2025 07:51]

Aangezien ik weinig veeleisende games speel heb ik naar de AI Max gekeken, die nu op ITX-mobo's van framework te vinden is. Maar voor dat geld kan ik ook een mobo+CPU+RAR en een véél krachtigere videokaart kopen.

Dus ja, het zou een leuke concurrent zijn als het aanbod wat beter en betaalbaarder zou zijn, maar dat is niet zo.

[Reactie gewijzigd door bwerg op 24 juni 2025 19:34]

In welke pc zit een AI HX 395? Waar koop ik die voor mijn gaming pc?

[Reactie gewijzigd door Borgia op 25 juni 2025 06:00]

Binnenkort in die mini pc’s.
Zoals minisforum
Ik heb al een pc.
Alleen in laptops en mini pc`s
Het is in ieder geval een stuk goedloper dan een Ryzen AI HX 395.
Hier zie je het het verschil tussen een Ryzen AI HX 395 laptop en een RTX4060 laptop.
Dat geloof ik direct, maar op beide kun je niet fatsoenlijk gamen. Waarom dan toch die 300 euro uitgeven?
Mwah, laten we niet overdrijven. Nee je gaat niet de nieuwste AAA spellen op hoge settings draaien. Maar genoeg spellen kan je echt prima ermee spelen. Hell natuurlijk kan je het niet 1 op 1 vergelijken, maar hij heeft de TOPS van een Xbox series X.
Precies, ik vermaak me nog best met een 2080 Super.
Ik vraag me dan wel af hoe een 2080 zich verhoudt tot zo'n 5050/5060

Als ik gemiddeld elke dag 2u zou gamen en het verschil is 150watt in het nadeel van die oudere kaart

Dan is dat verschil maar zo'n 50euro per jaar aan stroom en zou een upgrade dus nagenoeg nooit zin hebben tenzei de performance niet meer voodoet
gewoon even het eerste resultaat die ik vond:
https://technical.city/en...Super-vs-GeForce-RTX-5060
5060 is ongeveer 6% sneller dan de 2080 Super, terwijl de 5060 een TDP heeft van 145W vs 250W voor de 2080 Super
Dus de 5050 is trager, dus zeg hij koopt de 5060 voor 350 euro, hij wint er MAYBE 50 euro per jaar aan qua stroom verbruik, duurt het nog 7 jaar voor hij die investering heeft "terugverdiend".
Er is een gigantische library aan games, inclusief relatief modern games zoals Doom Eternal, die echt prima speelbaar (ie meer dan 90 fps) op 1080p draaien op een kaart als deze.

Ook niet alle nieuwe games zijn even demanding.

Ik zou em zelf nooit kopen maar zeggen dat je op deze kaart helemaal niet kan gamen is overdreven.
Ja hoor, en om boodschappen te doen heb je minstens een Porsche nodig, dus waarom bestaat de Citroën C1 eigenlijk? :p

Je weet dat gamen niet per se 4K 120Hz met raytracing hoeft te zijn? Kjjk eens in de steam survey waar mensen op gamen. Dit is in de praktijk een heel gemiddelde kaart.

[Reactie gewijzigd door bwerg op 24 juni 2025 19:19]

C1 is een slechte boodschappen auto omdat in de kofferbak een boodschappen krat niet past…. De reden dat ik nooit meer een C1 koop….

Een Porsche heeft hetzelfde probleem, kan je beter een Jaguar nemen of een landrover 🤣
Ja boodschappen doen met een jag of Landrover is leuk als je wil lopen met je boodschappen.
Je kan prima gamen op zo'n kaart. Je vergeet even dat er games bestaan zoals rocketleague, trackmania, csgo, league of legends. Ga zo maar door. Deze games draaien boven de 200fps op 1080p (nog steeds de meest gebruikte Gaming resolutie). Niet iedereen wilt cyberpunk spelen in 4k met raytracing 😉
Of hearthstone. Dat draait bij mij op 700 fps, op max quality 😀
1080 de meest gebruikte resolutie

Op wat lol spekers na die voor fps gaan en niet voor grafics kan ik me dat nauwelijks voorstellen

Als ik er van uitga dat gamen niet hrt enige is dat je doet met je pc dan zou ik verwachten dat 144p of 4k inmiddels wel zo'n beetje de standaard moet zijn

Sterker nog voor mijn volgende scherm is 1440/90 het minimaal

De verschillen tussen 10i0 en 1440 zijn in mijn beleving echt super groot als je kijkt naar leesbaar heid van text of de weergave in fames
Behalve dat NVidia niet alleen voor de westerse wereld produceert, en ze in veel landen echt wel even moeten sparen voor een videokaart of scherm, of ze gewoon de ruimte niet hebben.

Maar in plaats van "1080p" kun je ook lezen "1440p met lage settings" of "1440p met wat oudere games", dan heb je het nut van dit soort kaarten ook wel te pakken.
1440p is zeker veel mooier met alles wat je doet op een pc. Zelf heb ik een 1440p 144hz ultra wide.

Maar dat 1080p de meeste gebruikte resolutie voor gamen is blijft gewoon een feit. In de laatste steam hardware survey van mei komt naar voren dat zelf meer dan 50% van alle mensen die mee deden nog gamen op een resolutie van 1080p
correctie, altijd veel sneller dan een Intel iGPU... De APU van AMD zijn veel sterker dan een IGPU en met de 9000 (AI) reeks die nu komt zou dit zeker wel eens het egval zijn. Het verschil in perf kan wel eens beperkt zijn tov de veel hogere koste n extra verbruik met zo een kaart.
Ligt dat niet erg aan je 'usercase'?
Nu ben ik niet super thuis in gamingkaarten maar ik probeer een goedkoop game-PCtje samen te stellen met een videokaartje van 125-150 euro. Dan kom ik op vraag&aanbod allemaal spul van >5 jaar oud tegen met GDDR5 geheugen.
Snap ik dan echt te weinig van videokaarten om het best te zien zitten om 100 euro meer uit te willen geven voor iets dat niet al >>1000 uur gedraaid heeft, sneller is en nog garantie heeft?
Kijk naar de prestaties in benchmarks, niet naar het type geheugen. Voor jou als eindgebruiker telt de totale performance, niet wat onder de motorkap zit.
Een IGPU heeft geen eigen geheugen, en snoept dus van je werkgeheugen af.

Dat is ook de reden dat ik een laptop met een 4050 heb gekozen
Mijn 64GB kan wel 1 of 2 missen 😜
Je kan nog zoveel RAM hebben, de geheugenbandbreedte blijft vele malen lager dan die van een discrete videokaart. Ook al heeft die kaart 'slechts' een 128-bit bus met GDDR6.

Dat is de reden dat de AMD AI Max IGP's (met 32 compute units, even veel als een RX7600 / RX 9060) nooit geleverd wordt op platformen met 'gewoon' DDR5. Die 32 compute units zouden daarmee totaal niet uit de verf komen. De prestaties van een 8700G gaan zelfs al een stuk vooruit als je je geheugen flink overklokt, dus bij 12 compute units is de bandbreedte al een bottleneck.

[Reactie gewijzigd door bwerg op 25 juni 2025 09:55]

Puur op basis van de specificaties verwacht ik dat deze kaart ongeveer gelijk presteert aan de RTX2080, met de helft van het energiegebruik. Low-end voor huidige begrippen, maar absoluut niet waardeloos. Een igpu is doorgaans toch nog wel een heel stuk minder krachtig, Strix Halo even daar gelaten.
Wat het toch een moeilijke sale maakt , de kaart zit (net zoals de rtx 2080 heden ten dage, die ik nog steeds gebruik dus heb ervaring :-) ) een beetje tussen goed genoeg en niet goed genoeg in.

Te sterk voor grafisch eenvoudige(re) games en te zwak voor alles dat grafisch intensief is (een Alan wake 2 of zo moet je echt niet aan beginnen, dat is gewoon niet meer vlot speelbaar, ook niet op 1080p, het zijn de frame drops).

Dus mja, ik denk dat veruit de meeste , ook casual, gamers toch gaan opteren voor iets dat op zen minst nog 1080p aankan in moderne games, deze kaart is jezelf toch net iets te veel in de voet schieten
ik heb nu een AMD rx6600, deze voldoet heel goed, kan eigenlijk alles prima spelen.

Deze kaart is ongeveer dezelfde prijscategorie, maar 30% sneller ofzo, bij hetzelfde verbruik. Lijkt me helemaal niet verkeerd.

[Reactie gewijzigd door 1234567y op 24 juni 2025 19:34]

Persoonlijk zou ik zeggen: als je extra schermen aan wil sluiten, voor een werk PC wil ik minimaal 3, bij voorkeur 4 schermen.

Daarnaast is het, zoals altijd, een kwestie van reëele verwachtingen hebben. Als je een budget systeem bouwt lijkt dit me een perfect goedkoop kaartje. Op zich is er helemaal niets mis met gamen op medium settings en/of 720p, als zal het me niet verbazen als je daar met recente titels nog wel overheen kunt. (Het ligt maar net aan hoe groot je fps-fetish is ;) )
Voor mensen met een flink budget voor hun HTPC wellicht. HDMI 2.1b kun je jaren mee vooruit.
vergelijken met een iGPU is wel beetje kort door de bocht. Ik denk - natte vinger werk - dat het nog steeds rond de performance van een 30608gb zal liggen, of een 2070 a 2070super, zoiets. Dat is absoluut meer dan een iGPU doet, zelfs de mooie iGPUs van de laatste tijd (om het hele sharen van geheugen dan nog even daar te laten).

Ik heb op een 13" laptop/tablet gespeelt met een 35watt 3050ti, en dat deed veeeel meer dan je zou denken. Geen enkele iGPU kan CUDA spul draaien, er zit nog steeds dedicated VRAM op, en ja, het is het zwarte kindje van de 5xxx serie maar denk niet dat het daarom 0,0 performance heeft.

Alhoewel een test tegen zo'n ai-ryzen-max beest van een iGPU (met dan een extra 8gb of meer aan snel system ram) wel een leuke test zou zijn.
Nou, ik denk dat dit een placeholder gaat zijn voor de gtx1650. Er zijn genoeg mensen in Nederland met een laag tot minimum inkomen en die kunnen dan toch voor weinig geld een leuk kaartje op de kop tikken met garantie. Raytracing is een feature die deze mensen niet zo nodig hebben en vergeleken met de gtx1650 kunnen deze mensen wél met dlss 4 spelen en alsnog een redelijke framerate eruit persen.

Er zijn wel triple A titels die op zo'n kaart niet lekker gaan lopen, maar er zijn genoeg games die dat wel kunnen. Dus ja, ik zie er zeker een markt voor ;)
Zou een opvolger moeten zijn voor een 3050 die slechts 70W verbruikt.
Iets meer geheugen (8 ipv. 6GB), iets sneller, iets duurder.

Dit is gewoon een 'net niet' kaart waar je ook nog eens een extra stekker in moet pluggen.
Ik vind een tgp van 130W voor dit ding best tegenvallen. Als in: behoorlijk hoog. Een 'power over MoBo' variant, dus max 70W, zou m.i. als low-end kaartje veel logischer zijn. Als opvolger van de genoemde 3050 inderdaad.
Denk dat je het meer moet zien als de opvolger van de 'orginele' 3050 die ook een externe voeding + 8GB VRAM had. Gemiste kans wel.
Waarom is deze minder zuinig dan de 4060? ( en zal die op zn minst sneller zijn?! )
boostclock en extra fluff op de chip zo te zien. Ik denk trouwens dat de max clock van de 5050 wat meer is dan de 4060, dat ze zo het verlies van wat CUDA cores proberen te compenseren, maar dat is niet de meest efficiënte manier.

Over het algemeen is gebleken dat de 5xxx serie ook niet efficiënter is dan de 4xxx serie (ook zelfde procedé).
op deze pagina kan je de twee kaarten naast elkaar houden.
Wellicht kom je daarmee op een antwoord op je vraag.
Ik gok dat de AI componenten meer verbruiken.
Dus dan heb je een TI die ook nog eens in 2 varianten is waarvan dus ook nog de 8GB. Daar heb je als consument toch helemaal niks aan, deze onduidelijkheid?
Dan koop je toch niet de 8GB versie.....
Alweer veel om uit te kiezen bij de 5XXX serie. Bij welke kaart krijg je nu de meeste waar voor je geld? Ofwel minste euro's per performance? 5070TI?
RX 9070 of Intel B580
Ik bedoel van de 5xxx serie......
5060 ti 16 GB vgm
YouTube: Nvidia RTX 5070 Review + Benchmarks: DLSS 4 Doesn't Deliver 4090 Per...

maar is al weer even terug, de AMD kaarten zijn uit... en adviesprijs betekent weinig, elk land weer z'n eigen prijzen, en zoals ik al zei, er is al weer wat tijd overheen gegaan.

EDIT: nog betere link, hardware unboxed heeft overzicht met 10 landen, waaronder Nederland met Megekko als winkel. En is van een week oud of zo. Beter kan je het niet hebben:
YouTube: Best Value GPUs Based on REAL Prices in 10 Countries - June 2025 Update

RTX 5060 lijkt beste Blackwell kaart te zijn, maar die is 8GB en wordt afgeraden. De 5070 zit er dan net achter, weer dichtbij met de 5060ti-16gb. Kijk nog even naar andere winkels en actuele prijzen maar het geeft je een idee.

En alhoewel je mij een beetje in kamp NVIDIA mag plaatsen, blijf ik toch kijken naar de 9060XT 16gb, want die staat in prijs-per-frame toch wel bovenaan het lijstje, zelfs als de prijs hier in NL blijkbaar beetje aan de hoge kant is vergeleken met andere landen.

[Reactie gewijzigd door dipje2 op 25 juni 2025 01:06]

Bedankt voor jullie reacties @Wout_ en @dipje2

Ik heb onder andere de Youtube link bekeken van de 10 landen met gpu's...

Neemt niet weg dat ik het altijd wel een pittige vind hoor de GPU. Bang 4 buck is een ding maar het is ook wel fijn als je GPU een tijdje mee kan......

Op dit moment speel ik vooral Tempest rising @1440P medium gemiddeld 100 fps met een 3080 en ik denk dat ik met die GPU dus nog even doorga. Die had ik toen gekocht en daarmee kon ik goed vooruit in de 3xxx generatie maar ook in de 4xxx generatie en iets mindere mate in de 5xxx generatie.

Blijft uiteraard speculeren, kan net zo zijn dat een bepaalde generatie een GPU naar voren brengt die echt een revolutie is en het daarna een aantal generaties met kleine stapjes gaat. De mensen die een 1080TI hebben gekocht weten wat ik bedoel ;-)
Oh joh, ik zit met een 3060-12g en een 4060 laptop. En ik heb nog niet zoiets van ik moet perse. De 9060xt is de enige waarvan ik denk "dat is een noemenswaardige jump omhoog" die qua prijs nog in het betaalbare segment zit.

Ik wil niet meer dan 400 uitgeven aan een gpu, zonde van het geld. Dan ben ik langer blij met wat ik wel heb. Eigenlijk was mn prijs altijd 250, en dat is al omhoog gegaan naar net over de 300, en vind het wel best eigenlijk.

Als je lang genoeg wacht (als in, jaren) komt er iets wat sneller is voor rond die prijs .

Mn zoontje heeft net een pc op zijn kamer en alles is geweldig en "wow het speelt zo veel lekkerder dan de switch!".. en die zit met een 1080. Die snapt er niets van waarom je iets duurders zou willen 😉
Dat is een hele nuchtere manier om er naar te kijken. In een bepaalde vorm doe ik dat nu ook. Ik dacht eerst dat mijn RIG niet genoeg was voor Tempest Rising. Wat grafische handleidingen/ guides bekeken en daar zag ik al snel dat de grafische verschillen tussen medium en very high heel erg klein waren in deze RTS terwijl je wel veel FPS kon winnen. Ik vind het dus wel prima.

Wat voor mij sowieso altijd wel een nieuwe gpu/ cpu rechtvaardigde in het verleden was het als er een nieuw spel uit kwam die ik graag wilde spelen en die ineens heel veel meer van je hardware vroeg. Toen Starcraft 2 net uit was en toen je het wilde spelen met al zijn after effecten etc. Dan had je best goede hardware nodig......

Mijn MSI 3080 btw gekocht voor 1100 euro, was toen nog scherp ook want een paar maanden ervoor kon je hem nog kopen voor tussen de 1800 en 2500 euro (crypto/ bitcoin gekte en corona).

Wie weet straks een 6090 icm nieuwe cpu, ram etc.... we zien het wel. Mocht mijn huidige pc kapot gaan dan zal ik al eerder nieuwe dingen "moeten" kopen maar dan denk ik nu toch aan een 5080 of heel misschien 5070ti)
Een leuke uitdaging voor “can it run doom?”

Ongelofelijk om met zoiets aan te komen zetten in 2025…
Niks mis mee, spoedig is het moeilijk om nog aan 40 serie kaarten te komen. En dan is een 5050 een prima entry gaming kaart. De chip zelf is snel. Goed dat de prijs dik onder de 300 euro zit.
Ik had eigenlijk van het voorjaar nog een asus 4060TI willen scoren maar ze stegen in 2025 ineens in prijs. Dus maar even laten zitten. Bij asus zijn de 4060’s al lang op, maar de asus 5060 prime Oc 16G kost nu net zoveel als de 4060 vorig jaar op zn goedkoopst was.

Uiteindelijk vind ik de prijs van de 5060 allesinds meevallen tov alle negatieve berichten hier. Die 5050 gaat ook wel een mooie instapper worden voor de niet zo veeleisende gamer.
Ware het niet dat ik vorig jaar een videokaart in de zelfde prijsklasse gekocht heb. Deze zou ik anders zo kopen.

Ik game af en toe op HD en wat ik speel is minstens 3 a 4 jaar oud.

Dus prima prijsklasse
AMD weet precies waar ze deze kaart inzetten. Het meeste geld zit in de mid en low end kaarten segment.
Het gaat hier over dat andere kamp 😇
Ja en? Ze zetten nu zelf ook een tegenhanger van de AMD op de markt.
Luxe kantoor kaart. Niet iedereen heeft een dikke gaming kaart nodig.
De RTX serie is per definitie een gaming kaart. Deze GPU is, hoe gek dan ook, wel gericht op gaming.

Zie https://www.nvidia.com/en-us/geforce/news/rtx-5050-desktop-gpu-and-laptops/

De eerste zin:
Our new GeForce RTX 5050 desktop graphics cards and GeForce RTX 5050 Laptop GPUs bring NVIDIA Blackwell RTX to even more gamers this Summer, starting at great new price points of $249 and $999, respectively.
Dat is wel ergens bizar. Natuurlijk kun je games draaien met deze GPU, maar dat kun je ook met onboard graphics. Maar voor 259 euro mag je toch wel wat performance verwachten. Dat is de prijs van een instap console, maar je krijg geeneens vergelijkbare performance.

[Reactie gewijzigd door cmegens op 24 juni 2025 17:51]

Wil niet zeggen dat je het niet goed voor kantoor kunt gebruiken. Meeste programma's voor beeldverwerking e.d. gebruiken nu ook AI features die wel een nieuwe kaart vergen. Heb je niet meteen een 1000 tot 3500 euro kostende kaart voor nodig.

[Reactie gewijzigd door Tourmaline op 24 juni 2025 17:56]

Dat is de prijs van een instap console, maar je krijg geeneens vergelijkbare performance.
Is dat zo? Hij heeft de ruwe rekenkracht van een series X Xbox, en 3x zoveel als een series S. Natuurlijk kan je dat niet 1 op 1 direct vergelijken, maar lijkt mij sterk als hij minder dan een series S zou presteren.
Heel leuk idee dat de budget-instapkaart ook lekker veel power aan boord zou moeten hebben, maar als die daarmee weer maar 400 euro zou gaan (hoi 9060 16GB) zou het geen budget instapkaart zijn, hé... het hele idee van zo'n kaart is dat die de kloof dicht tussen IGP's en kaarten van 400 euro. "Vroeger" had een videokaart-serie uitvoeringen van 100, 150, 200... euro.

De vergelijking met IGP's slaat als een tang op een varken. De 8700G heeft de snelste desktop-IGP en die verliest al van de RX6400 of RTX1650. De geheugenbandbreedte van zo'n IGP is vaak de bottleneck en die is echt factoren kleiner dan deze 320GB/s.
Ik gebruik een 3050 om te gamen en dat gaat prima hoor dune awakening op 1080pp met alles op ultra
De 3050 staat nog steeds op mijn lijst als de slechste nVidia GPU die ze in tijden hadden uitgebracht

Hij was toen der tijd langzamer en duurder als de concurrentie, en had eigenlijk niks waarvoor je hem zou aanraden. Kwamen ze daarna ook nog met een 3050 met minder VRAM, die ook qua specs NOG trager was :P

Ik geloof best dat je er op kan gamen, maar man man wat een belaberde kaart was dat imo.

Met dat in gedachten denk ik ook dat deze 5050 een zeer slechte kaart kaat worden, maar we gaan het zien
Normale kantoortaken hebben niet eens een aparte grafische kaart nodig. Hier volstaat een op het moederbord of in de cpu ingebouwde gpu die een eenvouding beeld kan weergeven. En voor de toepassingen zoals cad, serieuze videobewerking of AI modellen (kots) voldoet deze kaart niet eens wegens te traag en/of te weinig geheugen. Dus het toepassingsgebied is mij een beetje een mysterie.
Waarschijnlijk draait het Doom: The Dark Ages nog behoorlijk ook, dat spel komt met veel weg.
Ik vraag me af wat het verschil is in productiekosten voor al die modellen, van 5050 t/m 5090. Ik vermoed slechts een paar procent.
Bij constante yields zijn de kosten proportioneel aan bvb GB's VRAM of die area van de chip. Een RTX5060 die is de helft zo groot als die in de RTX5080. En de RTX5090 is weer 2x zo groot als die in de RTX5080. Dat maakt de RTX5090 in theorie al 4x zo duur dan een RTX5060 chip.

Nu zei ik "constante yields". Dat is ook absoluut niet zo. Yields nemen af bij grotere chips, omdat een grotere die simpelweg een groter vangnet is om 1 kapotte transistor te vangen dan kleinere onafhankelijke chips. Dat maakt een RTX5090 dan minstens 4x zo duur. Hoeveel het exact is kan je met een die calculator beter inschatten.

Nu kan NVIDIA kosten wel deels drukken door semi-defecte chips te verkopen als lagere modellen. Dat doen ze al met de RTX5090 waarbij units zijn uitgeschakeld, en de volledig werkende chips in workstation kaarten terrecht komen.
Daarnaast ligt het er maar net aan hoe de logistiek is ingesteld om met grotere of kleinere chips om te gaan. Ik kan zo voorstellen dat meer kleinere chips testen/packagen relatief meer overhead kost dan voor 1 grotere chip.

Zonder die punten te weten houd ik het dus bij lineaire schaling. Als je naar retail prijzen kijkt, denk ik wel dat NVIDIA absoluut meer marge kan pakken op hun higher-end modellen.

[Reactie gewijzigd door Hans1990 op 24 juni 2025 17:52]

Volgens mij zijn de marges echt heel hoog. Een paar gb ram meer of minder scheelt maar een paar dollar.

Duurste onderdeel is de gpu die.
Voor nvidia zijn de marges hoog. Voor de retailer zijn ze flinterdun
Ja een ontzettend slappe kaart, maar niemand die zich afvraagt of DLSS4 en MFG niet 2/3x de FPS kunnen geven?

Verder ben ik van mening dat je rond dit prijspunt al richting gebruikte 3080s of 4070s zit als je iets bijlegt.
Stuur mij even een berichtje wanneer je een gebruikte 3080 Super of 4070 Super ziet voor €259 ofwel €300 met 40 euro bijgelegt.

Edit: spelfoutje

[Reactie gewijzigd door GoingToaster299 op 24 juni 2025 19:52]

Nouja, als je toch bij gaat leggen kun je net zo goed in de 50xx reeks hoger gaan. Ik moet zelf niet drnken aan een 2e hands videokaart, of zo'n 3080+ moet ruim onder de 100 euro kosten en dan nog in goede staat verkeren. En de kaarten die jij aangeeft slurpen wel een stuk meer.
Prima kaart voor indie titels en andere simpele games, het stroomverbruik is ook laag en de prijs ook. Lijkt mij weinig mis mee.
Eens kijken voor welke prijs de NL shops deze kaart gaat wegzetten. 500 euro??? Niet omdat het moet maar omdat het kan
Een 5060Ti is voor 450,- gewoon te verkrijgen hoor.
Zoek een andere hobby. Inmiddels kun je wel je kaartje voor op of minder dan msrp vinden.

Op dit item kan niet meer gereageerd worden.