Door Willem de Moor

Redacteur

AMD 6500 XT versus Nvidia RTX 3050

Vooruitblik op twee budgetvideokaarten

06-01-2022 • 17:17

83

Singlepage-opmaak

RX 6500 XT versus RTX 3050

Ten slotte vergelijken we de specificaties van de RX 6500 XT en RTX 3050 met elkaar. Een vergelijking op basis van daadwerkelijke prestaties kunnen we nog niet maken, daarop zullen we moeten wachten totdat de kaarten met de respectievelijke gpu's daadwerkelijk verkrijgbaar zijn. In beide gevallen moet dat eind januari het geval zijn.

Specificatie Radeon RX 6500 XT (4GB) Geforce RTX 3050 (8GB)
Node TSMC 6nm Samsung 8nm
Transistors 5,4 miljard 13,3 miljard (niet allemaal actief)
Architectuur RDNA2 Ampere
Gpu-codenaam Navi24 GA106?
Shaders 1024 2560
Rekenkracht shaders 5,8Tflops 9Tflops
Diesize ~100mm² 276mm² (op basis van GA106)
Boostclock 2815MHz 1780MHz
Geheugen 4GB GDDR6 8GB GDDR6
Geheugensnelheid 18GT/s (2250MT/s) 14GT/s (1750MT/s)
Geheugenbandbreedte 144GB/s 224GB/s
Geheugenbus 64bit 128bit
Total board power 107W 130W
Adviesprijs 199 dollar 249 dollar

De shaders van AMD en Nvidia zijn niet direct met elkaar te vergelijken, aangezien de eerste vectorgebaseerd en de tweede super-scalar zijn. Andere variabelen zijn wel te vergelijken en dan zien we een wisselend beeld. Nvidia lijkt sterk in het voordeel wat rekenkracht betreft, met een theoretische voorsprong van ongeveer 50 procent op AMD. Ook de geheugenbandbreedte en de hoeveelheid geheugen worden duidelijk in het voordeel van Nvidia beslecht. Waar Nvidia een 8GB-kaart uitbrengt met ergens verstopt misschien een 4GB-versie, hopen we stiekem dat AMD zo snel mogelijk met een 8GB-variant komt, in vervolg op de 5500 XT.

AMD wint het echter op kloksnelheden, want zowel het geheugen als de gpu is flink sneller geklokt. Desondanks is de tbp van de 6500 XT lager. Overigens is het nog even de vraag of de kleinere chip van AMD niet moeilijker te koelen is. Hoewel Nvidia meer vermogen aan de koeler moet afgeven, kan dat over een grotere oppervlakte.

De grote vraag betreft echter de beschikbaarheid en de daarbij horende prijs. Op dat gebied lijkt AMD iets betere papieren te hebben, omdat het veel meer chips kan halen uit een wafer die bij TSMC van de band rolt. Bovendien zou de Navi 24-chip niet de productie van andere gpu's kannibaliseren, wat bij Nvidia als gevolg van het gebruik van dezelfde die (maar met minder elementen geactiveerd) wel het geval kan zijn.

Beide kaarten zijn gericht op 1080p-gaming en moeten een aantrekkelijke prijs voor instapsystemen krijgen. Die theorie klinkt goed, maar de praktijk moet uitwijzen of de kaarten daadwerkelijk voor de genoemde prijzen verkrijgbaar zullen zijn en of ze genoeg spierballen hebben om courante games te draaien. Beide kaarten beschikken over DP1.4- en HDMI 2.1-poorten, waarbij die laatste hdr en vrr ondersteunen.

Hoe de raytracingprestaties met dergelijke instapkaarten zijn, valt te bezien, maar waarschijnlijk profiteren beide kaarten meer van hun respectievelijke upscalingtechnieken, FidelityFX Super Resolution van AMD en DLSS van Nvidia.

Om een indicatie te krijgen, hebben we de twee kaarten van AMD en Nvidia die het dichtst bij de nieuwe kaarten zitten, in een grafiek gezet en de prestatie-index van onze gametestsuite op 1080p berekend.

  • Tweakers GPU Prestatiescore 2021 - 1080p Medium
  • Tweakers GPU Prestatiescore 2021 - 1080p Ultra
Tweakers GPU Prestatiescore 2021 - 1080p medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3060
134,9
GeForce RTX 2060
114,1
Radeon RX 5500 XT 8G
88,1
GeForce GTX 1650 4G
57,9
Tweakers GPU Prestatiescore 2021 - 1080p ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3060
89,5
GeForce RTX 2060
75,8
Radeon RX 5500 XT 8G
56,9

De 5500 XT van AMD komt op Ultra-settings net tot pakweg 60fps en de overige kaarten zitten daar ruim boven. Dat is een indicatie dat de nieuwe kaarten ten minste 60fps op de meeste games op 1080p kunnen halen. Eind deze maand zullen we dat kunnen testen.

Reacties (83)

83
83
37
4
0
26
Wijzig sortering
De shaders van AMD en Nvidia zijn niet direct met elkaar te vergelijken, aangezien de eerste vectorgebaseerd en de tweede super-scalar zijn.
Waarom wordt de vergelijking dan toch gemaakt?
Fout volgens mij:
The RDNA shader processor is a scalar and vector ALU designed to run complex
programs on behalf of a wavefront.
AMD RDNA 2 Shader ISA paper
Andere variabelen zijn wel te vergelijken en dan zien we een wisselend beeld. Nvidia lijkt sterk in het voordeel wat rekenkracht betreft, met een theoretische voorsprong van ongeveer 50 procent op AMD. Ook de geheugenbandbreedte en de hoeveelheid geheugen worden duidelijk in het voordeel van Nvidia beslecht.
Sorry dit is grote onzin.
TFlops en geheugen bandbreedte zijn nikszeggend en alleen te vergelijken binnen een bepaalde architectuur. AMD lijkt tegenwoordig (RDNA 1 en 2) met minder TFlops meer werk te verzetten en Nvidia had dat juist met de pre-Ampere kaarten. AMD had met GCN vaak veel meer TFlops wat zicht niet altijd uitte in meer performance.
Geheugen bandbreedte kan je helemaal geen vergelijking meer mee trekken. Met de komst van Inifity Cache heeft AMD veel minder geheugen bandbreedte nodig. Daarnaast zag je toen Nvidia met Kepler kwam hierin al een verschuiving komen, deze had Nvidia's 2e generatie delta color compression waardoor je weer minder geheugen bandbreedte nodig had.

Het is veel beter om naar de trend van RDNA2 en Ampere te kijken (gelukkig doen jullie dat ook). AMD gaat met deze kaart waarschijnlijk op 1080p en lager goed mee komen, Nvidia gaat het waarschijnlijk op hogere resoluties winnen.

Ik kom misschien wat aanvallend over, zo bedoel ik het niet. Het is gewoon jammer om te zien dat er punten worden gemaakt die er gewoon weinig toe doen.
Een goedkope kaart komt in een goedkoop (of ouder) moederbord. Met de vreemde 4x PCI-E 4.0 keuze betekend dat voor veel mensen effectief een kaart die op dat vlak beperkt word.
Dan is er de bizarre keuze voor 4gb i.p.v 8GB dat bij kaarten 5 jaar geleden al een merkbaar verschil maakte.
Valt nog te bezien of infinity cache in zo'n kleine hoeveelheid goed terugschaalt.

Ik heb er een hard hoofd in dat deze kaart in 2022 beter presteert dan een RX580 van 5 jaar geleden en precies dezelfde MSRP had.

5 jaar aan technische vooruitgang en het enige dat beter lijkt te zijn voor hetzelfde geld is het stroomverbruik en de winstmarge (en zelfs het stroomverbruik is bij de oude kaarten met een flinke undervolt aardig omlaag te krijgen). Winstmarge zal vast behoorlijk zijn want met minder stroomverbruik kan je besparen op de stroomvoorziening en de koeling, en de die zal ongetwijfeld erg klein zijn met erg veel dies uit een enkele wafer).
Klopt, @NitroX infinity geeft dat al correct aan ja.

Infinity Cache helpt voornamelijk met bandbreedte, het zal niet heel veel met geheugen zelf help dacht ik zo. De kaart zal vermoedelijk rond RX 580 niveau zitten... helaas, die performance is in die prijsrange al jaren te krijgen. Zelfs eerder al, maar dan in de vorm van een tweede hands 780Ti, 290(X), GTX 970 (de standaard 780 stelt niks meer voor helaas).
De 6500xt zou geen Av1 decoder hebben, draai je het product dan niet al zelf de nek om voordat het op de markt is?
Die decoders zijn puur voor screen capturing toch? Denk dat het gros van mensen dit nooit doet, dus zo groot is het verlies niet.
AV1 video afspelen vereist een AV1 decoder.
Als je je screen wilt capturen en omzetten naar AV1 video, dan vereist dat een AV1 encoder.
Yup, en Youtube en Netflix stappen dacht ik over op AV1
Mwah, vereist, vereist. CPU's zijn ook nog altijd in staat om video te decoden, het is alleen een heel stuk minder efficient. Zeker in een desktop zou ik me daar echter, zolang je CPU krachtig genoeg is, niet heel veel zorgen over maken.
Het ging meer om het encoder/decoder onderscheid.
Sowieso is het vereist, maar als je GPU die niet heeft, kan je die idd ook op de CPU draaien.
In mijn geval is h264 op de GPU wel zuiniger trouwens, en natuurlijk meer CPU vrij.
Geen encoder, wel een decoder, dus video afspelen is geen probleem, alleen opnemen kan een probleem zijn, zeker in combinatie met een CPU zonder iGPU!
Hier staat "AV1 Decode: No". Of klopt dat niet?
Beter lezen decode yes en encode no
Nope, dat staat er niet (screenshot).
Hmm je hebt gelijk moet zelf beter lezen, AV1 decode wordt ook niet ondersteund, dat is een tegenvaller
Die PCIe 4.0 x4 aansluiting van de 6500 XT gaat 'm kapot maken. Helemaal als je 'm in een PCIe 3.0 bord steekt. De 5500 XT 4GiB met 8 PCIe lanes wordt al significant geknepen in een 3.0 slot.

Zie bijvoorbeeld; https://www.pcgameshardwa...3-vs-PCI-E-4-GPU-1339415/

Nee, dit lijkt op een gigantische misser voor AMD.
Maar die kaart heeft ook niet meer lanes nodig. Denk je niet dat AMD daar zelf niet over nagedacht heeft?
Uitgaande van PCIe 4.0 zal AMD daar ongetwijfeld overna gedacht hebben ja :P

Alleen dit soort kaartjes lijken me juist gebruikt te worden in oudere systemen welke op PCIe 3.0 of zelfs 2.0 draaien.
Ik denk eerder dat systemen uit dat tijdperk die het upgraden waard zijn nog op een 480/580 draaien, en daarvoor vormt deze kaart geen upgrade.

Voor AMD is dit juist een mooie instapper op hun nieuwe platform. Daar willen ze er natuurlijk zoveel mogelijk van hebben. Strategisch gezien geen gekke keuze.
Ja maar wat als in je RX480 of GTX1060 systeem de videokaart stuk gaat en je in de huidige markt niet de bedragen (700+) wilt betalen voor een zinnige upgrade maar wel content bent met een vervanging van net iets beter niveau?

Of iemand wie voor een euro of ~100 een upgradeset hier uit de V&A haalt op basis van een 2nd-7nd Gen I5/I7 en daar een nieuw instapkaartje bij willen doen om zo betaalbaar wat te gamen op 1080P?

In beide situatie zou je wat voor een ~GTX1070 uit de V&A halen kunnen zeggen natuurlijk, maar ik ken genoeg mensen wie 100 euro nog wel OK vinden maar geen 300+ willen stukslaan op iets tweedehands van 5jaar oud zonder enige garantie :P

[Reactie gewijzigd door !mark op 22 juli 2024 17:30]

Goeie vraag. Niet bij stilgestaan omdat in 20 jaar tijd bij mij nooit echt hardware kapot is gegaan, ondanks dat sommige GPU’s best 4 jaar of langer meedraaien.

Ik snap je punt maar denk dat het dan vooral het principe “beggars can’t be choosers” is. Ik zou in de huidige markt dan aanbevelen of toch die paar honderd extra neer te leggen, 300€ voor RX580 performance is ook reeds een bittere pil. Of om maar een iGPU (tijdelijk) te accepteren, en het geld wat anders in een GPU zou gaan in een console te stoppen.

Klotemarkt voor fervente PC gamers.
Bwa, als de kaart verkrijgbaar is zal ze gekocht worden, zeker voor een "zachter" prijsje.
als je met een zachtere prijs 400+ euro bedoeld, dan zou ik em laten liggen en een 5700G halen ofzo en op de igpu gaan spelen.
Mn Minisforum HX90 met 5900HX 32Gb DDR4 512Gb heeft alles samen €800 gekost. APU is in principe nog 100Mhz sneller. Systeem verbruikt max 90W, zo zit ik me in de zomer niet als een piggie op de zolderkamer dood te zweten. Kan hem iedereen aanbevelen voor serieuze 720p en low-1080p gaming fun..
Dat snap ik, maar als je bekijkt dat er oude low-budget kaarten voor premium prijzen over de toonbank gaan, dan denk ik toch dat deze kaart (mits goed verkrijgbaar) voor een prijs van +/- 400€ best een hit kan worden. Mensen betalen tegenwoordig krankzinnige bedragen...
De geheugenbandbreedte van de 6500 XT is ook veel lager dan de 5500 XT. Ik gok dat het de bedoeling is dat de Infinity Cache grotendeels moet compenseren voor de geheugenbottleneck. Dat gaat op hogere reso's natuurlijk hard onderuit, maar daar is de kaart dan ook niet voor bedoeld. Het zal afwachten zijn wat dit daadwerkelijk doet op 1080p, want deze specifieke tradeoff is nog niet eerder vertoond.
Dat denk ik ook inderdaad. Maar hier is wel een marketingverklaring voor: de 6500 XT gaat dienen als een overduidelijk slechte keuze - waar waarschijnlijk ook een beperkte hoeveelheid van geproduceerd gaat worden, zodat je een duurdere kaart neemt. Zoek maar eens op: decoy pricing of afleidingseffect.

Een andere verklaring is er niet. En misschien wordt het gebruikt om 6nm uit te testen voor toekomstige productie van andere chips, kan ook.
en dan ligt het straks in de winkel voor 500plus euros....waarom maken ze eigenlijk nog adviesprijzen bekend?
haha ja als ze daarnaast ook een realistische prijs zouden meegeven weet je gelijk waar je daadwerkelijk aan toe bent. het lijkt de huizemarkt wel hah.
Omdat je zo er ik weet nog steeds op woensdag? Model tegen advies prijs kan kopen. Tevens geeft het een indicatie voor als de prijzen gaan zakken je wel zonder zorgen een kaart kan kopen. Wacht het je tot hij 250 euro kost? Of wacht je tot hij 150 euro? Ik wil best enkele %en boven de advies prijs kopen maar meer ook niet. Dan wil je toch weten wanneer je zonder zorgen kan kopen.
Als je kijkt hoe bijvoorbeeld een GTX1660 Super, 250-275 euro bij de release in 2019, nu tweedehands zo'n 550 kost, dan vrees ik dat deze budgetkaarten geen budget prijs zullen hebben. Je mag van geluk spreken als je er voor 600 een op de kop weet te tikken.
Wat je geluk noemt.

Ik zou het eerder als geluk beschouwen dat je er geen weet te vinden en voor dat geld een console of (veel) later een goede kaart koopt.

[Reactie gewijzigd door Vizzie op 22 juli 2024 17:30]

Alleen zijn consoles ook niet te krijgen, laat staan voor een goede prijs.
de xbox series S is wel te vinden (zelfs 2dehands voor rond de 200 euro wat een killer deal is)
Afgekeurde 3060 chips opgespaard die nu als 3050 verkocht worden lijkt het.

200/250 is bij mij overigens niet budget, meer dan het dubbele dan de 1050 bijv. En gaan uiteindelijk nog n keer over de kop zodra ze in de webshops liggen. Jammer dat in deze verziekte markt alles geslikt wordt.
Ja helaas gaan de prijzen van deze instap kaarten mee met de trend van hoge prijzen. Meer in lijn was geweest als de 6500 XT rond de €100 (zeker een 4GB variant) en de 3050 rond de €150. Ook helaas passen deze niet meer in de 75 WATT power budget van het PCI-Express slot.
Ook helaas passen deze niet meer in de 75 WATT power budget van het PCI-Express slot.
Ja, dat is ook precies waar ik meteen aan dacht bij de aankondiging van de 6500 XT en 6400.
Hopelijk komt AMD nog met een 6500 non-XT ( Of Nvidia met een GT 3030 ) van ~70 Watt…
Elke hobby is verziekt. Financiële markten zijn verstopt, mensen verdienen niets op hun spaarrekening, beleggingen en bitcoins en langzaamaan verplaatst zich alles naar meer fysieke middelen. Of het nu videokaarten of Pokémonkaarten zijn, de markten worden leeggepompt door mensen met net iets meer vermogen omdat ze op korte termijn een veel grotere ROI kunnen krijgen dan op de beurs.
Is bij de RTX 3050 de 128 bit geheugenbus geen beperkende factor?
Net als dat de RTX 2060 12 gb versie nauwelijks sneller is dan de RTX 2060 gb versie. Ondanks een snellere grafische processor en meer geheugen, maar die wel van een even brede/smalle geheugenbus gebruik maakt.
Ik ben benieuwd, AMD beweert dat doordat deze kaart slechts 4GB geheugen heeft deze onaantrekkelijk is voor miners. Daarnaast zouden ze er enorm veel gaan produceren. Hopelijk gaat dat er voor zorgen dat er eindelijk een videokaart is die betaalbaar blijft.
Ik mag hopen voor AMD dat de 6500XT toch wel een stuk sneller is dan de 580... De GTX 1660S was al een flink stuk sneller en had maar een iets hogere introductieprijs een paar jaar terug. Ook is het stroomverbruik van de 6500XT niet echt enorm veel beter dan de 1660S. Als de 6500XT al verslagen wordt dus door populaire kaarten als de 580 en 1660S dan kan alleen een betere beschikbaarheid deze nog redden. Want waarom zouden deze eigenaren dan hun geld in een upgrade naar de 6500XT steken? Upscaling naar of van 1080p was toch ook nog niet echt aan te raden? Ik dacht dat meer iets voor 1440p en hoger was?
De ene heeft straks fsr in alle games met goede fps , de ander is de zware verliezer :)
Zelfs met FSR is 4gb toch echt wel krapjes, zelfs op 1080 P met moderne games met veel high res textures. Denk dat de 3050 een beterer optie is tussen deze twee, beschikbaarheid en marktprijzen even daargelaten (wat natuurlijk erg belangrijk is).

De 3050 is weliswaar entry / mid range maar een stuk minder 'crippled'.

[Reactie gewijzigd door PjotterP op 22 juli 2024 17:30]

Ik vind 4gb opzich nog wel prima voor 1080p. De lange bandbreedte en lage vram zal miners niet zo snel aantrekken. Dus ik denk dat het een voordeel op kan leveren in de huidige mark waarin wij nu bevinden.
4GB is ook op 1080p behoorlijk krap anno 2021, games vragen echt wel meer tegenwoordig ook op die resolutie
Kijken we naar de rx 580 4gb VS 8gb dan vind ik het verschil niet zo heel schokkend eerlijk gezegd. Ja misschien dat er later games komen die 4gb niet zo leuk vinden. Maar in 2017 werden die zelfde berichten de wereld in geslingerd.
https://youtu.be/kOaEorgENoQ

Als het inderdaad klopt dat je met 4gb niet zo lekker kan minnen en dat AMD er veel van producxeerd kan het nog wel eens een mooie kaart worden voor gamers met een leuke prijs.
Tja. 2017 is ook wel even geleden Denk wel dat de 3050 een kaart is die ook meer met die 8gb kan dan de 6500 en 580.


Enfin, inderdaad goed dat er in elke geval nieuwe opties zijn in dit segment.

[Reactie gewijzigd door PjotterP op 22 juli 2024 17:30]

Persoonlijk vind ik het beide niks. Maar als je een beetje wil fortnite of rocket wil doen is de amd denk met build in fsr straks denk ik de betere keus
TJa, het blijven kaarten aan de onderkant. Hoe dan ook, als je kijkt naar wat door NVIDIA is aangegeven wat de prestatieverbetering is t.o.v. de 1650 en 1050ti dan is dit echt wel een aardig 1080p kaartje waar je veel moderne games heel behoorlijk op kan spelen (mag ook wel met bijna dubbel de TDP..)

[Reactie gewijzigd door PjotterP op 22 juli 2024 17:30]

Nvidia heeft al tijden NIS, wat hetzelfde doet. AMD doet niks anders dan achter Nvidia aan hobbelen.
Zo te zien was nis er een maand geleden voor het eerst uitgekomen. Echter is fsr al wat langer. Wie hobbelt er nou achter wie aan? Wist trouwens niet dat nis bestond

[Reactie gewijzigd door cptbuttlick op 22 juli 2024 17:30]

Oh je hebt het serieus over FSR.
FSR is een reactie op Nvidia’s DLSS wat al zo’n twee jaar in games zit verwerkt.
Dlss zit in een handje games over die 2 jaar. Dat weet je zelf ook wel. Ga nou niet zeggen dat in enorm veel laat staan alles dlss zit...
Het is maar een fractie van de games waar het in zit.

[Reactie gewijzigd door cptbuttlick op 22 juli 2024 17:30]

En FSR zit in nog minder games als gevolg van twee jaar achterlopen…

[Reactie gewijzigd door Wolfos op 22 juli 2024 17:30]

Fsr gaat de driver in volgens amd komende maand. Betekent dus dat je voor 199 euro goed kan gamen met een 6500xt. Dat is eigenlijk het standpunt. Hoe nis werkt weet ik niet. Voor de budget gamer is het goed nieuws. Draai zelf ook wel fsr op de 6800xt en dat ziet er gewoon prima uit. Voor 199 euro heb je een kaartje wat met build in driver fsr doet. +60 fps @1080p voor een kleine prijs. Als nis hetzelfde werkt is de 3050 ook prima voor 250 euro advies prijs.
Dat is niet FSR, dat is 'super resolution', wat niks meer is dan upscaling.
nieuws: AMD Radeon Super Resolution voor 'vrijwel alle games' komt eerste kwa...
FSR ís FidelityFX Super Resolution. Staat ook gewoon in de link die je plaatst.

En FSR, RSR, NIS of DLSS zijn allemaal voorbeelden van opschalingstechnieken. En ja, DLSS werkt op het moment het beste, maar ook alleen met Nvidia's tensorcores, dus niet elke videokaart. Dan is NIS handig voor een Nvidia videokaart zonder tensorcores.

Daarom is het goed nieuws dat AMD nu met een eigen versie komt (RSR) zodat een laagdrempelige versie ook beschikbaar is voor AMD kaarten, zoals @cptbuttlick ook zei.

Op dit item kan niet meer gereageerd worden.