Door Reinoud Dik

Redacteur

Nvidia GeForce RTX 3050 Review

Instapkaart met raytracing

26-01-2022 • 15:00

128

Singlepage-opmaak

Conclusie

Met de RTX 3050 brengt Nvidia een theoretisch betaalbare videokaart uit in een turbulente tijd van hardwaretekorten, inflatie en chipschaarste. De fabrikant hamert er zelf vooral op raytracing naar een lager prijspunt te brengen, met voor het eerst hardwarematige versnelling in een x50-model. Het feit dat raytracing nu ook in dit prijssegment aanwezig is, zou in deze optimistische visie een hoop moeten zeggen over hoe volwassen deze rendertechniek in games inmiddels is.

Presteert zoals een GTX 1660 Super, ook op PCIe 3.0

Op basis van de gebruikte GA106-gpu is de RTX 3050 weinig spannends; het is een deels uitgeschakelde RTX 3060 met minder videogeheugen. In onze testresultaten komt de kaart ook zo naar voren, maar de RTX 3050 kan nog bondiger worden samengevat als een GTX 1660 Super met raytracing. Dat is waar het op neerkomt bij de RTX 3050 in games, inclusief raytracingprestaties die indruk maken in vergelijking met een RX 6500 XT en tegelijkertijd te laag zijn om echt te gebruiken.

De RTX 3050 is op PCIe 4.0 gemiddeld net iets sneller en op PCIe 3.0 gemiddeld net iets langzamer dan de GTX 1660 Super. De acht PCIe-lanes op de RTX 3050 leiden weliswaar tot een kleine prestatiebeperking van zo'n vijf procent op PCIe 3.0, wat gelukkig lang niet zo erg is als bij de Radeon RX 6500 XT. Wat hier bovendien bij helpt, is dat de RTX 3050 met 8GB vram van meer geheugen is voorzien dan de RX 6500 XT.

Daadwerkelijke prijzen blijven kwestie van afwachten

Bekijken we de prijs-prestatieverhouding van de GeForce RTX 3050 ten opzichte van de GTX 1660 Super, dan is die weinig indrukwekkend als we uitgaan van de adviesprijzen. Iets betere prestaties voor iets meer geld, weliswaar nu met ondersteuning voor raytracing, maar dat is niet op een prestatieniveau om standaard in te schakelen. Omdat adviesprijzen voor videokaarten tegenwoordig vrijwel geen zinnige maatstaf meer zijn, is het beter om te kijken naar werkelijke prijzen en eventuele alternatieven. De GTX 1660 Super is momenteel vanaf ongeveer 500 euro verkrijgbaar en de RTX 3060 verschijnt in de Pricewatch vanaf zo’n 700 euro. De verwachting is dat de RTX 3050 hier ergens tussen komt te liggen, maar waar precies is op het moment van schrijven nog onduidelijk.

De GeForce RTX 3050 kan voor de 1080p-gamer een interessante videokaart worden, maar dat hangt vooral af van de prijs en verkrijgbaarheid. Een eerste batch voor de launch van deze kaart kan beschikbaar komen voor de door Nvidia verplichte adviesprijs. Het is vooral de vraag wat de prijzen daarna gaan doen. Lukt het Nvidia om de RTX 3050 ook na introductie voor een lagere prijs beschikbaar te hebben dan de GTX 1660 Super, dan heeft de RTX 3050 uiteraard de voorkeur. Of dat ook gaat gebeuren? Wij durven onze hoop er niet op te vestigen.

Reacties (128)

128
127
65
8
1
41
Wijzig sortering
Het verbaast me dus enigszins dat GA106-gpu in de xx50 serie videokaarten gebruiken. Het is een flinke chip van 276 mm2 (Samsung 8nm, 12 miljard transistors). Als we kijken naar de chips die historisch voor xx50 kaarten zijn gebruikt:
  • GTX 650 (Kepler): GK107, 118 mm2 (28nm)
  • GTX 750 (Maxwell 1): GM107, 148 mm2 (28nm)
  • GTX 950 (Maxwell 2): GM206, 228 mm2 (28nm)
  • GTX 1050 (Pascal): GP107, 132 mm2 (14nm)
  • GTX 1650 (Turing): TU117, 200 mm2 (12nm)
Dit is dus de grootste chip voor een xx50 videokaart in de recente geschiedenis. Het interessante is: Er is een kleinere GA107 gpu beschikbaar dan de GA106 die ze nu gebruiken. Die GA107 wordt al gebruikt in de RTX 3050 Mobile, RTX 3050 Ti Mobile, Nvidia A2 en Nvidia A16.

Deze GA107 chip heeft 3072 Shaders, 96 Tensor Cores en 24 RT Cores, alle drie 20% meer dan de 2560 shaders, 80 Tensor Cores en 20 RT cores van de deels uitgezette GA106 in de RTX 3050. En de geheugenbus van de GA107 is met 128-bits precies even breed als het gedeelte wat nu aan staat van de GA106 GPU. 8 GB geheugen was dus ook een optie. Tot slot is er ook gewoon een PCIe 4.0 x8 bus aanwezig, en dus niet een kleinere x4 bus zoals op Navi24 van AMD.

Sterker nog, ze hadden dus makkelijk een RTX 3050 Ti kunnen maken die de volledige configuratie met 3072 shaders gebruikte, en eentje met 1/6e van de GPU uitgezet, en dus 2560 shaders, wat de RTX 3050 nu ook heeft.

Maar blijkbaar heeft Nvidia dus veel GA106 chips die dusdanig stuk zijn dat ze niet meer een RTX 3060 of RTX A2000 gestopt kunnen worden. Terwijl Samsungs 8nm gebaseerd is op hun 10nm en een heel stabiel DUV (voor EUV) process.

Dus dat, of de productie/orders voor GA107 waren te laat en te weinig. Maar je verwacht dat Nvidia gewoon wafercapaciteit heeft gekocht en bij Samsung nog wel de verhouding tussen GA107 en GA106 wafers bij kan stellen een paar maanden van te voren.

TL;DR: Nvidia moet er een goede reden voor hebben, maar het valt wel op dat er zo'n grote GPU met 1/3e van de chip uitgeschakeld in deze RTX 3050 gaat, terwijl er ook een kleinere, geschiktere chip beschikbaar was.
Het was leuk geweest als AMD een beetje die kant op was gegaan met de 6500 XT. Die heeft een diesize van 107 mm2 op TSMC 7nm. Nu is het gewoon een kaart die droevig slecht is voor zijn prijs vergeleken met wat we er vroeger voor kregen.
Niet dat de 3050 een veel betere prijs/prestatie heeft.....
Vind het eigenlijk wel grappig dat de 6500xt bijzonder dicht bij de 1070 zit, misschien ligt het aan de beschikbaarheid van kaarten na de 10xx serie waardoor ik dit denk. Maar dat klinkt zo gek nog niet voor zo'n kleine chip een paar jaar later.
Ja precies wat ik ook dacht, als amd in de 6500 XT geen 4 gb maar 8 gb gezet had en mischien nog een paar andere verbeteringen dan was de prestatie dicht bij die van deze GTX 3050 geweest met een lager stroom verbruik. Mischien gaan ze nog iets concurerends uitgeven als ze wakker worden bij amd ik heb op mijn huidige 1650 4 gb zitten maar dat is nu al te weining voor sommige games en deze nieuwe GTX 3050 is ook bijna 2x zo snel.

Deze nieuwe GTX 3050 heeft wel een nadeel, volgens toms hardware worden bij de productie ook chips gebruikt die in duurdere versies op de kaart zitten en waar van er een tekort van is, producenten zullen dan eerder een duurdere kaart maken waarmee ze meer verdienen in een markt waar de vraag hoger is dan het aanbod. De vraag is dan ook of er echt veel van geproduceerd gaan worden. We gaan het zien.
Als ze bij amd eindelijk eens wakker worden lanceren ze een kaart die 550 kost in het echt voor een msrp van 285. Helaas hebben ze een kaart van 210 gelanceerd die voor 300 te koop is.

Dus als de reviews daar rekening mee hadden gehouden hadden ze overal moeten schrijven en vertellen hoe veel zwakker de 3050 is ten opzichte van de gelijk geprijsde 6600. Maar zoals je hierboven kan lezen wordt deze kaart vergeleken met de 1660 super en de 6500xt en is ook Tweakers in deze marketingstunt getuind.
Wat ik nog vooral mis zijn DLSS benchmark resultaten. Het mooie aan deze kaart leek mij vooral dat het DLSS mogelijkheden heeft met zijn Tensor cores en juist daarom voor die prijs best interessant zou kunnen zijn. Misschien mogelijkheden tot 1440p gaming? of Ultra gaming met 60 fps in cyberpunk? Zou iig nog een mooie aanvulling zijn, aangezien DLSS toch redelijk volwassen begint te worden.
Dat ben ik met je eens. We hebben de kaart 24 uur geleden eindelijk ontvangen en hebben daarom wat keuzes moeten maken voor het embargo, vandaar dat er geen DLSS-resultaten in de daarvoor geschikte games staan.
Had al zo'n vermoeden inderdaad. Zou alsnog een mooie additie zijn aan de review als jullie daar de tijd voor kunnen vinden!
De review is inmiddels bijgewerkt met enkele DLSS-resultaten, zie hiervoor pagina 15.
Dus met DLSS aan, op 1080p is het geen verkeerde kaart (ook niet geweldig, maar toch)
Nu nog zien wat de prijs wordt ;) :)
Keuzes zijn zeer moeilijk, en ik begrijp het heel goed, alleen een beetje jammer dat jullie vrijwel alle testresultaten en dit geval gepubliceerd hebben die op menig ander techsite of kanaal te vinden zijn.
Misschien kan de review nog aangevuld worden als jullie de gpu nog langer tot beschikking hebben.

En misschien is het wel handig om binnenkort eens (youtube) livestream te starten met alle vragen die wij tweakers hebben mbt gpu's en welke keuzes je het op dit moment beste kunt maken.

Ik (en ik denk veel andere tweakers) kennen nogal wat techkanalen, maar heb tot nu toe nooit gehoord wat je nu het beste kunt aanschaffen voor het geld dat je nu op dit moment te besteden hebt.

Advies en discussies (onder experts op dit gebied) is natuurlijk nooit weg. ;)
En misschien is het wel handig om binnenkort eens (youtube) livestream te starten met alle vragen die wij tweakers hebben mbt gpu's en welke keuzes je het op dit moment beste kunt maken.
Heb je nog meer wensen? :-)
Er zijn wel zat van dat soort kanalen online hoor. Ik betwijfel of Tweakers hier veel resources aan wil / moet besteden als dit grotendeels een kopie is van een hoop pure YouTube kanalen die eigenlijk hier beter geschikt voor zijn (ze hebben dat meer als core business/journalistiek).
Ik (en ik denk veel andere tweakers) kennen nogal wat techkanalen, maar heb tot nu toe nooit gehoord wat je nu het beste kunt aanschaffen voor het geld dat je nu op dit moment te besteden hebt.
Zoek je wel goed? Het internet en YouTube staat vol met adviezen welke GPU je kan kopen.

Ik vraag me serieus af waar mensen nog meer naar op zoek zijn. Van alle producten op de wereld zijn GPU en CPU reviews het meest inzichtelijk en kunnen deze het meest objectief worden benaderd. Je kan bijv. exact de FPS per euro uitrekenen. Met welke producten kun je de waarde nog zo exact bepalen? Veelal kan je iets vergelijkbaars met andere hardware zoals SSD's, maar imo niet zo goed als met GPU's en CPU's. Los van wat merkspecifieke technologieën, die praktisch altijd in de ene game beter zijn ontwikkeld dan in andere games, of in andere games (een hoop) simpelweg niet bestaan, is een frame van een AMD videokaart echt niet noemenswaardig anders dan een frame van een Nvidia kaart met dezelfde settings, althans, 99% van de tijd: soms heeft een specifieke kaart of merk bepaalde issues met een spel(versie) vanwege een bepaalde technologie of bug. Maar dat zijn mijns inziens uitzondering. Ik heb wat dat betreft in mijn 20-25 jaar gaming maar zelden veel verschil gezien tussen een videokaart van AMD en Nvidia (los van het enablen van specifieke technologien nogmaals, zoals DLSS bij Nvidia of AMD FSR). En echt vroeg rond het jaar 2000 speelde dat een grotere rol mijns inziens (hoewel het tegenwoordig ook weer aardig opwaait met Ray tracing, DLSS en FSR), toen je bijv. in Unreal Tournament kon kiezen of je met Glide of Direct X wilde renderen op bijv. een Voodoo 3 videokaart, en deze 2 ook echt een verschil in looks gaven.

In de benchmarks die de performance toont per game in de games die een website test, de gemiddelden over die games en zaken zoals stroomverbruik staan in overzichtelijke grafieken met exacte getallen uitgewerkt.

Mijn advies: check de gemiddelden en zoek wat benchmarks op van je favoriete games om te kijken hoe de videokaarten zich onderling verhouden. Zoek dan op welke kaarten in aanmerking komen voor je budget. En voila, je hebt alles wat je nodig hebt om de beste keuzes voor jezelf te maken. Natuurlijk kunnen factoren zoals merk specifieke technologieën zoals DLSS meespelen, maar tenzij je daar goede redenen voor hebt zou ik dat niet teveel meenemen in je besluit. Mijn advies is dan ook om voor deze route te gaan.

Maar goed, als dat teveel moeite is of er andere bezwaren zijn (ik heb geen idee, want zoveel moeite is het niet), dan kun je ook bijv. Tweakers' Best Buy Guide gaan, bijv. reviews: Desktop Best Buy Guide - Januari 2022

Of van een van de best guides van de velen andere grote en bekende websites:
https://www.pcgamer.com/the-best-graphics-cards/
https://www.tomshardware.com/reviews/best-gpus,4380.html
https://www.techradar.com...st-graphics-cards-1291458
https://www.gamesradar.com/best-pc-graphics-cards/
https://www.rockpapershotgun.com/best-graphics-card
Etc. etc. (zie je favoriete zoekmachine)

Deze guides zijn automatisch al wat minder objectief want de auteur moet concreet specifieke videokaarten voor verschillende prijscategorieën aanraden (en bij dat soort strategieen gaat het eigenlijk al mis, want als bijv. prijscategorie 3 eindigt bij 600 en prijscategorie 4 start bij 600, en de aantrekkelijke videokaarten respectievelijk 590 en 610 euro zijn, zijn die videokaarten vooral concurrenten t.o.v. elkaar i.p.v. concurrenten binnen die prijscategorie.

Los daarvan is het grote probleem met deze guides dat ze heel erg afhankelijk zijn van de momentopname: op welk moment van schrijven keek de auteur naar welke pricewatch om de prijzen te achterhalen van deze videokaarten. Zeker de laatste 1,5 jaar is dat nogal een grote factor. Prijzen schommelen flink. Een hoop kaarten staan niet pricewatches vanwege bijv. slechte verkrijgbaarheid.

Wat dat betreft kan je het beste zelf even goed kijken aan welke videokaarten je kan komen voor welke bedragen. Videokaarten op een V&A kunnen bijv. erg aantrekkelijk zijn. Met alle scalping tegenwoordig staan daar ook veel nieuwe kaarten tussen. Eigen keuze natuurlijk of je dat wil maar het kan honderden euro's schelen. En dan zou je ik je toch weer adviseren om daarbij zelf goed de benchmarkresultaten te bekijken. Daarmee maak je uiteindelijk gewoon de beste keuze.

[Reactie gewijzigd door xtlauke op 22 juli 2024 16:47]

Beetje off-topic, maar ik vind het triest dat fabrikanten embargo’s kunnen opleggen en dat die embargo’s vaak review kwaliteit beïnvloeden. Als je het vergelijkt met 10-20 jaar geleden zie je zo’n groot contrast. Ik weet dat het niet aan jullie ligt, aangezien tweakers nog een van de weinige kwalitatieve tech mediums is.
Embargo's verbeteren juist de reviews, want het voorkomt dat reviewers moeten haasten om niet gescooped te worden door iemand anders die verregaande conclusies trekt op basis van 10 minuutjes benchmarken. En ook dat een reviewer die de pech heeft om zijn kaart later te krijgen of die een defecte kaart krijgt, pas een review kan publiceren als daar weinig interesse meer in is.
Persoonlijk ben ik enorm teleurgesteld in DLSS. Zelfs op de quality preset zien fijne, scherpe dingen zoals haar er echt verschrikkelijk uit in CyberPunk 2077 (ik draai een 2070 Super op 1440p).

Doe ik iets fout? Want het ziet er voor mij echt uit als simpelweg een lagere resulutie met wat sharpening.
DLSS is op zijn best in de latere versies en op hogere resoluties. Daarnaast zijn er objecten welke beter er uit zien met DLSS enabled dan standaard temporal based anti aliasing wat alles waziger maakt. Beetje sharpening toevoegen en je hebt gewoon een betere framerate en vrijwel identieke en in sommige gevallen betere resultaten. Maar niet elke DLSS versie is hetzelfde. DLSS nu is veel beter dan 2 jaar terug bijvoorbeeld.
Is 1440p geen hoge resolutie?
Is gemmideld nu. Veel minder qua pixelcount dan 4K bijvoorbeeld.
Wat vind je "gemiddeld"?

https://store.steampowere...e-Survey-Welcome-to-Steam

67% draait nog steeds 1080p.
Die stats worden voor een groot deel ook bepaald door alle internet cafe
s en low spec machines in Azie en Zuid Amerika.
Je doet zeker niks fout, bij ons kwam het er ook zo uit. Wij testen het in de nacht waardoor dit zeker opvalt.
Ligt heel erg aan de implementatie van de game. Bij Icarus, Rust, Cyberpunk en nog wel een hand vol games is het echt verschrikkelijk. Maar bij BF2042 gaat het weer prima.
DLSS lijkt me inderdaad een van de meer waardevolle features voor de speelbaarheid van games met deze kaart :)
Hier een channel gevonden die aardig wat spellen test met DLSS enabled:
https://www.youtube.com/watch?v=NKKBCC_QwCY
Exact dit. Ik was aan het zoeken naar een tabelletje of tabje met de benchmarkresultaten met DLSS enabled, maar in de hele review komt er geen enkele vermelding van DLSS voor en dus ga ik er ook even vanuit dat er totaal niet mee gebenchmarkt is.

Begrijp ik eigenlijk niet zo goed. Zelfs met m'n 3080 ga ik DLSS aanleggen in Cyberpunk, met een 3050 ga je dat absoluut ook doen. Ik snap niet waarom dit dan niet getest is.

[Reactie gewijzigd door MatthiasDS op 22 juli 2024 16:47]

Misschien gebrek aan tijd, hoop daarom dat het alsnog later toegevoegd wordt. Op youtube staan momenteel al wel wat informatie erover: https://www.youtube.com/watch?v=wz4R7HmoCDM
Lijkt erop dat vooral de softening op lagere resoluties soms een iets minder mooi beeld geven, maar de resultaten mogen er op het eerste gezicht zeker wezen.
Edit: in cyberpunk (hoewel niet werd rondgereden/gelopen) was het verschil op 1080p high:
55 fps voor native en 91 fps voor DLSS balanced

[Reactie gewijzigd door Geitenslachter op 22 juli 2024 16:47]

is gewoon slechte kaart die 3050 { 250dollar} en dan hier 2 x zoveel?
Ze staan nu sterk in de markt vanwege schaarste....Waarom zou je deze kaart kopen?
Je moet wel heel erg wanhopig zijn dan!
En dan de prijs die ze durven te vragen!!! 550 euro's? wtf echt links laten liggen.

De gene die dit koopt moet echt naar de huisarts.
hmm hoop dat er ook een low profile versie van de 3050 komt, op het moment de 1650 in bezit maar zal op full hd een mooie toevoeging zijn :)
Is dit een interessante kaart voor miners? Zo niet dan hoop ik er 1 te kunnen bemachtigen om mijn budget pc build eindelijk af te maken.
Vind niet dat je nog echt van een budget kaart kunt spreken als die meer dan 200 euro is, waarbij deze sowieso dus waarschijnlijk zo'n 600 euro gaat kosten in de webshops.
afhankelijk van de prijs wellicht.. eerst maar eens zien of ze te leveren zijn. Ik was zelf wel benieuwd of het een vervanger zou kunnen zijn voor mijn 1660 super, maar helaas weinig verschil.
op een sticker op de antistatische zak van onze testkaart staat
"This product is not designed for Crypto Mining.
We reserve the right to void the warrenty if there
is any damage associated with this application."

dus dat zit goed dichtgertimmerd :+
In de huidige markt is de prijs/prestatie-verhouding gewoon niet meer vergelijkbaar met voor de crisis, toen ik mijn 1660 S heb gekocht. Dus ik verwacht geen redelijke vervanger voor mijn kaart te zien totdat de crisis eindigt. Dan zitten we minimaal bij de 40x0 kaarten.
Waarschijnlijk wel gezien de 8GB ram.
Zoals in het artikel staat, met 8GB VRAM interessanter dan bijvoorbeeld de 6500XT, maar wel allemaal met LHR. Afhankelijk van de echte prijs denk ik dat een miner efficiënter kan mijnen met een 3060 (Ti).
Volgens videocardz zou de 3050 inderdaad te lange ROI hebben, mede veroorzaakt door LHR. Op zich natuurlijk prima.
Zo niet, dan wil dat niet meteen zeggen dat de prijs goed wordt. Mining maakt niet alleen kaarten duurder die geschikt zijn voor mining, maar veroorzaakt ook een waterbed-effect: er zit nu een heel leger gamers al twee jaar te wachten op een beetje redelijk geprijsde videokaart, dus zodra die er is is de vraag alsnog enorm, ook al kopen miners hem niet.

Dat de koersen van crypto-valuta nu hard aan het dalen zijn zal meer effect hebben op wat je voor een redelijke prijs kan krijgen.
Ach als deze massaal door miners opgekocht worden kan je misschien voor een 3040 potato edition gaan :'( . Echt zal blij zijn als die crypto hype eens over gaat.
De RTX3050 is niet interessant voor mining, maar doordat niemand voor een normale prijs een RTX3070/3080 kan kopen zullen ze op de RTX3050 storten en zodoende veel vraag naar zijn.

[Reactie gewijzigd door mr_evil08 op 22 juli 2024 16:47]

NVIDIA(en ook AMD) lacht zich dood, gamers kopen hun low end 3050 wel om uiteindelijk een (hopelijk betaalbare) 4000 serie te kopen omdat die 3050 nu al op zijn teentjes loopt.
Ik ben nog niet echt thuis in gpu mining, maar dit lijkt mij niet een interessante kaart voor minen. winst erop maak je wel maar is mimimaal en zeker dankzei de huidige nieuwe stroom tarieven... de zon schijnt nog te weinig...

[Reactie gewijzigd door Kol Nedra op 22 juli 2024 16:47]

Stroomverbruik is minder dan een 1660s/ti. Dus als je met de 3050 ongeveer 30 MH/s haalt is qua verbruik prima. Inkoop moet wel rond de 350-400 zijn. Dat kosten de 2e hands 1660s/ti ook.
Dat haal je dus niet, zie de link hierboven. Dit wordt geen succes voor miners tenzij men in de glazen bol kan zien dat ethereum nog flink mooned voor het overgaat naar POS.

De vraag is ook maar wat er gaat gebeuren qua waarde/hashrates als eth naar POS gaat en iedereen altcoins/shitcoins gaat minen.
Zon maakt niks uit met de huidige saldering regeling, je kan in de winter je "voorraad" opmaken.
Daarnaast heeft de overheid juist de energie belasting verlaagt om warmtepompen te promoten.
Volgens mij heb ik vier jaar terug ongeveer 400 euro betaald voor mijn 1070; die presteert maar marginaal slechter dan deze kaart die slechts 100 euro goedkoper is terwijl we vier jaar later zijn - vroeger een eeuwigheid in computer hardwareland.

M.a.w. relatief weinig performancewinst in vier jaar tijd als je het per euro afzet. Met mijn HD4870 die ik hiervoor had heb ik ook 8 jaar gedaan, ik verwacht dat mijn 1070 dat nog wel gaat overtreffen.

[Reactie gewijzigd door Dr. Strangelove op 22 juli 2024 16:47]

Dit is eigenlijk nog een stuk erger. De verwachting is dat deze kaart qua prijs tussen de 1660 Super en 3060 komt. Dan heb je het over een budget kaart voor zo'n misschien wel 600 piek.
Als je het opzoekt was die kaart volgens mij wel een stukje duurder dan dat, of je moet echt gemazzeld hebben met een deal. Ik heb me destijds bij de aanschaf ook nog even op het hoofd moeten krabben omdat 500 piek toch wel meer was dan ik gewoon was te betalen, maar de 1060 was net niet sterk genoeg voor wat ik wilde spelen.

Inmiddels heb ik een hele innige relatie met mijn 1070 en fluister ik hem elke dag lieve woordjes in zodat hij toch maar vooral nog een tijdje mag meegaan...
_/-\o_ :) ik hoop het voor je met je 1070, ook gehad fijne kaart :)
Ik streel mijn GTX 980 en bedank hem na elke game sessie.
Wat een eindbaas. :o
Mijn GTX 1070 stamt uit 2016 inmiddels, voor die enkele games waar hij tekortkomt op 1440p/60fps (mits enige concessies) is er gelukkig nog Geforce Now.
Het is niet spectaculair, maar volgens mij trek je de vergelijking wel wat scheef:

400 voor een 1070 klinkt vrij goedkoop, dat betaalde ik voor m'n 1060 (ok, ik woonde toen in Malta waar electronica duur is), maar een een xx50 kaart presteert nu beter dan een xx70 model van toen en als we er nog wat inflatie rekenen + het feit dat electronica sowieso al duurder is geworden..

Ik zou zeggen dat je zo'n >50% meer prestatie per € krijgt?

Hoedanook, zelfs voor de adviesprijs ben ik hier niet in geinteresseerd, de prestaties liggen gewoonweg te dicht bij mijn 1060, ik wacht nog wel een jaar op de RTX 4050 Ti ofzo.
8 jaar met een videokaart doen is extreem lang, dan stel je ook zeer lage eisen aan gamen of het is 1 blokkendoos kwa beeldkwaliteit, voor mij is lager dan 60 fps sowieso onacceptabel op 1440p.

[Reactie gewijzigd door mr_evil08 op 22 juli 2024 16:47]

Door de tijd heen:
GTX1060 - betaald voor 190 Euro via Marktplaats (circa 3 jaar geleden)
GTX1070 - betaald voor 150 Euro via vriend (bijna 2 jaar geleden)
Nog steeds GTX1070, loopt goed in veel VR games en kan nog meelopen met VR + Quest 2.
GTX1060 in 2e game pc.

Als je nu kijkt naar de prijzen. Alsjemenou, wat zijn de prijzen behoorlijk gestegen.
De resultaten geven aan dat RTX3050 danst rond GTX1660 / GTX1070. Dus als je deze kaarten al hebt, niet upgraden. De RTX effecten zijn leuk, maar je kan nog steeds prima zonder leven, want de games kunnen met tricks mooiere beelden maken, al jaren voordat RTX op markt komt.

Mijn volgende upgrade wordt RTX3060 of RTX3060Ti. Omdat het veel zinvoller is. Je moet grote stappen maken in GPU aankopen, niet kleine stappen. Zeker niet met hoge GPU prijzen tegenwoordig.
Wat je dus al hebt, maak niet te kleine stap met RTX3050, ook al wil je even RTX zien. Dat is niet de moeite waard en ben je iets minder future voorbereid.
128 watt op een 50-series kaart :'(
Lijkt me toch niet zo gek als je kijkt naar hoe de kaart zich plaats tussen de rest op vlak van prestaties?
je zou verwachten dat het generatie op generatie efficiënter zou worden, wat ook gebeurde vanaf de 600 series tot en met de 1000 series, sindsdien neemt het enkel toe.
Ah die trend kende ik niet :). Misschien zijn ze op een limiet gekomen of vinden ze energie-efficiëntie (helaas dan) geen prioriteit.
Samsung's 8nm is qua efficiëntie gewoon een ramp, daarnaast is dit ook wat competitie doet met een markt, Nvidia moet z'n kaarten nu veel verder pushen om met AMD te concurreren
Dat Samsung zijn 8nm procede een ramp is, is echt een hele grote aanname welke nooit ergens bevestigd is. Ze verbruiken maar mild meer dan de Radeon tegenhanger en dat vaker met betere resultaten op hogere resoluties en veruit betere resultaten met raytracing enabled.
https://youtu.be/tXb-8feWoOE
Deze video gaat er op in
https://www.notebookcheck...ipset-needs.583387.0.html
Dit artikel laat ook de problemen met Samsung nodes zien.
Wat ook blijkt aan het zwaar oververhitten van de Xiaomi 12, die de Samsung-procede variant van de Qualcomm 8 gen 1 heeft.
https://youtu.be/yKIxPWfh2Nw

[Reactie gewijzigd door MR501 op 22 juli 2024 16:47]

https://youtu.be/tXb-8feWoOE
Deze video gaat er op in
Adored is niks meer dan assumption TV x rumors aka Moore's law is dead.
https://www.notebookcheck...ipset-needs.583387.0.html
Dit artikel laat ook de problemen met Samsung nodes zien.
Wat ook blijkt aan het zwaar oververhitten van de Xiaomi 12, die de Samsung-procede variant van de Qualcomm 8 gen 1 heeft.
https://youtu.be/yKIxPWfh2Nw
Andere chips, andere procede. UIteindelijk nu in de praktijk verbruikt een Geforce 3080RTX bijvoorbeeld maar rond de 20 watt meer dan de Radeon 6800XT en de prestaties liggen super dicht bij elkaar, op lage resoluties voordeel van de Radeon, hgoere in het voordeel van de 3080RTX. Naast de 3080RTX heeft dan al die RTX cores extra etc. Is het dan echt zo inefficient. De praktijk zegt van niet.
Bijna elk gangbaar product heeft energie labels in Europa. Het wordt tijd dat ze die ook op video kaarten gaan plakken. Naar mijn mening is 300 watt verbruik voor een videokaart niet gering. Deze kaart dus niet zoveel, maar je begrijpt wat ik bedoel.
Ze verbruiken 2x zo veel als een 1050ti ja. Echter ontvang je hiervoor wel zeker 3x het aantal frames van de 1050ti op 1080p. Wat mij betreft is dit DE kaart voor een budget systeem deze tijd (mits je een nieuwe kaart wil natuurlijk en voor zover budget nog iets is in deze tijden.) Meeste games haal je prima fps op 1080, en in dit artikel is er niks over DLSS gezegd, wat alleen maar voor nog meer frames zorgt.
Door dat vermogen zal het niet in een single slot format passen, de 1050 Ti en ik meen de 1650 zijn wel single slot uitgebracht. Misschien een niche markt maar het is voor VM of decoder/encoder toepassingen handig in een NAS en daar past bij mij alleen een single slot en beperkte lengte in.
Dat is dan wel weer waar inderdaad, daar had ik niet aan gedacht. Anderzijds, die performance in een nas is misschien ook wel wat overkill ;)
Wellicht overkill inderdaad, maar het kan dus dan moet ik het in iedergeval proberen :) maar niet voor de huidige prijzen, de 1050 ti single slot die ik nu heb koste me iets 100 euro nieuw in doos (wel op marktplaats), dat gaat
Me never nooit meer lukken met iets nieuwers :)

Een nieuwe NAS zou ik nu ook niet moeten kopen, die zijn ook 1,5 tot 2x zo duur geworden..

Ik heb ook een 10gbit ethernet kaart in de NAS zitten, heb ik het nodig? Nee, maar de backup naar de server is wel lekker snel klaar :)

[Reactie gewijzigd door mjl op 22 juli 2024 16:47]

Voor de hobby is het inderdaad wel leuk spul. Zeker als je er regelmatig vm's op draait met een gui. Die kan je dan net wat meer gpu power toewijzen.
Ja, ik had ook gehoopt op een vervanging van mijn GTX 1050ti zonder extra PCIe power connector. Bij de eerder uitgelekte specs had ik al mijn hoop opgegeven maar helaas nu helemaal bevestigd.
Het probleem is dat APU's langzaam maar zeker de markt voor budget videokaarten aan het inhalen is. Er is al jaren geen GT kaarten uitgekomen, GT1030 was de laatste low-end videokaarten series, en "alsermaarbeelduitkomt"-end waren het de GT710 en GT720 van 10 jaar geleden

Ik veel benchmarks staat de Ryzen 5700G staat al redelijk gelijk met de 1050 non-TI. Ik denk dat het voor Nvidia niet meer intressant is om nog een GT3030 uit te brengen. Wat heel jammer is gezien er nog zat mensen zijn die op oudere hardware spelen/iets beters willen dan de 5700G/met een OEM PSU opgescheept zitten.

[Reactie gewijzigd door rickboy333 op 22 juli 2024 16:47]

En de evolutie met de 6000 series monolith laptop's CPU's met RDNA2, zal dat nog meer pushen. Twee maal betere performance, en je zit al in lage 1060 gebied.

Note: De 5600G /5700G zijn de 5000 series monolith laptop CPU's met een hogere clock / stroomverbuik.

Voeg er nog een bij, dat AMD ook iGPU's zal hebben in de Zen 4 CPu's ( waarschijnlijk, net zoals Intel deed met 32 core vs 96 in de laptop, zal de Zen 4 mogelijk 4? core RDNA 2 zijn, ipv 12 in de laptop ).

Gevolg is dat er nog minder vraag is voor lagere modelen van GPU's.
Het probleem is dat APU's langzaam maar zeker de markt voor budget videokaarten aan het inhalen is. Er is al jaren geen GT kaarten uitgekomen, GT1030 was de laatste low-end videokaarten series, en "alsermaarbeelduitkomt"-end waren het de GT710 en GT720 van 10 jaar geleden

Ik veel benchmarks staat de Ryzen 5700G staat al redelijk gelijk met de 1050 non-TI. Ik denk dat het voor Nvidia niet meer intressant is om nog een GT3030 uit te brengen. Wat heel jammer is gezien er nog zat mensen zijn die op oudere hardware spelen/iets beters willen dan de 5700G/met een OEM PSU opgescheept zitten.
Ik hoop zo erg dat APUs sterk genoeg worden dat je geen GPU meer nodig hebt voor 1080p gaming. Het is echt te idioot wat je voor een 1080p pc betaalt om te bouwen zonder het minste van het minste te nemen. APUs worden steeds sterker, maar dit niveau hebben ze nog niet bereikt naar mijn idee.
Daarom is het jammer dat bv de Xbox Series X (of zelfs de S) niet ook normaal windows kan draaien. Wel vraag je je dan af waarom het niet mogelijk is om kleine PC's te maken die net zo krachtig zijn voor maar zo'n 200 euro meer.
Het punt is dat ik veel voor cuda programmeer en ik vaak alleen maar een paar simpele kaart(en) nodig heb om te testen binnen dezelfde gpu generatie. Oudere kaarten zijn ook haast niet meer te krijgen.
Aan de andere kant: dat is slechts 8W meer dan de RX6500XT, terwijl de RTX3050 op een beetje leuke instellingen zomaar dubbel zo snel kan zijn.

Dit ligt natuurlijk vooral aan dat de RX6500XT zo'n ****-kaart is, maar toch fijn dat er ook een capabele kaart is.
Inderdaad niet super efficiënt, voordeel van hogere power budget is wel meer ruimte voor overclock. Plus je kunt altijd undervolten natuurlijk. Maar dat neemt de power connector idd niet weg.
Het is toch alleszins een betere keuze dan de RX6500XT die vorige week door het ander kamp is gelanceerd. Voor de gamer die op 1080p ultra niet meer dan 30fps verwacht is dit blijkbaar de juiste kaart.
Dat is geen hele hoge drempel om over te springen -- bijna alles is beter dan een RX 6500 XT, op een iGPU na dan. :P De enige reden dat AMD een laptopchip heeft opgepoetst en als standalone kaart in de markt gezet heeft is omdat het in het huidige klimaat toch wel verkoopt voor een prijs waar ze toch nog wat winst op maken.
AMD had dezelfde componenten in een duurdere videokaart kunnen stoppen en er meer winst mee kunnen maken. De reden dat AMD deze kaart waarschijnlijk op de markt heeft gebracht is om het marktaandeel te laten groeien en pre built klanten te kunnen bevoorraden.

Verder is de prijs bij Nvidia tussen de 25% en 50% virtueler dan bij AMD. Zoals in het artikel al wordt gesteld zal deze waarschijnlijk boven de 1660 super van 500 euro uitkomen. Waar de 6500xt voor 370 wordt aangeboden. Deze kaart kan je dus waarschijnlijk beter met de 6600 vergelijken.
En daar legt de 3050 het dan tegen af qua prestaties.
Sowieso, maar het zijn geen kaarten in hetzelfde segment.

Het is een trieste conclusie van de huidige markt, maar de prijs zal alles bepalen :/
Bijzonder dat er niet ook getest is met DLSS? Dat is juist een mooie feature voor deze kaart vooral vergeleken met bijvoorbeeld 1660 ti. Daardoor kun je bij ondersteunende games toch met wat hogere settings/resolutie spelen en een redelijke framerate houden en in sommige gevallen raytracing zelfs speelbaar wordt.

[Reactie gewijzigd door TheDukemaster op 22 juli 2024 16:47]

Als het niet getest is met DLSS (heb het artikel alleen nog maar even snel gescand) dan heb je een goed punt. DLSS is juist één van de product sellers van deze 3k serie, dit zou een 3050 veel interessanter maken op papier dan bijvoorbeeld een 2k serie kaart.
DLSS werkt toch ook op de RTX 2000 serie? Het is dan wel weer een product seller vergeleken met AMD.
de 2k serie heeft ook DLSS. De 1600 series heeft het niet.
ik ben blij met mijn GTX 1660 ti 6Gb die 4% beter presteert dan de 1660 super en 4% minder dan gtx 1070, en raytracing vind ik persoonlijk niet zo belangrijk, en in mijn mac pro 5,1 zit een RX 580 8gb special edition van Sapphire, jazeker de blauwe. De huidige prijzen zijn buiten proportie en zolang dat zo is koop ik geen nieuwe laat staan 2e hands videokaart. De 3050 met raytracing haalt geen framerate waar mijn hart sneller van gaat kloppen, lijkt wel meer een marketing verkoop verhaaltje, als je daar geld in wilt steken dan wil je denk ik ook playable framerate, dus minimaal een 3070 of hoger.
Het ligt er inderdaad helemaal aan hoe je het bekijkt.

Toen ik een GTX1660Ti kocht was ik verontwaardigd dat ik meer dan 250 euro kwijt was voor een x60 kaartje.

Inmiddels zijn we drie jaar verder, en released Nvidia een kaart die:

- 1 á 2 fps meer haalt in de prestatiescore over alle games heen
- 4 á 5 watt minder verbruikt
- een heel stuk meer gaat kosten

Top, die vooruitgang :X :'(
Prijzen zullen bepalen of het een aankoop gaat worden hier. De 1050ti in mijn gaming VM begint net wat te kort te komen maar met de huidige prijzen was ik niet van plan deze te vervangen. Voor een dikke 300 zou dit een optie zijn maar ik vermoed dat de prijzen rond de 500 worden
Wellicht, daar kocht ik bijna mijn 2070 Super voor (589) 2 jaar geleden. Dus mooi niet dat ik dat ooit ga betalen voor zo'n magere kaart. Dan maar een tijd wachten. Kopers zijn er altijd wel helaas dus de prijzen zullen niet op normaal niveau liggen voorlopig.
Dat is ook nog een prima kaart, de 2060 Super die ik had presteerde al bijna zo goed als de 3060. De 3060 Ti die ik nu heb bijna zo goed als de 3070 die ik had, vanaf de Ti en 3080 ga je pas echt knallen.

[Reactie gewijzigd door JDx op 22 juli 2024 16:47]

Mijn hoofd PC moet ook naar een 3080ti (van de 2070S nu) maar de gezin pc met de 1050ti doet wat minder pijn om te upgraden. Ideaal gezien zou ik een 3080ti kopen en de 2070S doorschuiven, maar die prijzen zijn belachelijk nu.
Adviesprijs van de 3080 Ti FE is net verhoogd naar 1269 euro, dus lager dan 1300 worden de AIB's niet, of alles moet instorten.

Bol heeft wel een 3070 Ti voor 1090
https://www.bol.com/nl/nl...paign=CPS&utm_content=txl

[Reactie gewijzigd door JDx op 22 juli 2024 16:47]

Laten we het hopen :)

Op dit item kan niet meer gereageerd worden.