Nvidia GTX 1630-budgetvideokaart is veel langzamer dan AMD Radeon RX 6400

Nvidia heeft zijn GTX 1630-gpu officieel onthuld. De videokaart krijgt een op 12nm gemaakte Turing-gpu met 512 CUDA-cores, 4GB GDDR6-geheugen en een 64bit-geheugenbus. Uit reviews blijkt dat de kaart veel langzamer is dan de Radeon RX 6400.

In grote lijnen is de opbouw van de GTX 1630 gelijk aan die van de GTX 1650, maar het nieuwe budgetmodel heeft een stuk minder CUDA-cores. Het GDDR6-geheugen heeft een capaciteit van 4GB en een snelheid van 12Gbit/s, net als de snelste uitvoeringen van de GTX 1650. Nvidia gebruikt echter een geheugenbus van 64bit in plaats van 128bit, waardoor de geheugenbandbreedte gehalveerd is. Door die keuze heeft de GTX 1630 zelfs minder geheugenbandbreedte dan de GTX 1050 Ti uit 2016.

GTX 1630-prestaties uit review TechPowerUp
GTX 1630-prestaties volgens TechPowerUp

Nvidia noemt geen adviesprijs en fabrikanten die GTX 1630-kaarten hebben aangekondigd, doen dat evenmin. TechPowerUp heeft een review van de Gainward GTX 1630 Ghost gepubliceerd en de site zegt 'gehoord te hebben' dat de prijs rond 150 dollar uitkomt. Colorful presenteert een model voor 169 dollar. Op het moment van schrijven staan er GTX 1650-kaarten in de Pricewatch vanaf zo'n 200 euro. De oudere GTX 1050 Ti wordt ook nog aangeboden, voor prijzen vanaf zo'n 180 euro.

Uit de review van TechPowerUp blijkt dat de GTX 1630 flink onderdoet voor de Radeon RX 6400 en RX 6500 XT. Dat zijn de recente budgetkaarten van AMD die via de Pricewatch leverbaar zijn voor respectievelijk 189 en 205 euro. De RX 6500 XT is in een 1080p-resolutie gemiddeld twee keer zo snel als de GTX 1630; de RX 6400 is 57 procent sneller. Nvidia's eigen GTX 1650 is 61 procent sneller dan de nieuwe GTX 1630-budgetvariant.

De prestaties van de GTX 1630 zijn onvoldoende om veeleisende, moderne games in 1080p-resolutie vloeiend te spelen. In de review van TechPowerUp haalt de kaart bijvoorbeeld 23fps in Elden Ring, 16fps in Forza Horizon 5 en 36fps in F1 2021. Wel is de GTX 1630 ongeveer drie keer zo snel als de GT 1030 2GB-budgetvideokaart, die momenteel vanaf 100 euro te koop is.

Onder andere Inno3D, Palit en EVGA hebben GTX 1630-videokaarten aangekondigd.

EVGA GTX 1630
EVGA GTX 1630
Nvidia GeForce GTX 1630 versus GTX 1650 en GTX 1050 Ti
Videokaart GTX 1630 GTX 1650 GDDR5 GTX 1650 GDDR6 GTX 1050 Ti
Architectuur Turing, 12nm Turing 12nm Turing, 12nm Pascal, 14nm
CUDA-cores 512 896 896 768
Boostclock 1785MHz 1590MHz 1590MHz 1392MHz
Geheugen 4GB GDDR6
(12Gbit/s)
4GB GDDR5
(8Gbit/s)
4GB GDDR6
(12Gbit/s)
4GB GDDR5
(7Gbit/s)
Geheugenbus 64bit 128bit 128bit 128bit
Bandbreedte 96GB/s 128GB/s 192GB/s 112GB/s
Tdp 75W 75W 75W 75W
Release 28 juni 2022 23 april 2019 3 april 2020 25 oktober 2016

Door Julian Huijbregts

Nieuwsredacteur

28-06-2022 • 16:08

73

Reacties (73)

73
71
39
3
0
27
Wijzig sortering
Dit is geen videokaart voor games. Dit is Nvidia’s goedkoopste kaart met H.265 encoders tot 8K. Ideaal voor een Plex server. Tevens ideaal voor 3x 4k schermen.

[Reactie gewijzigd door Djarune op 23 juli 2024 23:39]

Voor Plex kun je beter Intel intergrated gebruiken, betere beeldkwaliteit dan met cuda (raar genoeg)
Eh come again ?
NVENC heeft vanaf Turing juist een behoorlijke kwaliteit boost gekregen. Dusdanig dat het zelfs vergelijkbaar is met CPU encoding op medium setting.
Je bedoeld B-frame support. Dat zit er inderdaad in vanaf Turing. Echter de NVENC van de TU117 chip is gebaseerd op Volta en de kwaliteit boost zit dus niet op deze kaart.

Bron: Anandtech - TU117: Tiny Turing
Het stukje gaat over voornamelijk de NVENC beperkingen van TU117 betreft HEVC. Plex heeft helaas nog steeds geen support voor HEVC encoding, dus op dat vlak zou het niet uitmaken.
Of de TU117 qua beeldkwaliteit gelijk of minderwaardig is op h264 t.o.v. een volledige Turing kan ik niet zeggen. Wel dat dat Intel QSV bij lange na niet vergelijkbaar is met NVENC als het gaat om beeldkwaliteit.
(Tenzij dat met de meest recente iGPU is verbeterd, daar heb ik echter nog niets over gelezen)
Maar alsnog overpriced voor de overall resultaten die hij levert.
Gaat vooralsnog ongeveer 140 euro kosten. Ik denk wel dat deze fors goedkoper gaat worden als Intel’s Arc Alchemist videokaart uitkomt. Intel wil namelijk graag de budget kroon in handen.
Is plex uberhaupt nog nuttig anno 2022? Min of meer elke thin client kan zelf wel decoden.
Het gaat met plex of vergelijkbare servers meer om on the fly transcoden. Dan heb je 1x de hoogste kwaliteit op je server en daarna afhankelijk van de client wat kan verschillen van TV's, laptops of mobieltjes en dan al dan niet op een mobiele netwerk direct de gevraagde kwaliteit te leveren zonder 50GB onnodig over bv 4G aan de ontvangende kant te douwen. Je client moet hoe dan ook altijd weer decoden anders krijg je niks te zien.
Ja, voor in gebieden met slechte 4g verbinding ( trein).
Als je dan transcode kun je ongestoord je homevideos kijken
Plex gebruik je toch als server? Dan kan je met slechte 4g nog steeds niks ontvangen. Ik zou plex niet gebruiken als je het toch al local afspeelt.
Op een telefoon kun je de plex client downloade dat verbinding maakt met je home server.
Dat snap ik, maar je had het over gebieden met slechte 4g verbindingen (trein). Als je geen internet hebt, heb je er niks aan. Daar ging het mij meer om.
Je zegt het zelf al, slechte verbinding.
Dat betekent niet geen verbinding.

Een stream van 2mbps kun je dan gewoon kijken, 8mbs niet.
Ik denk dat de Quadro P400 in de meeste gevallen een betere optie is voor een Plex server. Die heb ik voor ~100 euro op de kop getikt laatst. Werkt uitstekend!
Benchmarks van TechPowerUp (GT 1030, GTX 1630, GTX 1650, RX 6400)
  • Average FPS (1080p): 8.8, 23.7, 38.2, 38.3
  • Relatieve performance (1080p): 38%, 100%, 161%, 157%
Oftewel, hij is bijna 3x zo snel als de GT 1030, maar ook bijna 40% langzamer dan de GTX 1650 en RX 6400. Een RX 6400 vind je nieuw vanaf ongeveer € 190, en een GTX 1650 net boven de €200. De GT 1030 is verkrijgbaar rond de €100.

Als ze daar dus mooi tussen gaan zitten kan de GTX 1630 een prima plek vervullen. Naast de performance krijg je ook nieuwe features van de Turing architectuur bij de GTX 1630, zoals HEVC 4:4:4 video support, DisplayPort 1.4a en CUDA Compute Capability 7.5.

De Gainward GTX 1650 Ghost heeft ook 2x DisplayPort en HDMI, en daarmee meer beeldschermaansluitingen dan de meeste GT 1030 kaarten, die ofwel DVI-D + HDMI ofwel DisplayPort + HDMI hebben.

[Reactie gewijzigd door Balance op 23 juli 2024 23:39]

Is deze flutkaart eigenlijk de reden dat de 1650 niet terugkeert naar de originele prijs van +/- 150 euro? Ik lees overal over terug naar msrp, maar daar is bij de 1650 geen sprake van.
Leuk voor non-gaming PCs die Turing features nodig hebben. Alhoewel je dan beter used kunt kopen denk ik. Voor gamers troep. Zal desondanks wel weer met de gebruikelijke "ULTRA EXTREME GAMING OC" marketing komen op sommige kaarten :')
In OEM desktops zal het Nvidia stickertje er zeker voor zorgen dat consumenten blij zullen zijn dat ze een goedkope "game computer" hebben gekocht. De teleurstelling zal pas na de aankoop volgen... :/
Het leuke aan zwak hardware is dat ze vaak goed over te clocken zijn. Zo had ik op de AMD R7 240 4GB van MSI een overclock van 730MHz (780MHz boost) naar 1200MHz gerealiseerd en dat gewoon op een low profile cooler (het fannetje ging wel tekeer). Voor mij was dit destijds helemaal geweldig, want ik kreeg hierdoor wel 10FPS extra in elk spel dat ik speelde.
Bij betere GPUs is de overclock potentie vaak tot 10-15%.
Dat is bij AMD, die geeft je doorgaans veel meer vrijheid te doen en laten met je eigen hardware wat je wil.

Nvidia (en ook Intel) beperken zulke mogelijkheden doorgaans bij niet op OC gerichte versies van hun hardware.
Met dat "ULTRA EXTREME GAMING OC" schieten fabrikanten zich inderdaad enorm in de voet denk ik. Het maakt het voor een niet wetende consumenten die overweegt om PC gaming op te pakken echt lastig.

Ik herinner me nog dat ik dit soort dingen ontzettend verwarrend vond vroeger toen ik voor het eerst een videokaart moest kopen (en toen was het een stuk simpeler met veel minder opties). Ik checkte toen ook geen reviews of benchmarks, want ik wist niet dat dit bestond (was ook iets minder beschikbaar eind jaren 90).

Goede kans inderdaad dat hierna de teleurstelling volgt en misschien wel dat deze consument het PC gaming in zijn geheel opgeeft en het bij console en mobile gaming houdt. Dit alles om gemakkelijker toch die ene crappy videokaart te kunnen verkopen, terwijl je met een beetje gezonde marketing een consument ook kan informeren en een vriendelijkere introductie geeft tot de markt. Zoals een Apple dat doet met hun naamgeving. Veel mensen vinden dat fijn omdat ze het beter snappen en weten wat ze kunnen verwachten/ kopen. Dat bouwt dan ook vertrouwen op in het merk. Dus zo'n merk is daar ook bij gebaat. Maar nee, die 'slimme' marketeers bij Gigabyte en co die willen nu die paar euro extra scoren en zo'n videokaart adverteren als de meest fanastische gaming hardware. Volgens mij echt gemiste kansen.
Het probleem (en de kracht van de PC) zit hem natuurlijk in het feit dat er veel verschillend emerken zijn die vechten om de consument. Bij Apple is er maar 1 keus, en zelf heb je niets te kiezen als consument.

Als alle merken, behalve 1, eerlijk marketen en de consument proberen te informeren, dan gaat die 1e er met alle onwetende klanten vandoor. Dat maakt het wel lastig.

Daarnaast is de kans dat de consument merktrouw voor de videokaart is niet zo heel erg groot. Voor de chip misschien nog wel, maar of het nou een Asus of Gigabyte kaart is... Dus waar investeer je als Gigabyte nou echt in als je eerlijk market naar die onwetende klant?
Als Gigabyte investeer je wat extra geld in marketing en snoept wat af van de kwaliteit van de componenten van je GPU, je koopt net iets slechtere powerstages en filtering caps in waardoor je net iets goedkoper uit bent.

Dat de kaart hierdoor al gauw na de garantietermijn defect raakt interesseert je niet.

Dat is gigabyte.

Ik repareer voor de hobby GPU's. 90% van de videokaarten die ik onder ogen krijg zijn van..... Gigabyte (ook de AORUS kaarten)

gelukkig weten ze nog wel goede moederborden te produceren binnen de AORUS lineup
Het gaat me niet om Gigabyte, voor mijn part

Asus en EVGA of welke andere dan ook
Er zijn bepaalde doeleinde waarvoor ze deze kaart gebruiken, denk maar SFF pc's of mensen die bepaalde games spelen waar de eisen zeer laag zijn. Ooit zei iemand tegen mij dat hij had geupgrade naar een 1030 GT voor WOW omdat zijn oude kaart het niet meer trok. Hierbij zal je denk ik ook de vergelijking moeten maken met de iGPU van processoren ipv met de low end kaarten.
Het zal waarschijnlijk meer in dat soort categorien thuis horen en niet als een kaart voor de moderne hedendaagse games.

[Reactie gewijzigd door SaintsMask op 23 juli 2024 23:39]

de ingebouwde Vega 8 van de Ryzen 5700G is al een stuk sneller dan een GT 1030 en het totaal stroomverbruik is een flink stuk lager. Met de toekomstige Phoenix APU zou het nog mooier worden als ik de geruchten zou moeten geloven: de snelheid van een 1060 in een enkele APU. Met een dergelijke snelheid zouden heel veel gamers met niet te hoge eisen een bijzonder energiezuinige (en waarschijnlijk ook budgetvriendelijke) oplossing krijgen.

[Reactie gewijzigd door pharmacist op 23 juli 2024 23:39]

De 5700G is dan ook een stuk prijziger. 289 euro... Daar kun je bv een 12100F en een 1050TI voor kopen en ook een 6500XT scheelt niet veel.
De 5700G is een CPU met onboard graphics.
Goh nee! zeg! De 12100F is een CPU zonder! En laat ik nou met een combi komen die nauwelijks duurder is en structureel sneller is? En het tweede voorbeeld is in veel spellen nog sneller. Voor hetzelfde geld.
(Edit : Misschien had ik beter het anders kunnen zeggen 'en ook een 12100F met 6500XT scheelt niet veel. Dat bedoelde ik uiteraard)

[Reactie gewijzigd door AtariXLfanboy op 23 juli 2024 23:39]

Ah nu snap ik hem beter.
Ja ik pas dus jouw reactie ook in tweede instantie :)
tel eens de prijs bij elkaar op samen met een mini-ITX moederbord (socket 1700 vs AM4), tel stroomverbruik bij elkaar op (65 Watt voor 5700G en 58 Watt 12100F + verbruik 1050TI/6500XT en vergelijk ook met de ruim 2x snellere 5700G (8-core vs 4-core van de 12100). Ik denk toch dat de "Watt/framerate" toch een stuk gunstiger uitpakt voor de 5700G en dan heb ik het nog niet over het stroomverbruik en de veel snellere verwerkingskracht van de 5700g.
Je hebt er dan ook veel meer grafische performance voor en je kunt een van de twee nog upgraden zonder de andere. Bij de 5700G zit je dan vast aan beide. Een ander voordeel is dat mocht je nog ouder langzamer DDR4 geheugen hebben liggen dat dit minder een performance hit geeft bij een 12100F/GPU combo. De 40 euro's die je daar eventueel mee bespaard hebt kan in het socket 1700 moederbord gestopt worden : Goedkoopste AM4 met 4 geheugenslots ca 60 euro , 1700 met 4 ca 100 euro.
Met de 6500XT heb je dan ook nog eens dat zeker met PCI-e 4.0 grafisch in spellen deze 200~250% sneller is dan de inmiddels aging gpu op de 5700G.
Meer dan een 4C/8T CPU met een eenvoudige videokaart lijkt me ook niet erg zinnig eerlijk gezegd. Meer cores maakt een processor niet opeens twee keer zo snel. Maar goed voor de mensen die andere taken doen dan wat spelletjes lijkt me toch nog wat meer power en dus een wat ander budget aan te raden.

[Reactie gewijzigd door AtariXLfanboy op 23 juli 2024 23:39]

SFF, als ik de plaatjes zo zie is het een dual slot design, single slot zou nog wat zijn daarvoor of half height.

Van de GTX 1650’is een single slot design geweest (niet te krijgen geweest overigens) ik heb zelf nog een 1050 TI in de QNAP zitten, vooral omdat ik maar single slot beschikbaar heb in dat ding.
Voor iemand die met name office en internet gebruikt en tot fullhd streamt is dit een leuk kaartje.
Niet iedereen heeft het snelste van het snelste nodig, dat is geheel afhankelijk van zijn of haar gebruik (en verwachting). Ik denk dat je zelfs nog redelijk kan gamen afhankelijk van het type spel, maar de doelgroep voor deze kaart zullen zeker niet de die hard games zijn.
Office, internet en full hd streamen kan prima met integrated graphics zelfs op oudere Intels i.p.v. deze notabene actief gekoelde kaart.

Zonde van de materialen die gebruikt zijn, ik verwacht dat deze serie snel verdwijnt nu de markt wat begint te bewegen.
Ze kunnen de productie capaciteit beter stoppen in andere segmenten .
Hier is de winst marge nog hoger op.
Ik verwacht inderdaad dat dat er wel achter zal liggen ;)

Het lijkt er wel op dat ze voor dit model totaal geen moeite hebben gedaan in het ontwerp, ik vraag me af wat dit aan reputatie schade oplevert.
Deze heeft die TU117 chip, met verouderde NVENC.
Die verouderde NVENC van de Turing Volta generatie kan wel encoden tot 8K resolutie wat deze kaart interessant maakt voor een video streaming server. De RX6400XT en RX6500XT hebben helemaal geen encoders.

[Reactie gewijzigd door Djarune op 23 juli 2024 23:39]

Onboard Intel GPU's kunnen dat ook, lijkt me dan niet logisch om daar extra geld aan uit te besteden, en voor de gaming prestaties zal je het ook niet doen

Alleen als je echt een super oude bak hebt, die je nog wil inzetten voor encoding doeleinden is dit misschien nutting, maar zelf dan zou ik het niet doen want dan zit je met het stroomverbruik van een oude bak
75 watt voor bagger performance, top product. Wat een uitmelkerij, deze kaart heeft in een normale markt geen enkel bestaansrecht.
DLSS 480p 320p upscalen naar fhd of qhd en je bent er toch?

Maar misschien moeten we dan gewoon kijken wat dit doet tov de igps van intel en amd? En zien wat je dan krijgt voor 150euro/75watt

[Reactie gewijzigd door i-chat op 23 juli 2024 23:39]

DLSS heeft die speciale Tensor cores nodig, dus dat zal ook niet gaan.
Gebruik je AMD FSR :+
Waaaaaccccchhht zit die er niet in dan?

Zo’n lichtgewicht kaart en dan geen dlss?
Dat zou hem pas echt waardeloos maken
Die zijn pas mogelijk vanaf de RTX 2000 series, als ik het goed begrepen. En dat is dan nog ergens nog wel een goede en logische productpositionering/ naamgeving. Vanaf de RTX 2000 series bestaan die features wel, en de GTX 1600 series dus niet. Anders zou het ook wel onlogisch worden, dat je nu nog een kaart in zo'n "oude" GTX 1600 series uitbrengt, terwijl je al een RTX 2000 en RTX 3000 series hebt.
Heb ooit voor een htpc een dergelijke gebrekkige kaart gekocht puur omdat hij passief gekoeld was... In 2012 of iets in die richting. Een ander gebruiksscenario zie ik eigenlijk niet voor deze kaart. Tenzij de OEMs denken nog een keer een miljoen PCs voor Office-gebruik te kunnen slijten?
Op zich niet gek dat ook de low-end kaarten van het kaliber GT1030 een refresh krijgen. Voor videokaarten voor gewoon desktop-werk met meerdere schermen is natuurlijk ook een (kleine) markt.

Alleen wel jammer dat dit ding nog steeds op Samsung 12nm gemaakt wordt, dat is niet bijster efficiënt vergeleken met modernere procedés. Is ook wel te zien aan dat dit ding een 75W TDP heeft en daarmee geen deuk in een pakje boter slaat, terwijl een RX6600 (een best deftige 1080p-game-kaart) maar tot 132W gaat. Die presteert ruwweg 4x - 5x beter.

edit: in de praktijk komt de GTX 1630 maar tot ~50W in gaming (wel 75W in furmark, maar dat zegt niet veel), dat is nog steeds niet geweldig efficiënt maar ook niet compleet dramatisch.

[Reactie gewijzigd door bwerg op 23 juli 2024 23:39]

Had gehoopt op een wat krachtigere single slot opvolger voor de GT 1030, maar als ik de aankondigingen van de genoemde fabrikanten zie dan zijn het twee-slots kaarten helaas. De Radeon RX 6400 lijkt dan wel een goed vervanger, die was aan mij voorbij gegaan, maar die is op het moment wel erg prijzig in de pricewatch.
Maar bij AMD zit je bij die kaarten wel aan de snellere pcie bus vast, ondersteund je moederbord dat niet lever je behoorlijk in....

Op dit item kan niet meer gereageerd worden.