Gerucht: Nvidia werkt aan GeForce GTX 1630-videokaart

Nvidia zou van plan zijn om een GeForce GTX 1630-videokaart uit te brengen. Het nieuwe model zou de GTX 1050 Ti vervangen en moet het opnemen tegen de recente budgetkaarten van AMD, zoals de RX 6500 XT en RX 6400.

Welke specificaties de GTX 1630 krijgt, is nog niet bekend, maar het gaat om een videokaart op basis van een Turing-gpu, meldt VideoCardz. De site claimt dat diverse bronnen bevestigd hebben dat de kaart er komt. Wanneer Nvidia de GTX 1630 uitbrengt, is nog niet bekend.

De GTX 1630 zou de plek van de oude GTX 1050 Ti moeten innemen. Die kaart is nog altijd te koop en staat momenteel in de Pricewatch vanaf zo'n 200 euro. De videokaart krijgt een plek onder de GTX 1650, die momenteel minimaal 210 euro kost. Voor de gpu-schaarste was dat overigens zo'n 150 euro.

Drie jaar geleden bracht Nvidia de GTX 1650 uit. Dat was de laatste videokaart met Turing-gpu. Van die kaart verschenen er in de loop der jaren diverse varianten, met verschillende gpu's. Niet alle uitvoeringen zijn in alle markten te koop. VideoCardz merkt op dat ook de GTX 1630 een model voor een specifieke markt kan zijn. De site denkt dat Nvidia een TU117-gpu zal gebruiken in combinatie met GDDR6-geheugen.

Nvidia heeft al lang geen budgetvideokaart meer uitgebracht. De RTX 3050 is het goedkoopste model in de huidige line-up. Die kaart heeft een adviesprijs van 249 dollar en is in de Pricewatch momenteel leverbaar vanaf 320 euro. AMD heeft met zijn pas geïntroduceerde Radeon RX 6500 XT en RX 6400 goedkopere alternatieven, die leverbaar zijn vanaf zo'n 175 euro.

Het zou voor het eerst zijn dat er een 30-model in de GTX-serie verschijnt. Nvidia bracht in het verleden dergelijke budgetmodellen uit onder de GT-naam, zoals de GT 730 en GT 1030.

De recentste 30-kaart van Nvidia is de GT 1030 uit 2017.

Door Julian Huijbregts

Nieuwsredacteur

18-05-2022 • 10:08

73 Linkedin

Reacties (73)

73
73
27
3
0
40
Wijzig sortering
Ik ben benieuwd naar de toegevoegde waarde ten opzichte van een iGPU.
Een processor met iGPU is niet veel duurder dan eentje zonder, terwijl bijv. een AMD Vega iGPU redelijk vergelijkbaar presteert als een GTX *50 (sinds de 6 serie qua prestaties meer refreshes dan wat anders).
Ik ben benieuwd naar de toegevoegde waarde ten opzichte van een iGPU.
NVENC. (D'r van uitgaande dat ze dat er in laten natuurlijk.)

[Reactie gewijzigd door CyBeR op 18 mei 2022 11:27]

Vast en dan hopelijk harware encoding / decoding voor x265.
Zoiets zoek ik namelijk voor mijn Plex server. Singleslot en bij grote voorkeur ook passief gekoeld.
Dan word het een vervanger voor de 1030 die er nu inzit.
x265/HEVC decoding zit al al een poosje op Nvidia kaarten, en wordt ook ondersteund door Plex.
Encoding daarentegen zit helaas nog steeds niet in Plex. :(
Niet op een 1030, alleen decoding. Vanaf een GTX1050 wel geloof ik.
Ik gebruik een GTX950 voor HEVC encoding. Met de juiste ffmpeg versie en wat batch-bestanden gaat dat prima. De 950 & 960 waren de eersten met HEVC encoding, de 970 & 980 hadden dit weer niet.
Ik gebruik een quadro p400, perfect voor plex. Goedkoop, single slot en gebruikt maximaal 30w
Sowieso is het Nvidia only lees ik (ik moest googlen wat het uberhaupt is, valt bij mij redelijk onder de /care features)
Mja als je niet weet wat 't is heb je er niks aan maar als je veel met real-time video encoding te maken hebt is NVENC en dan specifiek de Turing generatie ervan iets wat je graag inzet.
hebben intel CPU's ook geen hardware encoding?
Soort van (quicksync) maar nvenc is ruim superieur. Zowel in kwaliteit als snelheid.
Als je gewoon een dikke CPU nodig hebt maar geen GPU power. De meeste krachtigere CPU's van AMD bijvoorbeeld, dus de 5600x, 5700x etc. en threadrippers komen zonder iGPU. Maar je wilt toch een scherm aan kunnen sluiten, dan neem je dus de lowest-end GPU die je kan vinden.
Dan koop je een moederbord met videoaansluiting?

Kijk voor extremere builds is er ook budget voor een fatsoenlijke videokaart aangezien benodigde CPU power en graphics power redelijk hand in hand gaan, zeldzame uitzonderingen daargelaten.
Een build die toe kan met een 1050 kan ook prima toe met een budget/middenmotor CPU met iGPU
Waar denk je dat de output op die connector op het MoBo vandaan komt? ;)
Sommige mensen hebben flinke CPU power nodig, en daar maar heel weinig gpu bij. Niet iedereen is een gamer ;)

Denk aan programmeurs die code moeten compileren, werken met grote datasets (zeker als je machine learning toepast), CAD... Vooral zakelijke gebruikstaken dus.

Bij Intel kunnen deze een iGP krijgen op de top CPU modellen (tenzij ze voor een Xeon gaan), maar bij AMD moet je er toch iets bij prikken omdat de APU's vaak later uitkomen voor de nieuwe CPU architectuur en dan niet de top modellen hebben.


Dit is waarom de Nvidia 1030 GT nog altijd verkocht werd, die kon prima meerdere displays aan en videos tonen.
> werken met grote datasets (zeker als je machine learning toepast)

Dan heb je wel weer een sterke GPU nodig. GPUs zijn extreem geschikt voor machine learning vanwege snelle parallellisatie, en het wordt dan ook aangeraden om machine learning op de GPU te doen. Het kan op een CPU, maar is dan een stuk trager.
CAD...
Nou, ik kan je zeggen, ik heb een GTX 1050 TI in mijn werk computer (gepaard met een i7 8ste generatie) en de PC heeft wel moeite met het renderen van complexere PCBs in Altium Designer. Ik denk dat een quadro/firepro kaart wel beter is voor 2D CAD, maar ik weet niet zeker of dit soort CAD programma's ervan kunnen profiteren.
Er zijn genoeg zaken te doen op een pc waarbij je wel een krachtige CPU en geen krachtige GPU nodig hebt, compileren bv, zou ik toch geen zeldzame uitzondering noemen.
Naast dat je een feitelijke onwaarheid verkondigt over dat een mobo met videoaansluiting geen (i)gpu nodig zou hebben, is het natuurlijk niet automatisch zo dat je geen verschil merkt tussen igp en instap dedicated gpu.

Zeker als je al een wat oudere apu hebt kan zo'n instapkaart een mooie upgrade zijn. Zeker als de socket gewijzigd is intussen en je naast apu ook mobo zou moeten vervangen. Bovendien is de geheugensnelheid van je ramlatjes minder kritisch omdat een dedicated gpu zijn eigen geheugen heeft.

Ik heb op dit moment een AMD Ryzen 4650g in mijn mediapc en zodra de casual games daar niet meer lekker op lopen duw ik er een moderne instapgpu bij.
ik ben in dat geval: ben geen gamer. Ik wil gewoon een vlotte CPU in m'n desktop. In 2019 kocht ik daarom een 3600, gecombineerd met een GT1030.
Eind 2022/begin2023 wil ik nog eens vernieuwen. Wordt het Intel, dan heb ik de iGPU. Wordt het terug AMD, dan hoop ik dat de geruchten over een geïntegreerde RDNA2 GPU in Zen4 kloppen.
Als je de cache kunt missen kun je ook gewoon voor een 5600G of 5700G gaan, of natuurlijk een Intel CPU. Het lijkt mij niet dat veel mensen 32MB L3 cache als hard requirement hebben, en dan tegelijkertijd alleen een display adapter nodig hebben.
Daar heb je dan toch juist de 5600G en 5700G cpu's voor, om even op jouw eigen voorbeeld in te gaan.
Videoaansluitingen! :P Een iGPU heeft er namelijk erg weinig. Het kost je dan wel een PCIe slot. Plus er zijn moederborden zonder videoaansluitingen.
Zelfs een budget moederbord heeft wel HDMI tegenwoordig.
Dat er een aansluiting op je mobo zit zegt in zichzelf niets. Die moet ergens uit gevoed worden, en in het geval van een moederbord uit de CPU. Heeft je CPU geen iGPU, dan doet die HDMI poort op je moederbord helemaal niets.
In deze tijd een CPU kopen zonder iGPU is de grootste fout die je kunt maken.

Zelfs voor troubleshooting is het handig een iGPU te hebben.

[Reactie gewijzigd door TheDeeGee op 18 mei 2022 15:33]

Niet mee eens. Ik had cores en threads nodig en ben daardoor uitgekomen op een 5900x. Daar heb ik m'n oude RX580 bijgestoken en het is nu een prima werkstation.
Waarom is dat zo'n grote fout?

Ik heb zelf ook liever een iGPU, maar je stelling snap ik niet.
AMD CPU's met IGPU presteren gewoon minder als hun tegenhanger zonder IGPU
Is bij AMD vaak ook een totaal ander CPU, ondanks dat het getal dat niet weergeeft. Tuurlijk, soortgelijke/zelfde architectuur en ongeveer dezelfde mhz'en, maar dat is maar theorie. Dan heb je nog voltage, verbruik (sommige desktop apu's zijn gebaseerd op de laptop-reeks) etc.

Beetje flauw van AMD dat ze het dan hetzelfde nummertje geven.

Bij Intel is het wel gewoon CPU X + iGP Y waarbij de CPU X zonder igp even rap is.

[Reactie gewijzigd door A Lurker op 19 mei 2022 14:43]

Sterker nog, ik draai gewoon een dual monitor setup op de iGPU. 1x Displayport, 1x HDMI. Draait heerlijk vlot zonder problemen :) (i7 12700k)
Je hebt al mobo's waar je 4 monitoren op kunt aansluiten. Dus dat is echt een steeds slechter argument.
Dus, je hebt liever dat ik mijn hele PC ombouw en mogelijk ook andere onderdelen moet halen (bijv een CPU) ipv makkelijk een GPU erin gooi als mijn mobo 0x videoaansluitingen heeft? Er zijn vast situaties waarin je mogelijk 0 tot 1 videoaansluitingen hebt en je hebt er meer nodig. Dan is z'n GPU stukken makkelijker.
Dan heb je dus vermoedelijk geen passende pc gekocht, want 2 of meer aansluitingen is bij fatsoenlijke pc's echt al jaren standaard. En met een beetje zoeken zijn 3 of 4 aansluitingen ook geen probleem. Het is daarom een steeds minder voorkomend probleem. en gpu's geeft meer warmte, meer stroom verbruik, en vaak slechtere drivers, want fatsoenlijk opensource maken, blijft lastig...
"Goedkoop" meer display uitgangen met een recentere kaart (lees drivers).
Geen gebruik systeemgeheugen (beetje non argument wellicht, maar goed)
NVENC als ze die meekrijgt.
Cuda cores voor niet al te zware machine learning taken?
een iGPU heeft RAM nodig om als VRAM te laten dienen. RAM is altijd vele male trager dan VRAM.
Dit is vooral evident na dat Nvidia het grappig vond om een DDR4 variant uit te brengen van de GT1030 en hier een prijsverschil van te doen van maar liefst 10 euro. Echter was de prestatie van de DDR4 variant dus danig laag dat dit meteen een hele andere klasse videokaart werd. Ik meende dat deze om en na bij 50% trager is.

Ik vraag me alleen af wat beter zou zijn voor HTPC's, een GT710/730/1030 of een AMD APU.
Wat opmerkelijk is dat een 5600G de ene keer slechter presteert in games dan een 1030 en dan weer aanzienlijk beter, en in een andere game zijn ze gelijk aan elkaar, een iGPU zou wel zuiniger zijn denk ik.
In sommige specifieke use cases heeft het wel nut. Stel je maakt graag gebruik van emulatoren, dan maakt het bij Xenia (xbox 360 emulator) groot verschil of je AMD ipgu of een Nvidia dgpu hebt. Je kunt dan beter een goedkopere intel 6 core + budget nvidia dgpu nemen dan een deftige AMG apu.
Deze kaart zou perfect voor mij zijn als het 4x DP/HDMI uitgangen had.
Het enigste wat het hoeft te doen is simpele software te projecteren op 3 tot 4 schermen. Daar is geen 3050 voor of oid. voor nodig.
Meer PCIe lanes over op je moederbord voor snelle opslag o.i.d. Ik neem aan dat deze kaart namelijk niet meer dat 4 of 8 lanes gebruikt
Het kan zijn dat de iGPU al vrij oud is en je nieuwe specs mist zoals versnelling van de de laatste video codecs of een HDMI 2.x uitgang wil. Dan kan je hiermee je PC een upgrade geven.
Hoe zou zo'n videokaart het doen voor een mediaserver om videos te transcoderen (icm Plex) bijvoorbeeld. Ik heb nu een AMD build (5900x) en daar zit geen ingebouwde GPU in. Heb nu een 3080 maar dat is zware overkill voor het transcoderen en zonde van de stroom. Zoveel game ik ook weer niet, maar de server staat wel 24/7 aan.
Heb je het verbruik van de 3080 wel eens gemeten bij enkel transcoding? Heb hier een broertje van die GPU (3090) en board power blijft rond de 30w bij enkel en alleen transcoding. Dat is slechts zo'n 10w meer dan enkel desktop gebruik. Memory en GPU clock blijft allemaal ook minimaal. Natuurlijk schakelt een grote GPU met ~>10000 cores minder zwaar terug dan een kleinere maar desalniettemin is het power management van moderne GPU's erg indrukwekkend. En gevaarlijk. CPU's namelijk ook. Ik heb een 280W TDP CPU die idle rond de 20W zit.

Het effect is dat mijn PC van een koele 40W bij enkel transcoding naar 700W gaming, en zelfs over de 1000 kan komen bij 'data sciencey' zaken...

Wat ik wil zeggen is dat een modern systeem eigenlijk helemaal niet zo erg is om 24/7 aan te hebben (tuurlijk is uit zuiniger): een 3080 op 20W idle is best redelijk uit te leggen tegenover de board power van sommige kaarten die richting de 400 gaat.
Off-topic maar jou reactie deed mij denken aan de pricewatch waar bij componenten niet het verbruik vermeld staat. Stel ik wil een ultra-zuinige desktop bouwen, dan moet ik vrij veel onderzoek doen om de zuinige componenten bij elkaar te krijgen. Hoe mooi zou het zijn als er een aantal velden bij komen voor idle/load verbruik :o En het hoort ook wel een beetje bij deze tijd van besparen.

En als dat lastig is, wellicht velden door de community laten toevoegen in ruil voor karma. Onderzoek doen > veld updaten > mede-tweakers hebben er plezier van.

[Reactie gewijzigd door Memori op 18 mei 2022 13:11]

Het leuke is dat we hier op Tweakers zitten en het altijd nog extremer kunnen maken. Ik durf te wedden dat ik die 3090 puur voor transcoden zelfs wel naar de 10W kan krijgen door slim te undervolten, de RGB uit te zetten, en nog wat trucs.

Als je het nog gekker wilt maken zijn er dit soort topics:

Het grote zuinige server topic - deel 3

Daar worden zelfs specifieke moederborden/CPU combo's besproken met als effect hele i7-based servers waar VM's op kunnen draaien binnen een power budget van ~4W. En dan gaan ze daar soms ook nog zo ver dat conversieverlies van de power supply mee wordt genomen (en daarmee een ander boeiend onderwerp: iemand die AC>DC conversies in zijn huis al gecentraliseerd heeft met als doel hogere efficiëntie?)
Wauw. Dank je wel voor het linkje. Dit is goede leesvoer voor komend weekend. :D
Dat werkt prima. Ik draai met een 3600 en een oude 950gtx op linux. Transcoden als een zonnetje, 2x 4k hdr met tonemapping lukt net. Eigenlijk kan je onder linux met elke nvidia gpu vanaf de 950gtx de transcoding goed aan de praat krijgen. Je hebt wel en driverhack nodig om meer dan 2 streams te kunnen transcoden, maar dat is ook prima te doen.
Nvidia heeft al lang geen budgetvideokaart meer uitgebracht. De RTX 3050 is het goedkoopste model in de huidige line-up. Die kaart heeft een adviesprijs van 249 dollar en is in de Pricewatch momenteel leverbaar vanaf 320 euro.

En dat was al een gigantisch slechte koop, want niet sneller dan een GTX1660.
Het is dan ook meer voor raytracing, wat met de 1660 niet kan.

[Reactie gewijzigd door Apart op 18 mei 2022 10:36]

De RTX3050 ook niet op speelbare framerates.
Raytracing is totaal onzinnig met een kaart die zo traag is als de 3050. DLSS is het grote voordeel van de 3050 over de 1660.

[Reactie gewijzigd door Ludewig op 18 mei 2022 13:33]

dit is dan ook de enige reden waarom ik mensen een 3050 zou aanraden... maar eigenlijk zou ik dan of een 1660 Super aanraden of toch een 3060 als ze het budget wat kunnen rekken. de 3050 is een vreemde kaart deze generatie.
Zelfs dan niet. of je moet het zover opschroeven dat alle gewonnen kwaliteit je weer kwijt bent door de resolutieschaling.
Voor een tweedehands 1660 betaalde je een paar maand geleden overigens ook nog iets van 500 euro.
Het laatste budgetmodel is toch echt de GT1010, maar die is zeer slecht verkrijgbaar. De eerste benchmarks van januari 2022 laten wellicht ook zien waarom: De GT1010 is een beetje zinloos (Intel's HD line kan hetzelfde)
ik hebzelf een GT1030 in mijn pc zitten (gekocht voor 80euro), niet om te gamen, maar voor de extra HDMI aansluitingen voor extra schermen aan m'n PC aan te sluiten naast de onboard HDMI aansluiting van m'n moederboard.
Daarnaast is het een fanless GPU, dus geen extra geluid in m'n case, enkel een grote heatsink erop.

[Reactie gewijzigd door gise op 18 mei 2022 10:36]

Rare en verwarrende keuze om op die manier 'oudere' GPU series zoals de GTX16xxx reeks te blijven voorzien van nieuwe producten. Waarom niet gewoon GTX3030?
Omdat de hele 30-series (en 20-series) RTX zijn. Daarom bestaat überhaupt de 16-series: dat zijn effectief 20-series (turing) chips maar dan zonder RTX.
Maar daarom staat er net "RTX" voor en niet meer "GTX". Nvidia doet het waarschijnlijk gewoon met het idee van "Anders kan de klant het misschien niet snappen dat de GTX kaarten geen Ray-Tracing (en DLSS) hebben, maar de RTX kaarten wel". Dat is perfect oké voor mij, maar zeg nou eerlijk, GTX 16-serie is toch ook volledig uit de lucht getrokken... we kwamen van GTX 1000... Het zou natuurlijk ook gek zijn om voor 1 kaart een GTX 17-serie te starten (GTX 1730).

Ze kunnen het perfect de RTX 3030 noemen en er eventueel nog de cores bij insteken die nodig zouden zijn voor DLSS, dus eigenlijk zonder Ray-Tracing, maar ik snap het wel.
Benieuwd of Nvidia ook nog Linux-driverondersteuning aan deze kaart vastplakt.
Ik neem aan van wel. Bij andere kaarten doen ze dat ook.
Aangezien de initiele berichtgeving alleen de GTX2000 kaarten en hoger werden aangestipt bij de nieuwe Linux-driver artikelen, en Nvidia nogal een handje heeft om hele GPU-generaties te droppen qua support, ben ik nog wat sceptisch.
De open source kernel modules ondersteunen GPU's vanaf de Turing en Ampere architectuur, dit is een Turing kaart (GTX 16xx en RTX 20xx zijn beide Turing), dus ik verwacht dat deze kaart het net wel zal ondersteunen. Nvidia's eigen communicatie sprak alleen over de architectuur, niet over de typenummers, https://developer.nvidia....ource-gpu-kernel-modules/.
ook voor htpc kan dit voordelen bieden voor 4k encoding
Deze series zullen er denk ik ook komen omdat Nvidia geen nieuwe drivers meer uitbrengt voor 600 en 700 kaarten. Geen idee of die super low end kaarten enig voordeel hebben aan nieuwe drivers. Misschien wil Nvidia de 700 series aan doch gewoon uit het assortiment hebben. Ook al heeft de 700 serie alleen maar low end kaarten, je zal toch een deel van je productie en inkopen moeten richten op die oude architectuur.
Dan wordt het dus als het ware een "gamingversie" van de Nvidia T600?
Ik snap niet waarom er nog een DVI poort opzit i.p.v. een display poort.
omdat de meeste mensen die zoiets kopen liever DVI hebben

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee