Gerucht: Nvidia GeForce RTX 3050 voor desktops komt in tweede kwartaal 2022 uit

Nvidia brengt in het tweede kwartaal van 2022 mogelijk een GeForce RTX 3050-desktopvideokaart uit. Dat meldt techwebsite VideoCardz op basis van eigen bronnen. De videokaart zou beter presteren dan de GTX 1660 Super en krijgt mogelijk 8GB geheugen.

Volgens VideoCardz test Nvidia intern een PH1290 SKU 70-videokaart, die beschikt over een GA106-150-gpu. Eerder gingen geruchten rond dat een dergelijke gpu gebruikt zou worden in een GeForce RTX 3050 Ti, maar bronnen van VideoCardz stellen dat het een 'reguliere' GeForce RTX 3050 betreft. De GA106-150-gpu beschikt mogelijk over 3072 CUDA-cores.

Anonieme bronnen vertellen aan de techwebsite dat de GeForce RTX 3050 mogelijk 8GB geheugen krijgt. De videokaart zou beter presteren dan de huidige GeForce GTX 1660 Super. Tegelijkertijd zou de RTX 3050 minder snel zijn dan de vermeende GeForce RTX 2060 12GB, die op de planning zou staan voor december. Hiermee moet de GeForce RTX 3050 concurreren met de komende Radeon RX 6500 XT, waarover recent details verschenen. Ook wordt een Intel Arc-desktopvideokaart met 128 execution units in dit prestatiesegment verwacht.

Nvidia zou verder werken aan verschillende andere RTX 30-videokaarten. Zo zou het bedrijf werken aan een 16GB-variant van de GeForce RTX 3070 Ti en een 12GB-versie van de RTX 3080. Er wordt ook een RTX 3090 Ti verwacht, met 10.752 CUDA-cores en mogelijk sneller geheugen dan de reguliere RTX 3090. Deze gpu's zouden allemaal januari 2022 geïntroduceerd worden.

Komende Nvidia GeForce RTX-videokaarten (geruchten via VideoCardz)
Videokaart Geheugen Release
Nvidia GeForce RTX 3090 Ti 24GB GDDR6X Januari 2022
Nvidia GeForce RTX 3080 12GB 12GB GDDR6X Januari 2022
Nvidia GeForce RTX 3070 Ti 16GB 16GB GDDR6X Januari 2022
Nvidia GeForce RTX 3050 8GB? GDDR6 Q2 2022
Nvidia GeForce RTX 2060 12GB 12GB GDDR6 December 2021

Door Daan van Monsjou

Redacteur

27-11-2021 • 17:05

91 Linkedin

Reacties (91)

91
89
31
1
0
17
Wijzig sortering
Zo lang ze straks niet in trek zijn voor miners krijgen ze normale prijzen.
Betwijfel het, serieuze miners gebruiken geen consumenten GPUs.
Volgens mij zit je er echt ongelofelijk naast.

Nvidia is de enige die met mining specifieke videokaarten op de markt is gekomen in 2021 en die zijn de laatste maanden pas een beetje verkrijgbaar (al bereiken ze Europa nauwelijks omdat ze voornamelijk in Azië worden opgekocht).

Zie hier een voorbeeld van een serieuze miner https://ethermine.org/min...D576F080E06B1Cf/dashboard met 2150 euro per dag, al heeft hij tegenwoordig veel minder GPU referenties in zijn worker names (dus mogelijk doet hij grotendeels ASICs tegenwoordig i.p.v. GPU, good for him als dat zo is, maar dat betekent niet dat alle 'serieuze' miners dit doen).

Sterker nog, waarom alleen 'serieuze' miners? Volgens mij is er juist ontzettend veel GPU verkoop aan kleinere miners die niet ASICs willen kopen vanwege de veiligheid van een aardige resale value als het misgaat met de crypto's.

Zie ook https://minerstat.com/hardware/gpus, daar zie je dat op plek 5 met de Nvidia CMP 170HX (wat je een non-consumenten GPU of in ieder geval mining specifieke GPU kan noemen) na de volledige top 10 bezet wordt door consumenten GPU's.

Zie ook https://hiveos.farm/statistics/, dit geeft een beeld van de verhoudingen tussen GPU's en ASIC's op een van de (naar mijn weten en misschien wel de) populairste (ETH) linux mining OS.
Onder kopje Miners/GPUs dat phoenixminer, t-rex en nbminer de top 3 vormen voor HiveOS, en dat zijn respectievelijke AMD+Nvidia, Nvidia only en Nvidia only GPU miners, geen ASIC mining tools.

Bitcoin mining doe je idd tegenwoordig (en al jaren) via ASICs, maar ETH mining is vaak genoeg meer winstgevend dan Bitcoin mining, al zal het natuurlijk enorm fluctueren met alle ontwikkelingen, zie bijv. https://www.crypto-rating...more-profitable-than-btc/

Het tegendeel is dus waar. Naar alle waarschijnlijkheid is GPU mining de voornaamste reden waarom de consumenten GPU markt al meer dan een jaar overhoop ligt. Ongetwijfeld gamen wat meer mensen thuis door corona en ja er is een tekort aan chips, maar dat verklaart niet waarom de consumenten GPU markt nog steeds in huidige staat is met prijzen die meer dan 2x zo hoog liggen als de adviesprijs.

Zie bijv. ook https://store.steampowered.com/hwsurvey/videocard/, die een beeld geeft van de videokaarten die daadwerkelijk worden gebruikt voor gaming. Waar zie je die RTX 3080's, RTX 3070's, RTX 3090's, RTX 3060 Ti's, RX 6800 (XT's), RX 6800XT's RX 6900XT's, RX 6700XT's die het merendeel van de GPU verkoop hebben bepaald het afgelopen jaar (want laatste gen)?
Het is niet zo dat er weinig videokaarten zijn verkocht in 2021 en 2020, want record na record worden verbroken door Nvidia en volgens mij ook AMD in GPU verkoop (zie bijv. https://nvidianews.nvidia...third-quarter-fiscal-2022), het is alleen zo dat de vraag nog veel groter is dan het aanbod; daarom is er sprake van zo'n grote tekorten.
In die Steam Survey results is de best scorende kaart van mijn eerder genoemde high-end consumenten GPU lijstje een RTX 3070 met 1.70% aandeel in de Steam PC's, en de rest zit daar ver onder: de RTX 3060 sla ik even over want (in eerste instantie) geen ideale mining kaart 1.13%, en dan is de volgende de RTX 3080 met 1.04%. Waarvoor die GPU's dan voor gebruikt als het niet gaming is...? Ik denk dat je het antwoord weet. En waarschijnlijk worden een hoop GPU's voor zowel gaming als mining gebruikt. Waarom zou je ook niet. Daarmee kun je ook verantwoorden om een (nog) duurdere videokaart te kopen.

Je kan jezelf ook de vraag stellen waarom bijv. een RTX 3080 TI met LHR al maanden voor een paar honderd euro minder op Marktplaats en Tweakers V&A dan een RTX 3080 zonder LHR (al wordt dit prijsverschil steeds kleiner omdat de Lite Hash Rate limiter steeds verder wordt omzeilt bij het mining). Naar alle waarschijnlijkheid zijn het de miners die de (hoge) prijzen bepalen en een RTX 3080 TI is nu eenmaal minder winstgevend in ETH mining, terwijl het wel een videokaart betreft met een adviesprijs die bijna 70% hoger ligt.

[Reactie gewijzigd door xtlauke op 27 november 2021 18:56]

Good read, thanks ;-)
Dat doen ze wel. Er zijn hele hallen vol met planken met consumenten gpus die staan te minen

[Reactie gewijzigd door PjotterP op 27 november 2021 18:19]

Dat zijn voornamelijk ASIC miners?
Een tekort aan GPU's is voornamelijk door de normale consument gekomen!
Je hebt gelijk maar miners zijn ook gewoon normale consumenten. Tegenwoordig zijn er hopen hobby miners met 6-40 kaarten.
Ja, maar ook professionele miners in de VS en China doen dat ook gewoon op GPUs. ASICs zijn voorbehouden aan een heel kleine selectie cryptos.
Een vrij groot gedeelte van de Ethereum hashrate komt van ASIC miners hoor.
Ik kan thuis met nagenoeg nul moeite winstgevens etherium minen op mijn GPUs (stroomkosten << miningverdiensten). Het komt in principe neer op geld printen. ASICs zijn er eigenlijk alleen voor Bitcoin (en derivaten die op dezelfde algos berusten). Nagenoeg alle andere cryptos mine je dus op GPUs of CPUs. Nou biedt nVidia met de CMP line inmiddels crypto-specifieke varianten van hun GPUs en die zijn inderdaad 2x efficienter, maar ze zijn enorm veel duurder (5k voor het topmodel, dat "maar" 40% sneller is dan een 3090) en hebben nul verkoopwaarde op moment dat minen ermee niet langer winstgevend is. LTT hat daar laatste een leuke video over. Maar de huidige prijzen vna GPUs zijn volledig de schuld van miners. De prijzen zijn een directe reflectie van de winstgevendheid van mining.
Nee, echt niet alleen. Nogmaals, hele hallen vol met stellages met moederborden vol met consumenten GPUs.
He? Het hangt een beetje af van de stroomprijs die je betaalt, maar letterlijk élke enigszins courante kaart die ik hier heb - 1060, RX580 en 6700 XT - zie ik regelmatig ook langskomen in grote miningrigs met ≥ 4 kaarten.

Als ik vervolgens op Nicehash kijk, leveren die kaarten samen zo rond de 3-4 euro per dag op, terwijl ze me maar ~50 cent aan stroom kosten. Alleen m'n GTX960 uit 2016 is niet meer rendabel.

Ik heb het even zitten uitrekenen en het is op dit moment zelfs financieel niet interessant om m'n "oude" kaarten te verkopen. Als voorbeeld die RX580 die ik in juli 2020 (!) 2ehands heb overgenomen voor 135 euro, met garantie tot afgelopen januari: Deze levert volgens V&A nu rond de 300-350 euro op, maar waarom zou ik als hij zichzelf met een jaar al terugverdiend heeft? Ik heb een vast contract voor 5 jaar afgesloten bij een grote partij voor energie, dus daar hoef ik ook niet bang voor te zijn.

Ik merk daarnaast om mij heen ook dat vrienden van wie ik normaal altijd kaarten kon overnemen als zij een upgrade deden, nu ook veel meer zijn blijven vasthouden aan oude hardware. Ingezet in de dedicated streaming-bak, doorgeschoven naar de kids, als reserve of juist wél verkocht voor die premium prijs.

Alles is een speculatie object geworden, van sneakers tot kaarten en huizen tot virtuele muntjes. Ik prijs me gelukkig dat we hier niet eerder al zo'n last van hebben gehad.
3 kaarten en 50 cent per dag aan stroom? 1 kwh kost om en nabij 24 cent, misschien paar cent goedkoper als je een goed contract heb.

Mijn 3080 draait op 200 watt en verdiend 6-7 euro per dag, stroomkosten niet meegerekend ivm zonnenpanelen.

Als ik de stroomkosten wel meereken dan kost een dag minen mij 4,8kwh dus zo een 1,50 per dag. Je gaat mij niet vertellen dat drie kaarten minder stroomverbruiken.

Overigens had ik het niet over miners die een paar GPUs gebruiken maar over de grote jongens.
Je berekening gaat even aan me voorbij, 4.8 * 0.24 = 1.152 ?

Undervolten is het sleutelwoord hier. Ik heb nu alleen die RX 580 en de 6700XT samen aanstaan voor ~230 watt, kom ik met 230 watt in 24 uur uit op 5.52kWh. Dat keer de energieprijs a 0.24 komt uit op rond de 1.32 eu (inderdaad mijn 50 cent klopt ook niet, dat was het geschatte verbruik per GPU dat ik nog in gedachten had tegenover de daadwerkelijke uren dat ze per dag staan te minen, my bad. :+ )

Hierbij leveren ze met toch een zo hoog mogelijke hashrate, samen 3-5 euro per dag op. Dat kan overigens nog een stuk omlaag met o.a. een aangepaste firmware etc. wat relatief gezien met die wat zwakkere kaarten dus veel meer scheelt op het rendement.

Het lijkt vooralsnog de moeite waard over een jaar heen, al blijft het ook gewoon speculeren.

[Reactie gewijzigd door Vyo op 28 november 2021 03:31]

Was even een snelle schatting had geen zin om te rekenen :+

Dat is niet verkeerd voor die twee kaarten.
Als je zo gaat rekenen, doe het dan gewoon niet. Wat is het nut om met half bake cijfers te gaan debatteren over een onderwerp wanneer je een punt wilt maken.
Hoe dan ook, doe iets aan die 200 Watt.
Waar maak jij je druk om? Ik schrijf toch niet voor niks “zo een 1,50”, nergens een exact getal genoemd.

Wat wil je dat ik er aan doe aan het watt gebruik? :/ Lager zetten betekent lagere hashrate, dus minder winst. Een 3080 draait normaal op 320 watt dus het is al een vermindering van 120watt.
Was maar een geintje :+
Tuurlijk wel, evenals dat de prijsstijgingen vooral te danken zijn aan die $^$^@*! miners.
lees je uitspraak nog een opnieuw?
zonder miners hadden we nu allemaal al een 3000 kaart steken :)
De wetmatigheden van marketing geven aan dat er iets anders zal gebeuren. Zolang miners de prijzen van krachtige videokaarten opdrijven, zullen consumenten uitwijken naar andere kaarten, zoals de RTX 3050. Dat levert een onnatuurlijk hoge vraag op naar die andere kaarten, met als gevolg dat ook daarvan de prijzen zullen stijgen. Dat komt dus niet doordat miners de RTX massaal zullen kopen, maar hordes consumenten die nu al lange tijd hun aankoop van een nieuwe videokaart uitstellen.
Altijd leuk, als er nieuwe videokaarten uitkomen. Maar wat heb je eraan. Ze zijn veel te duur en bijna niet te krijgen. Dus wat heb je eraan?

Kunnen fabrikanten hun tijd en energie niet beter steken in meer productiecapaciteit voor de huidige modellen? En alle slimme ideeen voor nieuwe modellen voor later bewaren, als de leverproblemen zijn opgelost? Het lijkt zo zinloos op deze manier, een nieuwe kaart uitbrengen die toch niemand kan kopen...
Die productiecapaciteit zit niet bij nvidia maar bij tsmc en Samsung en andere chipbakkers. Kunnen ze niet veel aan doen bij nvidia.

Jaren wachten tot er extra fabrieken zijn of minder vraag is tot ze wat nieuws presenteren lijkt me niet echt een goede strategie.
Het ligt niet bij de aanbodkant, het probleem ligt bij de vraagkant.

Gamers moeten concurreren met een winstgevende praktijk van mining.

De enige oplossing hiervoor is hopen dat de EU/de VS het gebruik van crypto aan banden gaan leggen.

Zoals Noorwegen en Zweden:
https://www.google.com/am...inister/%3foutputType=amp

Niet omdat ze crypto als idee nu zo vervelend vinden, maar omdat het gewoon héél veel energie kost die je liever voor andere doeleinden inzet.
Nee dat is niet hoe bedrijven werken. Het is niet alsof het een MKB bedrijfje is waar iedereen een jack of all trades is, en dat je die mankracht overal op kan inzetten. GPUs die vandaag uit komen waren waarschijnlijk al 3-4 jaar terug in ontwikkelfase. Daar zitten hele andere gespecialiseerde teams aan te werken dan diegene die de distributie kanalen beheerd.

En ook die zullen het chip tekort niet kunnen oplossen (outsourced aan TSMC/Samsung). Als je dacht dat GPU's erg zijn, dan moet je eens meekijken naar de algemene tech industry: er zijn genoeg chipfabrikanten die gewoon niets meer in huis hebben. Bestel nu (voor en prijs die 3-4x over de kop is gegaan), en over 18 maanden krijg je je paar microcontrollers en voeding ICs.

[Reactie gewijzigd door Hans1990 op 27 november 2021 19:52]

De extra vram kan ik wel gebruiken op mijn thuiswerk systeem mbt CGI en sculpting. Ik had ook wel een 3080 willen hebben maar het aanbod is beperkt en hier heb ik toch iets meer aan ook mbt toekomst perspectief, blijft zowieso langer nuttig. Ik hoop juist dat de mensen die de kaarten niet voor prof doeleinden gebruiken zich niet direct hierop gaan gooien maarja.. hoop en realiteit verschilt.
Heerlijk nieuws dit, en dan een low profile versie en kan ik me GeForce GTX 1650 LP vervangen, en kan ik alles via HDMI 2.1 doen, ben benieuwd als ze uitkomen of ze ook te koop zijn en voor normale prijs, ben bang dat ze €400 gaan woorden, want de goedkoopste GeForce GTX 1650, kost nu €270.
En dat is nog een goede prijs. Die 16xx serie dingen waren lang ook niet leverbaar en gingen tweedehands weg voor 400+. Ik heb betere kaarten nieuw gekocht voor minder geld, jaren voordat de 16xx serie überhaupt uitkwam. Volkomen absurd waar zelfs de prijzen van verouderde kaarten heen zijn gegaan.
En dat is nog een goede prijs. Die 16xx serie dingen waren lang ook niet leverbaar en gingen tweedehands weg voor 400+. Ik heb betere kaarten nieuw gekocht voor minder geld, jaren voordat de 16xx serie überhaupt uitkwam. Volkomen absurd waar zelfs de prijzen van verouderde kaarten heen zijn gegaan.
Ja het is echt absurd weer die prijzen, de grafische kaarten zijn weer een enorm stuk duurder geworden de laatste maanden.

€1500 voor een Radeon RX 6800 is gewoon absurd, dat is ruim meer dan 2x de originele prijs, de goedkoopste horen €616 te wezen.
eens ja. ik heb 3 jaar geleden een nieuwe rx580 gekocht voir 300 euro. die doen nu 700. volkomen belachelijk.
eens ja. ik heb 3 jaar geleden een nieuwe rx580 gekocht voir 300 euro. die doen nu 700. volkomen belachelijk.
Ja echt, het is een trieste tijd voor PC gaming, zullen daardoor niet veel nieuwe PC gamers bij komen denk ik, de meeste hebben geen €659 over voor een Radeon RX 6600, of €750 voor een GeForce RTX 3060.
Mijn RTX2070 is niet eens meer verkrijgbaar!
Wat een goede tip van je. De laatste keer dat ik keek waren ze inderdaad rond de €400. Beter!
Ik vond 170 bij de introductie al te duur (1650), achteraf gewoon moeten kopen.

Ik hoop dat er weer eens een single slot 75W variant uit komt, handig voor in de NAS
Er zijn op dit moment nog geen low end kaarten met HDMI 2.1 ofwel.
Dit zou de eerste zijn volgens mij
3080 met 12GB GDDR6X?

Dat is zo goed als een 3080 Ti, toch?
3080 met 12GB GDDR6X?

Dat is zo goed als een 3080 Ti, toch?
Niet als de aantal CUDA-cores het zelfde is als de 3080, en Nvidia wou al een tijdje 3070 en 3080 uitbrengen met meer geheugen.

En dat Nvidia weer komt met de GeForce RTX 2060 maar dan met 12GB is gewoon absurd, je hebt totaal niks aan een 2060 met 12GB geheugen.

[Reactie gewijzigd door Jan Koen op 27 november 2021 17:39]

Het gaat er ook niet om hoeveel nuttig ia maar hoeveel chips de architectuur nodig heeft.
Daarom is het 12gb. Voorbeen waren het 6 chips van 1 gb en nu dus waarschijnlijk 6 van 2gb.

De kaart zal simpelweg niet overweg kunnen met 4 chips van 2gb of 8 chips van 1gb.
Het gaat er ook niet om hoeveel nuttig ia maar hoeveel chips de architectuur nodig heeft.
Daarom is het 12gb. Voorbeen waren het 6 chips van 1 gb en nu dus waarschijnlijk 6 van 2gb.

De kaart zal simpelweg niet overweg kunnen met 4 chips van 2gb of 8 chips van 1gb.
Er is geen nut om in een oudere langzamere grafische kaarten meer dan de 6GB te doen die er al in zat, alles boven 6 GB op een 3 jaar (January 15, 2019) oude langzamere grafische kaart, is totaal onzin.
Il snap het wel hoor er zijn games die gewoon haperen en stotteren op 6gb momenteel60fps zonder stotters speelt beter als 60 fps met stotters door een gebrek aan vram.
Ok het zijn er niet veel maar het worden er steeds meer. En aangezien deze gpu crisis nog lang niet opgelost is...
Il snap het wel hoor er zijn games die gewoon haperen en stotteren op 6gb momenteel60fps zonder stotters speelt beter als 60 fps met stotters door een gebrek aan vram.
Ok het zijn er niet veel maar het worden er steeds meer. En aangezien deze gpu crisis nog lang niet opgelost is...
En dat los je met een langzamere GeForce RTX 2060 niet op.
Het zal een directe concurrent worden van de RX6600, voor budget 1080p.
Budget prijzen zijn zo 2019..
Sorry kon t niet laten }>

EDIT: eerder 2017-2018 denk ik :X

[Reactie gewijzigd door Ché Mig op 27 november 2021 17:18]

Tegelijkertijd zou de RTX 3050 minder snel zijn dan de vermeende GeForce RTX 2060 12GB, die op de planning zou staan voor december. Hiermee moet de GeForce RTX 3050 concurreren met de komende Radeon RX 6500 XT
En net zo goed niet verkrijgbaar :+
Ik ben wel benieuwd. 8GB is ook wel fijn met zo'n kaart. Ik heb nog een 980 TI en bijvoorbeeld Gears 5 gebruikt ongeveer 5GB VRAM op Ultra 1920x1440. Dan zou 6 of 8 wel fijn zijn voor zo'n kaart.
Ik hoop wel dat ze een goede voorraad hebben aangelegd en wat voorzorg maatregelen treffen zodat het niet met pallets tegelijk word opgekocht. Dat zou leuk zijn voor iedereen. :)
Ik ben wel benieuwd. 8GB is ook wel fijn met zo'n kaart. Ik heb nog een 980 TI en bijvoorbeeld Gears 5 gebruikt ongeveer 5GB VRAM op Ultra 1920x1440. Dan zou 6 of 8 wel fijn zijn voor zo'n kaart.
Ik hoop wel dat ze een goede voorraad hebben aangelegd en wat voorzorg maatregelen treffen zodat het niet met pallets tegelijk word opgekocht. Dat zou leuk zijn voor iedereen. :)
Bedoel je 2560x1440, heb nog nooit gehoord van een 1920x1440 monitor?
Het is een Iiyama HM903DT Vision Master Pro 454 8-)
Deze resolutie komt ook bijna niet voor. Dus het is niet zo gek dat je nooit van hebt gehoord.
Wow een CRT monitor uit 2002, heb je aangesloten aan een computer uit 2015, en daar speel je je spellen op in 4:3, ehh ok.
Ja het is een beetje oldskool.

Aan de andere kant, er waren al heel lang 'platte' (aan de voorkant) CRT schermen die 120 - 200hz konden doen met 0ms input lag en geen ghosting etc. Voor gamen is LCD qua echte performance pas sinds een paar jaar gelijkwaardig (144hz schermen met 1ms etc.)

[Reactie gewijzigd door PjotterP op 27 november 2021 18:22]

Ok, ik gebruik al jaren LCD schermen en heb al vele jaren geen last gehad van ghosting en zo, ja Hz en 1ms en zo zijn een stuk vooruit gegaan.
"plat" oftewel diamontron/trinitron. Top schermen.
Dit is best handig.
Lage spec kaart maar wel modern.

Niet interessant voor de farmers - hopen we dan.
Dus wellicht nog een beetje betaalbaar.
Het lijkt me toch sterk dat de RTX 3050 3072 CUDA cores zal hebben. Daarmee zit hij véél te dicht op de 3060. Ter vergelijking, de 1660 heeft 57% meer cores (1408 om 896) dan de 1650, met een gelijke clock.

De 3060 heeft 3584 CUDA cores, wat het verschil maar 17% zou maken. Er gaan ook geruchten dat de 3050 slechts 2304 cores zal hebben, wat neer komt op een verschil van c.a. 56% en dus veel meer in lijn is met het verschil tussen de 1650 en 1660. Als we verder terug gaan naar Pascal dan was het verschil tussen de 1050 (640) en 1060 (1152/1280) 80 of 100%.

Ik kan me gewoon niet voorstellen dat ze zo dicht op hun eigen kaarten gaan zitten met een instapmodel. Ook zou een kaart met 3072 Ampere cores (met vergelijkbare clocks als de 3060) beter moeten presteren dan de 2060.

Mijn vermoeden is dat de chip waarschijnlijk wel 3072 cores zal hebben, maar dat een flink deel daarvan is uitgeschakeld. Bij de 1650 werd volgens mij 1/8e van de cores niet gebruikt. 1/8e van 3072 is 2688, 1/4e is 2304. Dat zou Nvidia de ruimte geven voor een 3050 Super en 3050 Ti.
Ik blijf me verbazen over nieuwe modellen die uitkomen en ondertussen is het of niet betaalbaar of niet verkrijgbaar..
wat dacht je anders dat de reden is van oude lijn weer opstarten,

gewoon puur daar waar capaciteit is weer extra bakken zodat het afgezet kan worden ,

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee