Gerucht: Nvidia stopt met productie GeForce RTX 3060

Nvidia heeft de productie van de GeForce RTX 3060 stopgezet. Dat claimt een gebruiker op het Chinese techforum Board Channels. De videokaart zou nog maar enkele maanden te koop zijn. Nvidia heeft de geruchten nog niet bevestigd.

De gebruiker beschikt naar eigen zeggen over 'accurate' informatie en meldt volgens Tom’s Hardware dat de laatste bestellingen van de RTX 3060 voorlopig nog geplaatst kunnen worden. Het is niet duidelijk waar het forumlid de informatie vandaan heeft gehaald. Uit geruchten van eind vorig jaar bleek al dat Nvidia de productie van de RTX 3060 met 12GB geheugen in dit jaar wilde stopzetten.

De Nvidia RTX 3060 kwam in het voorjaar van 2021 op de markt. Het betreft een midrangevideokaart die bij introductie 349 euro kostte. De RTX 3060 bevat een GA106-chipset op basis van de Ampere-architectuur. De gpu telt 3584 CUDA-cores, 112 Tensor-cores en 28 RT-cores. De baseclock van deze gpu ligt op 1320MHz, terwijl de boostclock 1777MHz bedraagt. De videokaart beschikt over een 192bit-geheugenbus en 12GB GDDR6-vram dat op 15Gbit/s draait. De geheugenbandbreedte bedraagt 360GB/s. Tweakers schreef kort na de introductie van het product een uitgebreide review over de RTX 3060.

Nvidia RTX 3060-family

Door Jay Stout

Redacteur

05-08-2024 • 08:54

87

Lees meer

Reacties (87)

Sorteer op:

Weergave:

Eigenlijk ook bizar dat een GPU tegenwoordig nog makkelijk een paar jaar mee kan, zelfs als het een instapmodel is zoals de 3060. Ik herinner me nog van jaren terug dat er ieder jaar wel een nieuwe lijn kwam met een grote sprong in grafische pracht en praal, maar sinds ~2020 lijkt het een beetje stil te staan. Stappen op het gebied van prestaties zijn ook niet meer zo groot als vroeger voor mijn gevoel. Natuurlijk wel logisch dat het allemaal een beetje afremt op een gegeven moment, maar ik heb ook wel het gevoel dat het niet meehelpt dat Nvidia niet echt concurrentie heeft, en AMD en/of Intel niet echt met iets baanbrekends kunnen komen om die concurrentie alsnog aan te gaan.
Ligt dat ook niet een beetje aan het feit dat echte stappen meestal pas worden gezet bij een nieuwe consolegeneratie?

De GPU's blijven gewoon beter worden hoor, daar lijkt geen verandering in te zijn gekomen (kijk naar performance benchmarks die de verschillende generaties GPUI's vergelijken). Dat je deze extra rekenkracht niet meer echt nodig hebt komt eerder doordat de games gewoon een beetje blijven steken op het niveau van PS4/PS5. Vergeet niet dat die eerste nog lang ondersteund werd/wordt en dat de PS5 tot nog niet zo lang geleden slecht verkrijgbaar was.

Spelontwikkelaars willen natuurlijk een zo'n groot mogelijke afzetmarkt, dus games draaien gewoon ook nog goed op minder krachtige hardware, zij het misschien met iets minder mooie reflecties/raytracing e.d.
De graphicsrace van games lijkt ook een beetje te zijn bekoeld. Waar dat vroeger echt nog een selling point was bij games hoor je er nu zelden nog iemand over. Games zien er al lang goed genoeg uit.
Baanbrekende graphics maken is ook duur en riskant, en als daar dan nog eens geen verkopen tegenover staan is dat het niet waard.

Zie ook: review: Senua's Saga: Hellblade II - Bijzonder, indrukwekkend en heel mooi
Meest realistische graphics ooit. Verkocht voor geen meter.
Graphics maken nog geen game.
Mocht er een “The Elder Scrolls” 6 of een “Fallout 5” verschijnen met baanbrekende graphics waar mensen hun videokaart voor zouden moeten upgraden, dan is er wel degelijk een kans dat mensen dit ook zullen doen.

Hellblade 2 was wel een leuke game, maar het blijft een niche markt qua interessegebied. Zet daar nog eens qua tijdsperiode nog andere goede games tegenover, en je hebt een goede maar slecht verkopende game…
Ben ik het helemaal mee eens. Kijk naar bodycam, waarvan de graphics echt bizar zijn. Maar ga je dan kijken naar de reviews, dan valt het echt tegen.

Ik herken mij hier zelf ook in. Veel games waar ik veel uur in heb gestopt, hadden niet echt iets met graphics te maken. De gameplay en/of het mechanisme was gewoon heel tof.
Ik verwacht dat ES6 wel een 5090 gaat nodig hebben om goed te runnen, en dat het er alsnog uit gaat zien als een spel uit 2015.
Als starfield de graadmeter is. Dan heb je waarschijnlijk gelijk.
Games zien er al lang goed genoeg uit
Dat vind ik subjectief hoor. Ik vind dat daar echt nog wel wat stappen gemaakt kunnen worden, zeker als het om vloeistoffen gaat.
Wanneer iets steeds realistischer wordt in videospellen, kan het voor het brein moeilijker worden om dit van de werkelijkheid te onderscheiden. Dit kan leiden tot symptomen zoals misselijkheid en braken. Dit willen developers niet want dan kopen consumenten het product niet
Hoe kom je daarbij, heb je bronnen bij deze claim? Waarom worden we van (cgi in) films en tv dan niet misselijk?

Dat vr iets met je doet ok, maar beelden op een scherm? Klinkt mij erg vreemd in de oren.
Dit artikel gaat vooral over VR, maar is door te trekken naar kijkervaringen op een tv: https://link.springer.com/article/10.1007/s10055-020-00440-y

En het probleem speelt zich niet af in films/series omdat de beeldverversing daarvan een stuk lager is (29 fps). Hoger is mogelijk in films (tot 120 fps), maar dit is maximaal een paar seconden tot een paar minuten omdat men dan alsnog misselijk kan worden.

En verder ben ik in het verleden een arts-klinisch onderzoeker geweest en had ik in mijn poli's ook veel jongeren die naar het ziekenhuis kwamen omdat ze langdurig misselijk waren zonder een duidelijke aanleiding.
Dit onderzoek gaat over emotionele reacties en idd specifiek over VR, dus mij lijkt het op beide vlakken niet relevant (genoeg)?

Als het over VR gaat denk ik direct aan bewegingsziekte, en als TV of film je misselijk maakt denk ik aan gore (een verslag van een openhart operatie of een horror film),

Maargoed, misschien kan ik me het te moeilijk voorstellen, het enige wat mij misselijk maakt zijn tequila en babyluiers.

Trouwens, suggereer je nu dat ontwikkelaars spellen nu al bewust en expres minder realistisch maken om misselijkheid te voorkomen?
Ik weet niet waar de vorige poster het over had, maar er zijn verschillende dingen die in video game design momenteel worden meegenomen en dat veel mensen die nu RTX inschakelen niet volledig verstaan. Het probleem met "betere" graphics is dat veel mensen bedoelen dat iets "helderder" en "meer reflecties" (aka meer licht) in een scene. Niet noodzakelijk meer grafische kwaliteit want 4K is al meer dan ons "oog" (in een bewegende scene) kan doen.

Als je echter dingen helderder en meer wit licht (reflecties) wilt tonen.

- Als je TV niet "juist" hangt/staat dan kun je inderdaad problemen krijgen met bewegingsziekte, nek en oog problemen, dit wordt erger als er veel beweging is, sommige mensen zitten 10cm weg van een 32" paneel, dus moet je constant je hoofd bewegen.

- Dingen die meer licht en meer beweging afgeven hebben een grotere impact op ziektes zoals epilepsie. De meeste "grote" game studios moeten (oa. in de VS) waarschuwingen geven maar ook veranderingen aanbrengen zodat dit een kleiner probleem is voor mensen met een "handicap". Daarmee dat alles meer grijs/donker en cameras minder bewegen relatief met vroeger, omdat hoe meer simulatie van een echte beweging in de scene (zoals vroeger Doom deed met de hand die heen en weer gaat kun je nu realistisch "stappen" namaken), hoe gemakkelijker je hersenen aannemen dat het 'echt' is.

- Veel licht en beweging zelfs op een stilstaand (vooral een groter) scherm bewegend samen met een stilstaand onderwerp in de scene die de speler voorstelt kunnen bepaalde mensen misselijk maken, dat is een truc die oa. race sims en ook bepaalde kermis/Disneyland attracties gebruiken om een gevoel van beweging te geven ondanks dat de omgeving (voor het grootste deel in geval van de attracties) stilstaat, mensen zijn enorm goed om hun locus te verplaatsen naar een simulatie (de bekende rubber hand illusie), maar omdat (net als in VR) de omgeving niet echt beweegt, krijgen je hersenen het signaal van je ogen en de oren in verwarring, de kermisattractie beweegt de vloer een klein beetje zodat je ogen EN de oren de "juiste" stimuli krijgen maar natuurlijk blijft het niet bewegen, voor veiligheidsredenen gaan ze nooit meer dan ~10-15 graden ondanks dat je het gevoel krijgt dat je 90 graden naar beneden valt.

Natuurlijk voor de meeste mensen, als je gezond bent en geen epilepsie hebt is dit geen noodzaak voor een doktersbezoek, stop met spelen voor een uurtje en je voelt je wel beter. Persoonlijk heb ik problemen als de FOV te hoog staat, maar in het algemeen geen problemen, echter VR moet van mij echt 120fps of hoger op hoge resolutie anders word ik misselijk, elke frame drop is zichtbaar en ook input latency is een probleem.

[Reactie gewijzigd door Guru Evi op 5 augustus 2024 21:36]

Mij niet. En ook mijn maag helaas niet. Er zijn games waarbij ik na verloop van tijd moet stoppen omdat ik misselijk word. Overigens heeft dat niet zoveel te maken met de graphics van een game, maar met zaken als de hoek waarmee je de wereld inkijkt. Zo kon ik bij Half Life 2 niet langer dan een minuut of 20 spelen, terwijl Doom 3 geen probleem was.
Had je in HL2 wel met de Field of View gespeeld? Dat lijkt mij nl. boosdoener nr1 als het om dat soort zaken gaat.
Idd vloeistoffen worden nu berekend door de game ontwikkelaar hoe het moet reageren op alles. Maar echt fysiek berekenen door de pc gebeurt nog niet.
Als je hoort dat een teken film computer 1 beeld per half uur doet. Dan weet je dat games op zulke realisme niet mogelijk is.

Wanneer tekenfilm van 2uur in 15minuten klaar is. Dan zal het ook tijd zijn dat games zo eruit kunnen zien.

Voor tekenfilm gebruiken ze ook raytracing en voor vloeistoffen en haren worde allemaal berekend.

Kan goed zijn dat haren in games zo echt lijken doordat iemand stuk software heeft geschreven om het zo uit te rekenen in een tekenfilm
Games die zich op zee afspelen gebruiken over het algemeen toch wel een real-time simulatie tegenwoordig.

Denk aan het prachtige water van Sea of Thieves.
Gebaseerd op dit onderzoek: https://www.researchgate....43_Simulating_Ocean_Water
Zo lang je nog steeds een verschil kunt zien tussen echt en een game. Zijn we er nog niet.
Waarom is fantasy één van de populairste stijlen in literatuur wanneer er evengoed over het echte leven vele boeken te vinden zijn?

We zijn er al heel lang met andere woorden.

Games met ray tracing halen gemiddeld lagere verkoopcijfers dan de gemiddelde AAA game zonder ray tracing. De feiten laten dus niks aan de fantasie over.
Games met ray tracing halen gemiddeld lagere verkoopcijfers dan de gemiddelde AAA game zonder ray tracing.
Ik heb even een vergelijking gemaakt met games van vorig jaar. Technisch gezien klopt het wel maar... Er komen nog heel weinig AAA games uit zonder ray tracing. Daar zitten nou net twee uitzonderlijk goedverkopende games tussen en daardoor word het gemiddelde omhoog gekrikt.
Ik heb te weinig data om te kunnen bepalen of dit een trend is of niet.
Hangt af op welke resolutie je gaat spelen

Ik heb in mijn oude systeem een 2060 super zitten. En dan 2 jaar terug een 4K monitor gekocht. Je moet toch heel wat instellingen naar beneden halen hoor om vlot te kunnen spelen in sommige games. Op het nieuwe systeem een 4070 super met een 7950 3xd gaat dat allemaal een pak vlotter. IK hoeft geen 200fps te halen ofzo. En gamen is bijzaak al ik eens tijd heb. En veel hangt ook af welke games je wilt spelen. Als je constant de laatste nieuwe AAA game wilt spelen met max geweld, dan zal je toch regelmatig moeten upgraden. Als je tevreden bent (zoals ik) met mindere graphics dan upgrade ik eens om de 4 jaar en normaliter kocht ik altijd een 60 reeks, maar deze keer toch maar voor de 70 reeks gegaan
Ik heb deze game ook(uit)gespeeld en er niet direct een euro voor betaald.
Ik vermoed dat in de beginjaren in graphics ook het eenvoudigste de verbeteringen te halen waren. Nu zit je zoals je zegt op het punt "het is goed genoeg" en de nieuwe generatie gamers ligt er precies ook minder van wakker. Zolang er maar genoeg bling bling en instant reward in aanwezig is. Daar lijkt nu vooral de focus op te liggen.

VR heeft ook z'n toptijd even beleefd maar mijn persoonlijke ervaring is dat het toch een beetje een gimmick blijft. Leuk om even te doen en voor bepaalde games, maar echt mainstream zie ik dat niet worden.

Gameplay primeert in mijn ogen nog altijd en een hele hoop gamers is het daar precies ook mee eens, gezien de "simpele" 2d games toch ook goed blijven verkopen.

[Reactie gewijzigd door Powerblast op 5 augustus 2024 19:19]

Toch is het opvallend. Ik speel op 1080p echt alles op ultra op AMD 5600 in combinatie met een rx6600. Gezien de framerates kan ik ook echt nog wel jaren voort.

Dat is grofweg een gaming instapsysteen (misschien zelfs het instap systeem van een jaar geleden...). Dat had je in 2005 echt niet gelukt. Ik was toen aan een config al snel 1200 kwijt en had dan nog echt wel stotters in top games.

En ja dat is op 1080p, maar op een 27inch op een klein bureau gaat dat echt prima.

[Reactie gewijzigd door roffeltjes op 5 augustus 2024 10:18]

Ik draai met een 5600X met een RX 6800 een sim rig.

3x 2K en ik haal bij de meeste games 80+ fps. Alleen flight simulator is wat zwaar haha. Het hoeft niet altijd onbetaalbaar te zijn inderdaad.
Ben ik wel benieuwd welke games je speelt. Speel zelf met een 5800X3D en een 3090 en 3x1440p. Als ik dan wat spellen speel op deze schermen moet ik echt wat instellingen naar beneden bijschalen of DLSS (als het ondersteund wordt) aanzetten om aan de 90/100+ fps te komen. Heb ik dat uit en mijn settings op high dan haal ik eerder 60 fps en met geluk 70.
2k = 1080p jij hebt 1440p

6.9miljoen pixels vs 11.2miljoen of bijna een verdubbeling. Logisch dat je zelf met een krachtige gpu niet dezelfde fps krijgt.
Deels.
De andere reden is dat elke verbeterstap een verveelvoudiging aan verwerking en data vereist. Dus een GPU moet meer verwerken en meer RAM hebben om dat aan te kunnen. En dan is er nog de wens voor snellere beeldverversing waardoor het beeld nóg vaker ververst moet worden.
Nu kun je de limieten een beetje rekken, door bv het max vermogen op te schroeven. Maar op een gegeven moment loop je tegen de max aan die een PC/GPU momenteel kan verwerken en moet je weer een revolutionaire stap maken.

Wat verder ook niet meehelpt, is dat (bitcoin)mining of AI nu het geld oplevert, zodat daar alle verbeteringen en onderzoeken zich op richten. De gamers markt krijgt nu maar de minimale aandacht.
De GPU's blijven gewoon beter worden hoor
De 4060ti is in sommige gevallen trager dan de 3060ti.

Er is wel degelijk oorutigang, maar door stijgende prijzen en sandbagging door nvidia worden die prestatie winsten voor consumenten extreem duur gemaakt.
Yes; ik heb het dan ook alleen over technische vooruitgang; niet over bang for buck. Het is volgens mij vrij algemene kennis dat Nvidia een beetje gesjoemeld heeft met de productnamen van de 40xx GPU's, waar een 4060 eigenlijk een 4050 had moeten zijn, een 4070 een 4060, etcetera.
De sprongen in performance voelen tegenwoordig kleiner doordat de prijzen stagneren. In het verleden kreeg je bij een nieuwe release meer performance voor dezelfde prijs als de oude generatie, daardoor voelde het over een generatie of 2 als vooruitgang.

Sinds COVID en de Mining-craze lijkt het steeds meer op "10% extra performance voor 10% meer geld", vooral in de low-mid range. De 3060 (Ti) en 4060 (Ti) zijn daar een goed voorbeeld van, beiden niet-tot-iets sneller dan de voorganger maar ook gelijk duurder. (De claims van verbeterde performance kwam volgens mij puur uit DLSS/Frame generation). Dan de 7800XT, iets van 3% sneller dan voortganger 6800XT maar dezelfde MSRP, de enige reden dat het een betere deal lijkt is doordat de 6800XT een vermogen kostte tijdens COVID door absurde scalper prijzen.

De €200-300 prijsklasse waar in het verleden de meeste kaarten werden verkocht is nu nauwelijks interessant. De RX 6600 van AMD biedt hier nog een aardige price/performance, maar de opvolger (RX7600) was zo teleurstellend dat ik nog steeds vaak het advies hoor om gewoon de RX 6600 te kopen. (Dat lijkt eigenlijk een lopend thema). Het zou mij niks verbazen als de prijzen van de nieuwe kaarten opzettelijk hoog worden gehouden zodat ze alle oude stock nog kwijt kunnen met een gezonde marge.

[Reactie gewijzigd door Richardus27 op 5 augustus 2024 09:28]

Komt vooral omdat fabrikanten momenteel vooral voor stroombesparing kiezen in plaats van prestaties. RTX 40 bied super veel meer prestaties per watt:
review: Nvidia GeForce RTX 4060 - De kleinste chip voor de grootste doelgroep

Hoewel de prestaties ook wel een redelijke sprong gemaakt hebben met 65 vs 55FPS. Terwijl de RTX 4060 ook minder kost dan de 3060. Wel minder VRAM, dat is wel jammer.

[Reactie gewijzigd door Wolfos op 5 augustus 2024 09:43]

Dat lagere verbruik is inderdaad mooi meegenomen, maar als consument verwacht je qua price-performance toch ook wat. In de review heeft Tweakers dit nog specifiek benoemd:
Heb je geen behoefte aan de features van de RTX 40-serie, dan kun je voor ongeveer hetzelfde bedrag momenteel ook de snellere [RTX 3060 Ti] kiezen.
Je hebt dan misschien een lekker zuinige kaart, maar het feit dat een kaart van de vorige generatie meer prestaties bood voor hetzelfde bedrag toonde duidelijk aan dat Nvidia puur van hun oude voorraad af wilde. Bovendien was er al veel speculatie dat dit eigenlijk de 4050Ti had moeten zijn gezien de prestaties en het lage verbruik, beetje hetzelfde als het 4070/4080 debakel.

Nu zijn de prijzen inmiddels gedaald en zitten we op
RTX 3060 - €270
RTX 3060 - €300

Dus van een 3060 naar 4060 betaal je 11% meer geld voor 17% betere prestaties (volgens Tweakers prestatiescore index). Het klopt dat ie 50 Watt minder verbruikt, maar het is niet alsof 125W tov 170W het verschil maakt tussen koelbaar en onkoelbaar, dat je het merkbaar gaat voelen in de energierekening bij normaal gebruik, of dat er ineens geld kan worden bespaard op de voeding/koeling.

Bij het overgrote deel van de consumenten zal het puur draaien om "hoeveel FPS krijg ik voor m'n geld", en in dat opzicht hebben we tussen de huidige en de vorige generatie (absurde prijzen door scalping daargelaten) weinig vooruitgang geboekt.
Ik zit nog steeds op een RTX2080 OC. Goede koop geweest toen.

https://gpu.userbenchmark...vidia-RTX-2080/4150vs4026
Maar de rx6600 geeft dan ook nog steeds 60+ frames in aaa games.

Het is echt wel een trendbreuk dat je met instap (enthusiast) gaming gpus dit soort performance haalt (en die kaartj is oud...).

Wat meespeelt is volgens mij ook wel dat de stap naar 1080p veel harder ging dan die naar 1440p. Op 27" gaat 1080p prima en de meeste mensen gamen nog op 24". Op een gemiddeld bureau is 24" heel logisch, is 27" prachtig, maar wordt 32" wel heel erg groot. Sterker nog, twee keer 24" is ook een serieus concurent voor business werk... en dan game je ook maar op 1 monitor.

Misschien dat Raytracing het verschil maakt, maar dat is zelfs voor de middleclass nog veel te gek. Ik gok toch dat we nog een paar jaar hebben voordat dat echt mainstream wordt in de meeste games.
Games met ray tracing halen gemiddeld lagere verkoopcijfers dan de gemiddelde AAA game zonder ray tracing.

De AMD RX 7600 is een goede concurrent van de Nvidia RTX 3060.
RTX 3060 is het prijsniveau van de GTX 1060 wat vroeger met veel voorsprong de populairste GPU was.
De RX 7600 ondersteund meer besturingssystemen dan de RTX 3060.
Denk aan Clear Linux, OpenBSD, Alpine Linux, etc.
RX 7600 is ook sneller dan RTX 3060, bovendien voor een lagere prijs ..

De Nvidia GTX 1060 was vroeger ook krachtig genoeg voor alle games vlot op 1080p te draaien, ik zou zeggen dat vanaf dat moment, als je tevreden bent met 1080p hoge instellingen of 1440p medium instelling, dan volstaat een GPU van +- 279 EUR.
Mooi toch! Kan je lekker lang met dezelfde kaart doen! Goedkoper gamen! Zelf zit ik nog op een AMD RX 480. Kan alles nog spelen wat ik wil. Alhoewel een upgrade nodig is als er een nieuwe vette game komt zoals de nieuwe Battlefield.
Ik denk ook wel dat veel mensen een veel te dure kaart in hun pc hebben. Ik ken een aantal mensen met best wel aardige kaarten RTX 3070 of hoger. Maar vervolgens factorio, lethal company achtige spellen spelen.

Ik heb nog steeds een 1060 in mijn pc hangen, en alleen met echt grote spellen, moet ik wat rommelen met de settings, maar is daarna prima speelbaar. Dan praten we over een kaart van 8 jaar oud.
Hier iemand die zijn GTX 1060 6gb naar een RTX 3070 8gb heeft geupgrade. Ik herken mij voor de helft in jouw reactie.

Voor een 1080p 60hz monitor heb je absoluut gelijk. Ik heb echter mijn primaire monitor ook een upgrade gegeven naar een 1440p 240hz model (M27Q X). Dan wordt de 1060 echt wel een bottleneck waar een stabiele 60fps soms al moeilijk is. De games die ik speel waar de nieuwe videokaart echt veel verschil maakt zijn: the witcher 3, hogwarts legacy, anno 1800 en GTA V. Plus een assassin's creed die gratis weggegeven werdt (microtransatie feest)

[Reactie gewijzigd door Ricko1 op 5 augustus 2024 11:08]

Ik ken dat, 7900xt met 7800x3d.
En speel veel c&c weer laatste tijd.
Alhoewel ik soms ook horizon zero dawn en dat soort triple a games speel, maar niet veel..
Ik ben een jaar geleden geüpgraded naar een RX6650XT (vanaf een 1660 Super). Icm mijn machine, een Ryzen 5 3600, kan ik in principe alles nog draaien wat ik wil. Nu ben ik ook geen die-hard PC-gamer maar alles wat ik erop gooi draait ie zonder problemen tot nu toe..
Ik herinner me nog van jaren terug dat er ieder jaar wel een nieuwe lijn kwam met een grote sprong in grafische pracht en praal, maar sinds ~2020 lijkt het een beetje stil te staan.
Dat lijkt zo, maar is niet zo.

900-serie: 2014
10-serie: 2016
20-serie: 2018
30-serie: 2020
40-serie: 2022
50-series: 2024 (https://www.tomshardware....s-gpus-everything-we-know)
Daarvoor kwamen ze een decennia lang wel jaarlijks; Geforce 6600 werd Geforce 7600, dat werd weer een 8800 en dat werd het jaar erna een 9600. Zie Wikipedia: GeForce 9 series

De sprong in performance was echter vaak redelijk beperkt omdat de architectuur zelf dan 2 jaar werd toegepast. Het waren eerder refreshes van het jaar ervoor.
Vroeger had je om de half jaar nieuwe videokaarten.
Snap werkelijk niet waar je dat idee vandaan haalt. De 4090 vs 3090 is letterlijk een verdubbeling van performance.
Snap werkelijk niet waar je dat idee vandaan haalt.
Waar haal jij dan vandaan dat de 4090 letterlijk dubbel zo snel als een 3090 is?

Hij is wel behoorlijk sneller, maar dubbel zo snel? nee zeker niet
YouTube: RTX 3090 vs RTX 4090 - 2 Years Difference
Ik heb het de laatste tijd niet helemaal gevolgd maar vanuit de video is te zien dat er DLSS gebruikt. Is het niet zo dat DLSS voor de 4xxx serie iets van frame gen ofzo gebruikt?

Als je deze kaarten met elkaar zou vergelijken zonder DLSS zit er dan nog steeds zoveel verschil tussen?
Hangt er wat vanaf waar je kijkt.
Gewone raster is iets van een 50% op 4K met raytracing ga je idd naar 100% sneller.
RTX 4090 OctaneBench: score van 1300 tot 1500
RTX 3090 OctaneBench: score 600 tot 750


Dus ja, hij is letterlijk dubbel zo snel.
OctaneBench... echt serieus?

Iedereen weet toch wel dat dit soort benchmarkts 9 van de 10x helemaal niks zeggen over realworld prestaties, dit is al jaren zo in het begin van dingen zoals 3DMarks..

Waarom denk je dat tegenwoordig bijna geen een reviewer ooit nog dit soort benchmarks gebruikt?

ik heb notabene een link geplaatst die laat zien dat hij totaal niet dubbel zo snel is in games en dan kom jij aanzetten met een benchmark waar niemand ooit van gehoord heeft :z

[Reactie gewijzigd door Sinester op 7 augustus 2024 13:34]

Meeste mensen hier kijken naar de 60/70 range. 80/90 is echt te gek voor de meeste mensen.
Dat viel ook wel reuze mee hoor, sinds 2013 draaide ik een 7970, en die kon op 1440p nog prima mee qua grafische pracht tot aan 2019.

Zo groot waren die sprongen niet als je niet puur naar Ultra kijkt.
Ik zie wel een enorm verschil in energieverbruik. Zo verbruikt de RTX2070 320W en de RTX4070 175W.
Misschien zouden ze sneller kunnen zijn als ze ook 320W zouden verbruiken in plaats van 175W, maar minder energieverbruik is ook wel wenselijk met de hoge energieprijzen en gewenste daling van CO2-uitstoot.
Probleem is dat prestaties tegenwoordig gelijk opgaan met wattage. Terwijl heel veel andere elektronica juist zichzelf richt op meer prestatie met minder wattage. Ik zou liever zien dat de volgende stap in evolutie van GPUs met dezelfde prestatie als een 4080, maar die geen 300-400W trekt.
Bepaal je toch echt zelf hoe lang het mee “kan”. Je kan zelfs nog prima gamen op een 1080ti als je het bij 1440p medium houd.
Ja, als je allee op high of ultra wil draaien en 4k wil met hoge framerates moet je inderdaad upgraden.
Sowieso zit er ook gewoon nog steeds een paar jaar tussen generaties bij GPUs. 3xxx kwam uit in 2020, 4xxx kwam uit 2022, en 5xxx komt in 2025 uit.
Vanaf de 1000 series gaat het trager, lijkt me logisch de "easy wins" qua snelheid zijn er allemaal uit.
Net zoals bij CPU's vraagt het nu veel mee rmoeite.
Een heleboel games kwamen tot voor kort ook nog uit voor de PS4. Ik heb zelf een 3060 en hij verslaat met gemak die console generatie.

Er moet geld verdient worden met games. Het heeft weinig zin als je een spel maakt die de meeste mensen niet eens kunnen spelen. Ook zijn games tegenwoordig al gauw 5 jaar in ontwikkeling dus ze zijn grafisch al "verouderd".
en AMD en/of Intel niet echt met iets baanbrekends kunnen komen om die concurrentie alsnog aan te gaan.
De AMD RX 7600 is een goede concurrent van de Nvidia RTX 3060.
RTX 3060 is het prijsniveau van de GTX 1060 wat vroeger met veel voorsprong de populairste GPU was.
De RX 7600 ondersteund meer besturingssystemen dan de RTX 3060.
Denk aan Clear Linux, OpenBSD, Alpine Linux, etc.
RX 7600 is ook sneller dan RTX 3060, bovendien voor een lagere prijs ..

Dus waarom is de AMD RX 7600 dan niet even populair als de oude Nvidia GTX 1060?
In tegenstelling met wat de meeste mensen beweren ligt dit niet aan Intel of AMD maar enkel aan het koopgedrag van de consument.

Je hebt het 'bandwagon effect' dat op jonge generaties nog meer impact lijkt te hebben dan op de oude generaties.
Maar ik heb persoonlijk de AMD RX 7600 en het is een goede GPU en ik ben tevreden over deze GPU die gelijkaardige rekenkracht heeft als de oude GTX 1080 Ti en die meer dan voldoende rekenkracht heeft voor 1080p gaming.

[Reactie gewijzigd door FateTrap op 5 augustus 2024 13:49]

het is voornamelijk de komst van upscale technieken, games worden tegen woordig op 720P en lager gerendered en upscaled naar hogere resoluties. ja dan kan een 9800gt ook langer mee als je games toen de tijd op 480P speelde.
Binnen de markt wordt 'ie ook steeds minder interessant. De RX6650XT en Arc A750 zitten er qua prestaties dicht op of over en qua prijs goed eronder.
't Grootste voordeel van de 3060 is de 12GB VRAM wat het een erg interessante instapper maakt voor productiviteit met de GPU. Voor gamers is dit wat minder relevant, maar sommigen hechten hier ook grote waarde aan.
Inderdaad, een ideale kaart voor mensen die niet professioneel bezig zijn met lagen in photoshop.
Beide genoemde kaarten zijn niet van Nvidia. En bepaalde software verijst een Nvidia kaart om bepaalde rekentaken op de gpu uit te voeren.
Ongetwijfeld doel je op de CUDA-cores en met ZLUDA, wanneer dat steeds beter wordt, gaat die vlieger ook niet meer op.

Bovendien, als je dergelijke rekentaken hebt, heb je, doorgaans, al lang beter spul of hardware toegespitst op die taak.
What's the future of the project?

With neither Intel nor AMD interested, we've run out of GPU companies. I'm open though to any offers of that could move the project forward.

Realistically, it's now abandoned and will only possibly receive updates to run workloads I am personally interested in (DLSS).
Die vlieger van jou gaat inderdaad niet op.
Dat is bijzonder jammer.
Klopt, maar dat zijn er maar weinig en deze kaart is vooral voor gamers populair, waar dat minder relevant is. Tegenwoordig draait het overgrote deel van games ook goed op Intel Arc.
Maarja, als het daar om draait, dan koop je toch geen 3060(meer).
Er is al een RTX 4000 reeks en met de komst van de nieuwe RTX 5000 straks in 2025, snap ik de keuze van nVidia om de RTX 3060 stop te zetten

[Reactie gewijzigd door Van der Berg op 5 augustus 2024 09:43]

Een 5000 series vervanger van de 3060 komt over ongeveer een jaar pas uit. De 4000 series is niet echt een vervanger omdat die allemaal 8GB VRAM hebben. De eerste vervanger is een 4060Ti 16GB en die zit toch wel in een andere prijsklasse.
Tja weinig mensen die gamen op 4K met zo'n kaart vemoed ik, 12GB vram maakt dan weinig uit.
We zien nu al dat 8GB VRAM in selecte gevallen tot problemen lijdt. Het was wel zo dat dit vrij "exotische" opstellingen vereiste (e.g. 4K high VRAM, 1440P Raytracing) maar in een recente video van HUB is toch wel duidelijk dat je nu al met "sensible" settings tegen een VRAM limiet aan kan lopen.

In de toekomst word dit alleen maar erger.
Dat is echt wel cherry picking van enkele nogal slechte ports van games. Ze pushen graag die narrative omdat dit aanslaat bij hun kijkers.

In 1080p is 8gb genoeg ook in recente games. de 3060 was een kaart gericht op 1080p gaming. ZIjn er misschien games dat je van ultra high naar high moet gaan? Kan, zal je echter amper tot niet merken qua graphics .
Je kan het cherry picking noemen, maar slechte ports zijn helaas een veelvoorkomend iets. Je kan niet aan een gamer verkopen dat hij dan maar geen slechte ports moet spelen. Not how it works.
DIt is een budget kaart, de 3060 is 250 euro? 4060 300 euro?
Als je dan in ene handvol games in 1080p of zelfs 1440p de settings iets lager moet zetten moet je er maar bijnemen.
Het betreft een midrangevideokaart die bij introductie 349 euro kostte.
Nee, alle kaarten kosten destijds het dubbele of zelfs drievoudige... MSRP tijdens corona, laat me niet huilen.

Hier... Op zn piek €1000+

[Reactie gewijzigd door Alxndr op 5 augustus 2024 11:04]

Voor als je lokaal een LLM wil draaien is de 12GB variant een betaalbare optie die goede prestaties biedt.
Gaat verassend lang door allemaal die oude generatie.
Wat op zich ook niet zo gek is. De 3060 is een lower/mid-range kaart, waar dus al minder eisen aan worden gesteld dan aan het high/extreme-end (3080/3090) segment.

Kaarten uit die range worden vaak gebruikt voor toepassingen die niet per se het nieuwste van het nieuwste vereisen.

Dan is het prijstechnisch vaak interessant om één generatie ouder, die toch nog supported worden, te nemen.

Ook de voorgangers van de 3060, de 1060 en 2060 zijn op die manier best wel lang mee gegaan eigenlijk.
Wat op zich ook niet zo gek is. De 3060 is een lower/mid-range kaart, waar dus al minder eisen aan worden gesteld dan aan het high/extreme-end (3080/3090) segment.
Dat is toch wel een trendbreuk die het laatste decenium is gebeurd. In het pre 2010 tijdperk was 1080p met 30 fps de maatstaf en dat betekende dat framedrops echt wel heel duidelijk werden. Kaarten gingen echt wel korter mee (klopt ook wel gezien de grotere performance sprongen).
Productie stop != verkoop stop,

dit betekend toch alleen maar dat de voorraad groot genoeg is om de supported productie jaren te voerzien van chips, of mis ik iets. ?
Maanden eerder, tot de 5060 er is en de 4060 nog meer in prijs zakt.
Vanwaar die spec dump in de tweede alinea? Leest een beetje als zo'n AI gegenereerd stukkie bij een auto advertentie.

"Deze videokaart uit TWEEDUIZENDEENENTWINTIG heeft een GA106 CHIPSET en een HONDERTWEEENNEGENTIG BITS..." enfin je snapt hem.

Voegt m.i. weinig toe zonder duiding van de auteur.
verbaasd me nog dat gemaakt word
zitten nu in de eind fase geforce 4000 series
volgende jaar Blackwell series
Ga je niet meer de 3000 serie kopen
Eigenlijk logisch, de 4060 is echt stukken beter, en kost niet veel meer, dus Ik zou iedereen een 4060 aanraden over een 3060. ( En dat terwijl ik een Radeon fan ben 🫣 )

Op dit item kan niet meer gereageerd worden.