'Nvidia stopt binnenkort met productie GeForce RTX 3060 Ti'

Chinese handelaars zouden volgens ITHome een bericht van Nvidia hebben ontvangen waarin de Amerikaanse fabrikant oproept om voorraden van de GeForce RTX 3060 Ti weg te werken. Nvidia zou binnenkort ook stoppen met de productie van deze videokaart.

Volgens de Chinese techwebsite zou het nog enkele maanden duren vooraleer de voorraden van de RTX 3060 TI definitief zijn weggewerkt. Wccftech en Tom's Hardware stellen dat Nvidia met deze beslissing de weg wil vrijmaken voor de aankomende GeForce RTX 4060 TI. Deze nieuwe videokaart zal in twee varianten verschijnen, een versie met 8GB geheugen en een versie met 16GB geheugen. De versie met 8GB geheugen zou op 24 mei verschijnen. De 16GB-versie zou volgens geruchten eind juli in de rekken moeten liggen.

De precieze specificaties van de GeForce RTX 4060 Ti zijn nog niet officieel bekend. De nieuwe videokaart zou onder meer een 128bit-geheugenbus, een AD106-gpu met 4352 CUDA-cores en een boostclock van 2580MHz hebben. Ook zou de gpu volgens geruchten een PCIe 4.0-x8-interface krijgen.

Nvidia bracht de GeForce RTX 3060 Ti in december van 2020 uit. De videokaart kreeg 8GB aan GDDR6-geheugen mee, met een snelheid van 14Gbit/s. De videokaart gebruikt net als de RTX 3070 de GA104-gpu, maar niet alle CUDA-cores zijn actief. De RTX 3060 Ti heeft 4864 cores, bij de RTX 3070 zijn dat er 5888. De videokaart kreeg bij introductie een adviesprijs van 419 euro mee.

Nvidia GeForce RTX 3060 Ti
Nvidia GeForce RTX 3060 Ti

Door Jay Stout

Redacteur

13-05-2023 • 10:56

101

Reacties (101)

101
101
41
3
0
46
Wijzig sortering
Ik ben op dit moment aan het kijken om een nieuwe kaart te kopen, heb nu een Gigabyte Aorus RX580 (eind deze maand is het 5 jaar geleden dat ik deze kaart heb gekocht). Is deze een goede vervanger of kijk ik best naar een kaart van de huidige generatie? Deze 3060 Ti heeft net als mijn huidige kaart 8GB geheugen, dus ik weet niet of deze kaart veel meerwaarde heeft.
Als je alleen 1080p esports titels speelt en maximale FPS daarin wil behalen is een 8gb kaart goed, maar voor de meeste triple A's die nu uitkomen kan je beter 16GB hebben als je niet vast wil zitten aan 1080p. Consoles hebben 16GB dus dat is de standaard waar de meeste games zich op richten.
maar voor de meeste triple A's die nu uitkomen kan je beter 16GB hebben als je niet vast wil zitten aan 1080p.
Je hebt het over de meeste AAA games die nu uitkomen. Kun jij een paar voorbeelden noemen van games die net zijn uitgekomen die niet genoeg aan 8GB vram hebben? Ik ben er pas één tegen gekomen namelijk; The Last of Us Part 1. Maar dat lijkt eerder aan de game te liggen. Zelfs op medium 1080p slurpt die game nog meer dan 9GB.

De impact van resolutie is overigens niet zo groot. Zie ook eerder genoemde game; 9.4 GB op 1080P, 10 GB op 1440p en 11GB op 4K voor de medium settings. Met ultra wordt het 13.1, 13.3 en 14.7.
Kun jij een paar voorbeelden noemen van games die net zijn uitgekomen die niet genoeg aan 8GB vram hebben?
Ik heb het idee dat je de laatste tijd juist met een lantaarntje moet zoeken naar AAA games die je wèl op Ultra kan draaien met 8GB VRAM.
Hogwarts draaide hier gewoon prima op 1440p met een 3060ti
Met medium settings lukt dat nog net inderdaad, maar dat is nou net ook het hele punt:
Je speelt zo'n game op PC en op zo'n resolutie bij voorkeur niet op medium instellingen omdat je dan een behoorlijk deel van alle 'pracht en praal' van de huidige nieuwere (en uiteraard helemaal van de nog komende) AAA games mist.

Games naar medium of low zetten doet men graag bij CS:GO, Fortnite, e.d. maar dat heeft hele andere redenen (meer fps) die daar (begrijpelijk) voorrang hebben op 'pracht en praal'. Bij AAA games is settings naar medium zetten gewoon een 'noodgreep', je wil het liever niet maar je videokaart met te weinig VRAM dwingt je er toe...

Geef het nog 3-4-5 jaar en we hebben het misschien al over ongeveer 1080p low settings (en/of flinke upscaling evt. met frame toevoegings fratsen...) met 8GB VRAM in de dan nieuwste AAA games. De tijd van '8GB is altijd wel genoeg zonder compromissen voor lief te nemen' is nu gewoon verleden tijd.
Veel mensen boeit het grafische verschil tussen medium en ultra echt helemaal niks, zolang het maar lekker speelt.
Dit dus, vaak zie ik het niet eens. Vroeger kocht ik ook de duurste kaart. Maar ik ben er nu wel achter dat ik dat helemaal niet nodig heb. En de meeste games draait die 3060ti gewoon prima op ultra op 1440p dus dat medium slaat ook de plank mis
... En de meeste games draait die 3060ti gewoon prima op ultra op 1440p dus dat medium slaat ook de plank mis
Ik sla de plank mis? Wie schreef er:
Hogwarts draaide hier gewoon prima op 1440p met een 3060ti
Jij...
En dat kan native op 1440p alleen op medium, dat jij daar 'geen probleem mee hebt' doet aan dat feit niets af. ;)

Het gaat (uiteraard) ook nog helemaal niet over "de meeste games" (want dan praat je automatisch over oudere games en niet over 'nu/toekomstig') die zijn immers logischerwijs voor 8GB VRAM (of minder) videokaarten gemaakt. Het gaat om de AAA games van nu en die van de toekomst; dat is waar 8GB VRAM aantoonbaar snel aan relevantie verliest, dat is geen 'kwestie van mening'... En al helemaal niet "de plank mis slaan". :+

Mijn 5700XT (ook 8GB) doet het nu ook nog heel prima, maar dat is net zo 'besides the point' (niet relevant voor het onderwerp van gesprek)...
Ik ben het wel eens met @Dazzyreil en @Silence.
Alle screenshots die meestal deel uitmaken van een marketing plan, dat zijn stilstaande beelden en daar heb je dus tijd voor om ze te onderzoeken welke details er allemaal zijn. Als je een spel aan het spelen bent echter beweeg je rond en merk je heel veel van die details niet eens. Je hebt dan enkel een vrij algemene indruk dat iets er al dan niet goed uit ziet. Af en toe valt je dan iets op, en hoe je daar dan op reageert hangt vooral af van de kwaliteit van het verhaal, spelmodus, etc. Als je het een superleuk spel vindt zal je een akkefietje wel sneller vergeten dan wanneer je zit te balen omdat het spel dat je speelt voor de zoveelste keer crasht.

De meeste gamers zijn misschien niet eens zo bezig met instellingen en aanvaarden wat het spel of hun systeem "by default" adviseert. Is daar al onafhankelijk onderzoek naar gedaan?
We zitten nu op een ander moment.
De eerste next gen only games druppelen binnen en het vram gebruik is niet mals.
Ik speel games op 1440p en altijd op high, nooit ultra en games zoals Redfall(ja verschikkelijk spel, maar toch) gebruikt maar liefst 17.5gb op piek en 16 bijna constant. Dit zorgt dat de game zelfs flink kan stotteren op een 4080.

1 game, okay, maar de laatste 5 AAA gebruiken allemaal dik 12gb.

8gb is misschien "te doen", maar niet soepel. Ook niet op medium(getest, vram gebruik gaat amper omlaag)
Ik ben het er mee eens dat 8GB weinig is eigenlijk nu niet meer kan (zelf gebruik ik mijn GPU voor AI dus RAM is heel belangrijk).
Maar hierboven wordt er geclaimed dat sommige games niet genoeg hebben aan 8GB omdat ze dan op medium moeten draaien. Gezien het verschil tussen medium en ultra vaak niets meer is dan een paar schaduw en licht effecten zie ik dat niet als "gamen op medium werkt niet".
Volgens mij is het vram tekort meer een probleem qua texture kwaliteit en niet echt voor de visuele fx en 3d functies
Wat krijg je als de texture kwaliteit van je elementen in beeld (veel) lager is (of moet) al dan niet vanwege VRAM beperkingen)?
Minder 'pracht en praal' (of 'mooi', of een andere omschrijving)...
Bij 3d gaat het vooral om andere dingen dacht ik maar goed misschien loop ik achter
Denk ga toch eens kijken wat ik heb in task manager:

GPU Memory: 42GB
Shared GPU Memory: 32GB
Dedicated GPU Memory: 10GB

Google zegt dat een 3080 12 GB heeft. Beetje verwarrend, maar het zal wel een 10GB versie zijn dan.

Beetje gek als die kaart nu al in problemen zou komen met wat hogere settings/resoluties..
Ik kon even geen betere link vinden (zit op telefoon), maar er zijn twee versies van de 3080 uitgebracht. De 12GB is later uitgekomen.
Klopt zo een heb ik er.
Hogwarts Legacy; denk dat ik oud wordt, RTX2080, 1080p, ultra settings tegen de 60 Fps of net boven de 60 Fps. die 1440p ook nog niet nodig gezien ik meer Fps games speel
Bij Hogwarts Legacy is er ondertussen een update uit, waarbij de game niet meer gigantisch stottert als die uit zijn VRAM loopt.

Wat er in plaats hiervan gebeurt is dat er textures voor hele lage resolutie varianten wordt vervangen (bron: Hardware Unboxed). Dat is een heel stuk minder merkbaar, maar het neemt niet weg dat 8GB VRAM voor deze game erg krap is.
ik had eigenlijk helemaal geen last van stotteringen, vanaf dag een al dat ik speelde (week na release) eigenlijk al dat vele gebieden alles om mij heen in lage resolutie gerenderd word en langzaam update naar hogere resolutie zoals jij verteld.
werd wel echt bloed irritant met name als je vaak zelf ergens op pad ging, je kan als ware beter fast travelen en paar seconden wachten. Maar desondanks als je gaat vliegen maakt het niet uit als alles na landing pas scherper wordt.
Zie bijvoorbeeld deze video van Hardware Unboxed: https://www.youtube.com/watch?v=Rh7kFgHe21k

Maar Moore's Law Is Dead heeft ook 2 interviews met game devs, en de relevante conclusie met betrekking tot deze discussie is dat 8GB VRAM mager is richting de toekomst.
Ik ben er pas één tegen gekomen namelijk; ...
Het heeft weinig zin om 'je kop in het zand te steken', zie de link naar Hardware Unboxed dat is een serieus te nemen bron, ze zijn erg goed in wat ze doen; veel kennis, ervaring en contacten. Die weten echt wel waar ze het over hebben!
Met ultra textures loop je al heel snel tegen 8GB aan, zelfs op 1080p
Meer games kopen en proberen want er zijn er wel degelijk meer.
Consoles hebben 16GB, ja ok, maar dat is gedeeld RAM en VRAM. Die vergelijking kan je echt niet zo even maken. Een moderne pc heeft minstens 16GB RAM (of vaak 32) én dan nog het VRAM op de videokaart.
Doordat het gedeelt geheugen is wordt het ook veel efficienter gebruikt (je hoeft bijv. een texture niet op 2 plaatsen op te slaan en het is al in het juiste formaat). Daarnaast hebben de consoles ook veel betere IO en is het streamen van dingen gewoon sneller en beter. Als een PC het equivalent wil doen van een PS5 bijvoorbeeld dan heb je inderdaad 12-16GB video geheugen nodig naast nog eens 16-32GB normaal geheugen en een ssd en cpu die een heel stuk sneller is dan in de consoles zit.
De PS5 heeft speciale hardware die in staat is om data vanaf de SSD middels een boel priority queue's te streamen, om dat op de pc te doen heb je een SSD nodig die een heel stuk sneller is omdat hij die priority queue's mist en daarvoor moet compenseren. Daarnaast heb je nog eens 8 extra cores nodig om het streamen van die data mogelijk te maken (naast de Kraken compressie die ze gebruiken).

Als je interesse hebt waarom de IO beter is op consoles zou je de volgende interessante presentatie van Mark Cerny kijken over de PS5.
https://www.youtube.com/watch?v=ph8LyNIT9sg

Nu pak ik de PS5 als voorbeeld, maar ook de Xbox heeft leuke trucjes.

[Reactie gewijzigd door Sp3ci3s8472 op 23 juli 2024 08:47]

De PS5 heeft speciale hardware die in staat is om data vanaf de SSD middels een boel priority queue's te streamen, om dat op de pc te doen heb je een SSD nodig die een heel stuk sneller is omdat hij die priority queue's mist en daarvoor moet compenseren.
Is dat niet gewoon Direct Storage?
Direct Storage doet het inderdaad dan op de gpu ipv cpu, dus dat is al een verbetering. Nog niet veel spellen ondersteunen het helaas en ik dacht dat het nu nog alleen op Windows 11 is (maar ik laat me graag verbeteren).
Het is nog steeds niet hetzelfde als gedeelt snel geheugen (vergeleken met normaal geheugen).

Ik kan mij herinneren dat @DaniëlWW2 dit ergens in een andere post had uitgelegd in veel groter detail.
Ik snap heel goed dat een console op elk vlak efficienter is dan een desktop. Qua hardware en software. Maar ik ga niet mee in je bewering dat een desktop 28-48GB geheugen nodig heeft om hetzelfde trucje als een console met 16GB te kunnen doen. Dat vind ik echt een te groot verschil, uiteindelijk heeft bijv. een texture toch echt een bepaalde hoeveelheid geheugen nodig. Of wordt die texture inderdaad eerst in RAM geladen vóór deze naar VRAM gaat? En als dat al gebeurd, is dat dan niet juist ómdat er vaak zat RAM beschikbaar is op een desktop. Ik ben zeker benieuwd of je hier ook een goede bron van hebt, ik laat me graag verrassen :)
Zie de reactie van Daniel onder die van mij. Die legt dat juist uit, met betrekking tot Direct Storage wat dat probleem voor een gedeelte oplost.
Zonder direct storage gaat het inderdaad eerst naar het normale geheugen en dan pas na decompressie naar het videogeheugen.
Consoles hebben 16GB, ja ok, maar dat is gedeeld RAM en VRAM. Die vergelijking kan je echt niet zo even maken. Een moderne pc heeft minstens 16GB RAM (of vaak 32) én dan nog het VRAM op de videokaart.
Klopt, maar schijnbaar hebben consoles geen ram geheugen nodig :+, echt zon riedeltje dat maar herhaald wordt door iedereen. daarnaast heeft de Xbox s minder geheugen, maar dat vergeten we ook maar even.
Een aangepast OS vergelijken met een volledige OS yeah right.
"The Xbox Series X affords 13.5 GB of total shared RAM, 10GB of which is optimal for graphics data. There's nothing inherently stopping a developer from using the slower 3.5GB of RAM for graphics, but it's going to hamper performance if they do. It's 9GB of shared RAM, not 9GB of VRAM. 3GB is reserved by the system"

Xbox S
It ships with 10 GB of RAM, with 8 GB running at 224 GB/s primarily to be used with the graphics system and the other 2 GB at 56 GB/s to be used for the other computing functions, and a 512 GB SSD storage unit with a raw input/output throughput of 2.4 GB/s.

Als we dus de Series-S aanhouden voor 1080p gaming, dan is 8GB vram voldoende voor de nieuwe games. Mits de ontwikkelaars goed poorten naar de PC.
Dat laatste zinnetje zeg je het al
"Mits de ontwikkelaars goed poorten naar de PC."

We weten allemaal dat het niet zo is en de praktijk wel 9-11gb vram nodig, een dure kaart met 8gb vram waaronder de GTX4060 zou een miskoop kunnen zijn gezien die snel zal verouderen.

Nu kan Windows het ook naar je ram geheugen gooien maar doordat er nog veel mensen zijn die denken "16gb ram is voldoende" kunnen ze dus van koude kermis thuiskomen als ze ook een kaart met eigenlijk tekort aan vram hebben, game,s die tegen 16gb ram aantikken zijn er al.

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 08:47]

Als een eigenaar van een 3060TI met een 1440p scherm kan ik met volle overtuiging zeggen dat het niet zo extreem is als je nu stelt. Ik kan prima moderne spellen op high (en vaak zelfs epic) settings draaien zonder probleem.

Op het moment dat ik dit niet kan heeft dit meestal niet te maken met de hoeveelheid ram. Dat gezegd hebbende, ik zou op dit moment niet direct een 3060TI kopen. Ik heb die van mij aangeschaft omdat het indertijd de enige enigszins betaalbare optie was. Er is op dit moment meer keuze en volgens mij zijn de AMD kaarten op veel vlakken een beter alternatief.

[Reactie gewijzigd door Creesch op 23 juli 2024 08:47]

Ik sluit me helemaal bij Creesch reactie!
ik heb er zelf ook aan zitten denken, maar met een beetje geluk komt eind deze maand de 7600 uit van amd als de lekken kloppen (helaas met maar 8gb) maar de 7700 zou ook een optie kunnen zijn wanneer die op de markt komt die zou met 10 of 12 gb uitkomen.
Spellen als Hogwarts Legacy gooien letterlijk constant textures weg en moeten ze reloaden omdat 8gb niet genoeg is.

Tevens is VRAM gebruiken vaak efficiënter dan alles on the fly berekenen. Al met al gebruiken games steeds meer VRAM en over een jaar of twee is 8GB niet meer genoeg voor moderne games.
Ja leuk maar je kan ook de textures hier en daar een tandje lager zetten dan heb je aan 8GB genoeg, zeker op 1080P :)
Ja voor een 3060ti wel ok maar beetje zonde voor een 4060. Alsof je een Ferrari motor in een autootje met hele kleine wielen plaatst.
Je bedoeld die databus van 128 bit, ja dat is een flessenhals, een 3060TI heeft 256 Bit. :)
16GB is een beetje overdreven. 8GB kan je de meeste games gewoon op Medium-High draaien. Zelfs op 1440p.
12GB is aanbevolen en 16GB is voor de gene die alles op Max wil draaien met 4K.

En game zoals RE4 Remake heb je geen 16GB nodig. Ik heb hier een oude laptop met een 2080 en dat draai ik gewoon met high textures. En MSI Afterburner geeft aan dat ik zo'n 7GB gebruikt op 1440p.

Zolang je niet alles op Max zet kan je prima met 8GB doen. Natuurlijk meer VRAM is altijd beter. En als je een nieuwe GPU wil halen, dan zal ik persoonlijk er één kiezen met 12GB.
Als je van het Rode Kamp komt is de rx 6700 xt een waardige opvolger met 12GB. Als je nog heel even wacht kan je kijken of de rtx 4060 ti of rx 7600/7700 een betere waarde bieden.
6700 of 6800 die range van kaarten is een betere value
Ik zou beter even wachten op de rx7600, de 3060ti is ondertussen al een vrij oude GPU. De huidige RX6600XT is ongeveer even snel als de 3060ti, maar kost minder, de rx7600 zal iets duurder wezen, maar ook een stuk sneller zijn.
Zelf ben ik met mijn recentelijke upgrade voor de 6800 van AMD gegaan. Ik hoef niet per se het laatste van het laatste of ray tracing. Maar dat zijn persoonlijke keuzes. Wat ook wel meespeelde was dat AMD 16 GB ram aanbod. Gezien dat nieuwe games steeds hongeriger voor geheugen zijn leek het mij de betere keuze om voor 16 ipv 12 of 8 te gaan. Zo kan die kaart hopelijk ook weer vijf jaar of langer mee (kwam van een 380, of was het nou een 390,... geen idee meer).
Lekker wachten, je ziet dat kaarten momenteel wekelijks goedkoper worden. Waar dat eerst alleen maar duurder werdt.
Ik zou op dit moment geen 3060 Ti meer kopen. Sowieso doet Nvidia nauwelijks aan prijsverlagingen tijdens de levensduur van kaarten, dus kun je wanneer binnenkort de nieuwe generatie uitkomt beter daarop wachten. Bij AMD is het anders omdat die vaak wel stevig met de prijs zakken.
Ik zou gewoon de RX580 met 8 GB door blijven gebruiken. Ik heb zelf een RX580 met 4 GB van het merk Sapphire Pulse mmaar gebruik dit alleen voor Office en wat fotobewerking. Voor mij is dit snel genoeg. Ik zou er geen geld meer voor uitgeven en de fabrikanten rijker maken. De RX580 voldoet nog goed.
Tjah voor Office en fotobewerking volstaat een APU/iGPU ook, als dat het doel was vanaf het begin had je beter een APU/iGPU aan kunnen schaffen. Goedkoper in aanschaf en goedkoper in gebruik (verbruik).

Sterker nog, je had tijdens de mining bubble dikke winst kunnen maken. Ik heb mijn RX 580 die ik voor £140 had aangeschaft tijdens de mining bubble verkocht voor £320. Tijdens dezelfde periode kon je alsnog goedkoop een APU/iGPU aanschaffen voor een zacht prijsje.
Aangezien je op het moment een AMD kaart hebt zou ik daar gewoon bij blijven. Als ik de prijsvergelijker erbij pak en filter op de RTX 3060 TI en AMD kaarten die minstens gelijkwaardig aan de RTX 3060 TI presteren en op prijs sorteer.
Dan kom ik de RTX 3060 TI tegen voor op zijn minst €400. Voor hetzelfde geld of iets minder heb je een RX 6700 XT, een krachtigere kaart dan de RTX 3060 TI en als kers op de taart krijg je er nog een extra 4GB aan VRAM erbij.

Als je van plan bent om een CPU uit het RX 580 tijdperk te blijven gebruiken vergeet dan ook niet tweakers.net eigen testresultaten, een AMD kaart is vriendelijker voor je CPU.
Mijn CPU en mobo enzo zijn vorig jaar vernieuwd. Enkel mijn grafische kaart loopt nog wat achter eigenlijk. En lijkt een beetje een bottleneck te worden.
Ik zit in hetzelfde schuitje, maar ik laat deze generatie aan mij voorbij gaan, ik wacht de specs af van RTX 5000 en/of AMD 8000 serie, zijn ze goed, dan ga ik mezelf voorbereiden om er eentje te scoren. Eens in de 6 jaar lijkt me ok betreft videokaarten.
Anoniem: 125883 @Robinho9613 mei 2023 21:36
Ik had onlangs nog een RX5600XT. Die had 6GB VRAM. Bij Stable-Diffusion liep ik toch wel snel tegen de limieten op van die kaart.

Ik heb toen deze gevonden via pricewatch: uitvoering: Gigabyte GeForce RTX 3060 Gaming OC 12G (rev. 2.0, LHR)

Erg tevreden van die aankoop. En het ding trekt Star Citizen in 1440 ultra high (clouds high) tegen 40-70 fps. In 1080 draait het uiteraard beter, maar voor game photography met ReShade filtertjes is 1440 toch iets beter.
kijk even in de BBG daar ga je al wat hints vinden en kan je staven met de verwachtingen. Want in forum ga je sowieso antwoorden krijgen op basis van eigen meningen die mogeljiks niet echt passen bij je eigen gebruik/verwachtingen.
Je hebt wel degelijk 16GB VRAM nodig voor hetgene wat vandaag beschikbaar is in High/Ultra (Hogwarts (omdat ik hier mensen over zie typen), Diablo 4 en toekomstige games), mensen die zeggen van niet zijn dezelfden die een decennia lang zeiden dat 16GB RAM (niet VRAM) meer dan genoeg is terwijl zelf het dubbele niet meer genoeg is, dezelfde mensen die zeggen dat de ogen van de mensen niet meer kunnen zien dan 30 fps, doe wat meer research en je zal wel rap zien dat je 64GB ram nodig hebt en 16GB VRAM, anders zal je al de volgende maanden met nieuwe games alles op low/medium moeten spelen om 60FPS te halen zonder fps drops.

Edit: Diablo 4 op ultra ging zelfs tot 19GB VRAM -> Out of Memory crash

[Reactie gewijzigd door BigLeBluffski op 23 juli 2024 08:47]

3060ti is dan ook een prachtige “high end” middenweg voor een goed betaalbare prijs, waarmee je sowieso op 1080p voluit kan gaan, maar zeker ook op 4k prachtige dingen op je scherm kan krijgen.

Het is gewoon een prima kaart.. en dat moeten we niet willen natuurlijk want de plebs moeten wel de aandeelhouders blijven spekken.
Productie stop van vorige generaties net voordat de nieuwe wordt uitgebracht is volledig normaal. AMD en Nvidia doen dat al heel lang zodat ze niet met een lading onverkoopbare GPU blijven zitten.

Waarom is het in dit geval anders volgens jou?
Ik denk dat NVIDIA wel een duo-strategie gaat behouden en als je kijkt naar de slide die ze tijdens CES 2023 hadden gepresenteerd, dan zie je wel duidelijk dat er een 60-70-80 series aangeduid wordt onder de RTX family.

Timestamp video (14:17): https://www.youtube.com/watch?v=CJWZuZsD0zQ&t=864s
The RTX 40-series is the ultimate GPU for serious gamers and creators. The RTX 30-series continues to be the best GPU for mainstream gamers.
IMG: https://cdn.mos.cms.futurecdn.net/ByauRwD3Hi2HL2KZWaaEfA.jpg

De RTX 3060 Ti heeft de GA104-chip die tevens ook gebruikt wordt voor de 3070-3070 Ti (en andere producten); https://www.techpowerup.com/gpu-specs/nvidia-ga104.g964
Yields kunnen opzich wel verbeterd zijn dat ze besloten hebben om de 3060 Ti te schrappen aangezien het in de product segment ook dichtbij de 3070 komt, maar toch net iets goedkoper (het is een populaire GPU).

Vooral met de GPU markt nu, de chip markt en de hoge kosten om op een nieuwe node process te gaan zitten denk ik dat bedrijven de oude generatie nog blijven verkopen.
Nvidia verkocht juist jaren aan allerlei oudere kaarten voorheen.
Dit sinds de 30 series is juist iets nieuws, zo snel mogelijk uitverkopen en hop op naar de nieuwe die 3x duurder zijn waarvan je dan moet afvragen of het iets toevoegt.
Zometeen komt de 4060 uit met betere performance voor een lagere prijs.
De price/performance van de 40xx serie is niet denderend maar nog steeds beter dan 30xx.

[Reactie gewijzigd door Wolfos op 23 juli 2024 08:47]

Voor een lagere prijs :+
mee eens. Ik heb er een en ik speel alles op 1440p op hoge settings. Tot nu toe heb ik gen last gehad van 8Gbyte. De kaart heeft tegelijkertijd geen heel hoog vermogen nodig, en is goed te manipuleren met undervolten of overclocken. Zeer tevreden mee. Tegen de tijd dat 8Gbyte echt te klein is koop ik wel een 4060ti 16 Gbyte iof iets dergelijks. Of eens een keer een AMD kaart, zou ook kunnen.
Het aandeelhouder argument zegt genoeg over je kennis er van.
Wil jij dezelfde inkomsten als 5 jaar geleden?
Nee, iedere fiscaal jaar moet het meer zijn dan het van ervoor.
De illusie van oneindige economisch groei is wat letterlijk de maatschappij en de planeet verkloot.
NVidia haalt elke generatie weer een betere FPS/Watt verhouding. Als je de schuld ergens wil leggen, dan is het bij game-makers die steeds minder FPS uit dezelfde hardware halen, en gamers die steeds meer pixels/frame willen. 4K vreet gewoon vermogen en transistoren.
“ want de plebs moeten wel de aandeelhouders blijven spekken” wordt zelf aandeelhouder, en mogelijk ben je dat via een pensioenfonds al.
4k prachtige dingen op je scherm kan krijgen? Pixels bedoel je...

als iedereen zou denken over je "highend " middenweg... waarom koopt er iemand dan uberhaopt een AMD x800 reeks of een nvidia x070-80 reeks...
Omdat mensen altijd denken dat nieuw is beter, is niet perse zo.
Gezien de technologie meer richting AI aangestuurde graphics gaat, waarbij het niet langer draait om pure kracht maar om verrassend laagdrempelige efficiëntie zoals je dat mooi ziet bij DLSS 2.0 en 3.0 inmiddels.
Hopelijk binnenkort een flinke prijsdrop op de 3060ti en 3070's of zou Nvidia bewust schaarste proberen te creëren?
Nvidia probeert een te groot aanbod aan 3060 Ti-kaarten te voorkomen, omdat dat zou resulteren in veel lagere verkoopprijzen voor de 3060 Ti. Dat zou de door Nvidia gewenste verkoopprijzen voor de 4060 Ti in de weg zitten. Het is dus niet zozeer schaarste creëren, maar vooral voorkomen dat het tegenovergestelde van schaarste ontstaat.
Schaarste wellicht soort van, je wilt van de oude generatie af (dus logisch als je een nieuw product hebt je de productie van het oude op den duur stopt).

Als je teveel voorraad hebt dan moet je het nieuwe product wellicht voor meer verkopen (maar zelfs dan stel 10% maar 30% sneller, wie koopt dat de oudere). Dus dan ga je gewoon met jezelf concurreren. En blijven zitten met oude voorraad kost je ook een hoop. Productie kosten, opslag, met de dag lagere dagwaarde. Dus geheel logisch dat ze die productie lijn eruit halen.
Wccftech en Tom's Hardware stellen dat Nvidia met deze beslissing de weg wil vrijmaken voor de aankomende GeForce RTX 4060 TI.
Beetje vreemde formulering, het klinkt nu alsof Nvidia denkt dat de 4060TI niet te verkopen is zolang de 3060TI nog te krijgen is. Ik vermoed dat ze vooral het signaal willen geven dat winkeliers moeten oppassen dat ze niet met onverkoopbare voorraden 3060TI komen te zitten.

Meestal betekent de aankondiging dat men stopt met de de productie eigenlijk "koop nu snel nog wat extra voor het te laat is". In deze context zal dat vooal zijn voor computerbouwers die modellen verkopen met een 3060TI en contractueel verplicht zijn om nog een tijd lang precies die PC te kunnen leveren.
De 4060ti gaat sowieso beter verkopen als de 3060ti niet meer te koop is. Voor de lauch van de 4060ti is het dus gunstiger als de 3060ti niet meer te koop is. Dus in die zin maken ze de weg vrij (nemen hobbels weg) voor de 4060ti.
Het probleem is volgens mij dat Nvidia zich steeds vaker in de weg zit met het uitbrengen van zoveel verschillende kaarten. Het probleem is dat de max die mensen willen uitgeven aan een kaart is bereikt. Echter zou volgens de tendens iedere nieuwe kaart die beter is weer duurder moeten zijn. Het is zeer onlogisch dat je de 3060 en 4060 langs elkaar verkoopt voor dezelfde prijs. Het probleem is echter dat videokaarten altijd een prijs krijgen op basis van de prestatie waarbij oudere series niet perse goedkoper worden. Door steeds allerlei tussen releases te doen van kaarten die ergens tussen 2 andere in vallen uit huidige of vorige series betreft performance maakt het lastig om de prijzen allemaal nog kloppend te houden zonder met je hele lijn steeds duurder te worden. De enige manier om dit op te lossen is om ervoor te zorgen dat de vorige serie niet meer leverbaar is en dan de nieuwe voor ongeveer dezelfde prijs uit te brengen als zijn voorganger. Nu heeft Nvidia altijd de tendens gehad om de nieuwe lijn weer duurder te maken dan de vorige waardoor je weinig last hebt van dit probleem. Echter nu de prijzen onder druk komen te staan omdat mensen geen 2000 euro willen neerleggen voor een videokaart zal Nvidia en misschien ook AMD iets moeten doen om de prijs te (kunnen) drukken zonder dat mensen vragen gaan stellen over... waarom is de 4060 duurder dan de 3090 die veel sneller is.

Dit is voor nvidia op dit moment volgens mij een constant geworstel met voor welke prijs welke kaarten verkocht moeten worden waarbij alles performance wise op de juiste plek in het rijtje blijft staan.

Je kunt uiteraard als nvidia gewoon de nieuwe kaarten voor dezelfde prijs aanbieden en zeggen tegen je verkopers ja sorry verkoop die oude meuk maar voor minder. Maar dit is denk ik een strategisch betere manier om ervoor te zorgen dat je wederverkopers blij blijven. Anders ga je als fabrikant concurreren met je eigen klanten.

[Reactie gewijzigd door sygys op 23 juli 2024 08:47]

vreemd dat ze de productie nog zo lang aanhouden, wat eerder zou duiden op onvoldoende productie van de AD106.
De vraag is wat ze in dit geval bedoelen met productie. Het produceren van de chips staat los van de assemblage. De chips zelf worden na productie getest en gesorteerd op basis van kwaliteit. Zo gaan bijvoorbeeld de allerslechtste GA103-chips in sommige 3060 Ti's, maar gebruiken ze daar ook GA104-chips voor. Al worden ook vaak 'te goede' chips gebruikt voor minder snelle kaarten als daar veel vraag naar is.

Over het algemeen houden de fabrikanten vooral voorraden aan van de chips zelf en assembleren ze die zo laat mogelijk voordat ze uitgeleverd worden. Op die manier kunnen ze beter inspelen op de marktvraag. Zo gaat de GA104-chip in alles van de 3060 tot de 3070 Ti. Als er opeens heel veel vraag is naar de 3060, bijvoorbeeld omdat mensen besluiten dat 12 GB VRAM erg belangrijk is, kunnen ze dan meer GA104 chips daarvoor gebruiken, ook al zijn die chips eigenlijk te goed daarvoor.

Nvidia heeft al heel lang erg grote voorraden en ze hebben ook aan de investeerders verteld dat ze Ada langzamer uitbrengen omdat ze eerst de voorraden van de 3000-chips moeten wegwerken. Dus vermoedelijk gaat de productie van AD106 prima (dit is ook een erg kleine chip die gemaakt wordt door TSMC, die bekend staat om hun goede productieprocessen), maar lagen er nog gewoon veel oude chips op de plank die eerst verkocht moesten worden.
De 3060ti hier met tevredenheid in gebruik voor de aanschafprijs een goede kaart.
Alleen met de 8GB VRAM niet toekomst bestendig. Heb zelfs games die al de 11GB van mijn 1080ti benutten.
Het is natuurlijk een 2.5 jaar oude kaart die onderaan de mid-end hangt. De 3070 ti met 8 gb is nu best zuur in sommige titels. De 3060 ti is juist geweldig, je weet dat je op 1440p toch een paar settings moet terugzetten en de 3060 ti zit veel dichter tegen de 3070 aan dan tegen de 3060. Zelf enorm tevreden met mijn 3060 ti aankoop, bij launch voor MSRP +30 euro gekocht en al die tijd plezier van. Nu 2.5 jaar later is de kaart natuurlijk niet meer een goede kaart om nieuw te kopen, wel een goede kaart om te hebben.
Het is in zoverre toekomstbestendig dat gamemakers rekening moeten houden met de miljoenen gamers die 8GB kaarten hebben. Wat dat betreft is de 180Ti met 11GB een héél erg vreemde kaart. Het is bijna 12 GB, en dat is de gangbare stap na 8GB.
... gamemakers rekening moeten houden met de miljoenen gamers die 8GB kaarten hebben.
Waarom zouden gamemakers dat "moeten"?

De eerste relevante (want relatief betaalbare) videokaart voor gamers met 8GB VRAM was er al in 2014 (RX 290X)!
En het is inmiddels ook al 7 jaar 'midrange' (RX 480)...
Omdat game makers geld willen verdienen. En dat doe je niet door games te maken voor een klein publiek. Het is inderdaad al jaren midrange, en je kunt de midrange niet negeren. Zelfs een GTX1660 met 6GB is nog gangbaar genoeg.
Bij PC hardware staat vast; op den duur gaat wat high-end was naar midrange, wat midrange was naar low-end en wat low-end was naar obsolete.

Bij videokaarten waren er lang ontwikkelingen op alle vlakken tegelijk (VRAM groeide mee), die ontwikkelingen zijn bij de laatste pakweg 3 generaties videokaarten (vooral bij/vanwege Nvidia) op het gebied van VRAM niet snel genoeg gegaan waardoor de realiteit (lees: door nieuwe consoles en steeds meer AAA-games waarbij de eisen simpelweg wel in alles omhoog gaan) sneller gaat dan 4-6-8 GB videokaarten kunnen bijhouden...
Het '8GB is low-end voor AAA-games' tijdperk staat op aanbreken.
In dit specifieke stuk van de nieuwste Broken Silicon 205 de uitleg waarom dat een hele rare kijk op de zaak is.
Tja, je kunt als game makers wel willen, maar de consument moet de rekening betalen. En de 12 GB opties zijn prijzig, laat staan 16 en meer.

Linksom of rechtsom, dit is een kwestie van hoe de PC-gaming markt werkt. Er moet een overtuigende push zijn vanaf ten minste één kant. En nu is die er niet. Game makers moeten 8 GB uit economische redenen ondersteunen. En als je dan ziet hoeveel beter het wordt met 12 GB krijg je weinig consumenten zo ver om te upgraden van 8 naar 12/16 GB.
Waarom de idioterie terug naar 128bit te gaan? Affijn ikzelf kijk reikhalzend uit naar de upcoming ARC Battlemage GPU. RTX 3070 werkt prima for de games die ik momenteel speel, maar voor mijn 2e systeem kijk ik toch verder dan Nvidia en AMD.
Omdat hoe breder de bus des te complexer de kaart en des te hoger het stroomverbruik. Op enig moment stonden de Geforce kaarten bekend als de stroomslurpers en heethoofden in de GPU wereld. Daarna zijn ze de bus steeds smaller gaan maken. Dit in combinatie met sneller geheugen en compressie technieken (delta color compression) om zo niet in de problemen met bandbreedte te raken.

[Reactie gewijzigd door sdk1985 op 23 juli 2024 08:47]

Dus we gaan met CPU's straks ook weer terug naar 32bit, geloof er niks van. 128bit is alleen goedkoper en devaluatie in performance.
Dat is echt appels met peren vergelijken. De GPU communiceert met het geheugen op een bepaalde snelheid (bits per seconde per lane). Als je dus 128 bit brede bus hebt moet je die dus ook 'trekken' van de GPU naar de chips. Zodoende heb je ook meer chips nodig. En een twee chips van 1Gb zijn weer duurder dan 1 chip van 2Gb (simpelweg genomen, er zijn zeker vast wel weer uitzonderingen). Ook wordt het dus complexer om te fabriceren (meer stappen qua montage, complexer PCB, etc.

Mocht een GPU dus gelimiteerd worden door het geheugen dan kun je meer dan alleen de bus breedte verhogen. Je kan ook de snelheid omhoog gooien van de communicatie. Ook kun je andere opties proberen zoals een grote cache, betere prefetching en zo verder.

Een CPU terug laten gaan naar 32bit heeft impact op heel andere zaken, zoals hoeveel geheugen het kan adresseren (~4GB - geheugen adressen voor andere componenten). Dit zegt niks over hoe snel de CPU met het geheugen kan communiceren. Je vergelijking zou meer 'kloppen' als je zoiets zei van: laat CPU's dan terug gaan naar single ipv dual geheugen kaartjes. Of van DDR (double data rate) naar single date rate.
Je hebt het nu over de lengte van een CPU virtueel adres, niet over de geheugenbus of zelfs maar een fysiek adres. Geheugenbussen van PC's zijn al héél lang 128 bits of meer, zeker met dual-channel configs (of quad). Dus nee, deze vergelijking slaat nergens op.

En is terug gaan inderdaad zo'n ondenkbaar idee? De stap van 80 aderige PATA kabels naar 4 in SATA was een factor 20 terug. Dat was alsnog een bandbreedte upgrade omdat de klok omhoog kan. Een smallere bus kan nu eenmaal sneller, als je andere dingen hetzelfde houdt. Goede kans dat de PCB van een 4060 een stuk dunner is (minder lagen) dan dat van een 4080.
Dit gaat over de geheugenbus. Ada Lovelace heeft betere caches en GDDR6X, waardoor je die bandbreedte niet nodig hebt. 8 GB op 256 bits zou onzinnig zijn. Eerlijk gezegd mis ik de 160 bits/10GB configuratie nog in de line-up, die is redelijk genoeg. Genoeg console ports die uit gaan van 10GB voor video, aangezien die consoles 16 GB totaal aan geheugen hebben.
Alleen helaas gaat dat nog wel ff duren voordat Battlemage er is, duurt nog wel een jaartje ofzo.
Het geheugen schakelt op fors hogere frequentie dan de GPU en access is uniform, dan is er geen reden om te segmenteren op de GPU en kwestie van lijntjes trekken naar de beschikbare modules.
De prijzen dat het nog rendabel is om zo lang deze door te produceren is jammer.
Is de nieuwe kaart met 128bit nu langzamer of toch sneller dan de 3060ti met 256 bit?
Alvast dank
Denk dat er dan nog wel genoeg aanbiedingen zullen komen van de RTX 3060 Ti als die eruit gaan. Maar het zal ook deels eraan liggen aan de prijs/prestatie van de RTX 4060 Ti.

Voor mijzelf ben ik nog steeds heel tevreden met mijn eenvoudige RTX 3050 die nog steeds prima presteert met hetgeen waarvoor ik die gebruik.

Op dit item kan niet meer gereageerd worden.