VideoCardz: Nvidia RTX 4060 Ti met 8GB geheugen verschijnt op 24 mei

Nvidia brengt de RTX 4060 Ti met 8GB geheugen op 24 mei uit, schrijft Videocardz op basis van anonieme bronnen. Ook bevestigt de site het bestaan van de 16GB-versie, die naar verluidt richting het eind van juli moet verschijnen.

VideoCardz waarschuwt wel dat de interne roadmaps van Nvidia nogal veranderlijk zijn en dat de datum dus zomaar nog kan wijzigen. De vermeende releasedatum van de RTX 4060 Ti is een dag voor de release van AMD's Radeon RX 7600-gpu. Naast dat de 16GB-versie, die eerder al werd genoemd door leaker MegasizeGPU, volgens VideoCardz eind juli verschijnt, zou Nvidia eerder dezelfde maand naar verluidt ook de niet-Ti-versie van de 4060 willen uitbrengen. Alledrie de kaarten moeten volgens de bron 'in het midden van mei' aangekondigd worden.

De precieze specificaties van de RTX 4060 Ti zijn nog niet officieel bekend. Naar verwachting heeft de videokaart onder meer een 128bit-geheugenbus, een AD106-gpu met 4352 CUDA-cores en een boostclock van 2580MHz. Ook zou de gpu volgens geruchten een PCIe 4.0-x8-interface krijgen.

Door Kevin Krikhaar

Redacteur

10-05-2023 • 12:10

56

Reacties (56)

Sorteer op:

Weergave:

Ik vraag mij af hoe een 4060 Ti met een pci-e 4.0 x8 interface presteert in een pci-e 3.0 slot.

[Reactie gewijzigd door blackgoku op 25 juli 2024 22:29]

Als het een pci-e 3.0 x16 is, dan nagenoeg identiek v.z.i.w.
Naar mijn weten word het dan een 3.0x8 link en niet een 16x link.
Ik had ff gemist dat de interface een x8 is. Als die x16 was geweest, dan was de performance in een pci-e 3 x16 slot met 16 lanes identiek.
Als het een 8x interface in een 16x slot betreft, dan kom je niet verder dan 8 lanes.

Benchmarks van RTX 4090 mbt pci-e scaling bij techpowerup laten zien dat het wel wat meevalt.
Waar een x16 pci-e 4 100% is, scoort die 94% op x16 pci-e 2. (FullHD/1440)
Dan ga je van 31504MB/s naar 8000MB/s (waar pci-e 8x 3 op 7880MB/s zit).
Blijft er zo'n 25% van je bandbreedte over. Bij 8x pci-e 4 naar 8x pci-e 3 is het verschil maar 50%.

Bij een RTX 3080:
x16 pci-e 4 = 100% 31504MB/s
x16 pci-e 3 = 99% 15760MB/s
x16 pci-e 2 = 96% 8000MB/s
En ondertussen hobbel ik lekker verder met mijn 3060, met 12GB geheugen.

Even los van alle achterliggende onrust, en nVidia die ons zou proberen te naaien met te weinig geheugen, wat is hier de achterliggende gedachte? Er zit gewoon geen logica in om mínder geheugen in de nieuwere generatie te stoppen. Krijgen we straks toestanden dat mijn 3060je de achterstand op de 40xx kan inlopen, omdat die steeds grotere textures niet meer in hun geheugen kunnen houden. Dat is toch gewoon raar? Of was de 3060 zo'n (positieve) uitzondering, met eigenlijk zinloos veel geheugen (dat was mijn idee toen ik hem kocht)?

[Reactie gewijzigd door A64_Luuk op 25 juli 2024 22:29]

Voor zover ik weet heeft de 3060 alleen 12GB omdat 6GB écht te weinig was geweest
Maar de 3060 ti heeft dan weer 8gb... dat was dat toch ook een optie geweest voor de gewone 3060, of, noem eens wat raars, draai het om...
De 3060 is gebaseerd op de GA106 chip met een 192 bit geheugenbus, de 3060 Ti is gebaseerd op de GA104 chip met een 256 bit bus. Voor elke 32 bits heb je 1 óf 2 GB modules GDDR6(X).
De GA104 (3060 Ti, 3070, 3070 Ti) kan daarom alleen 8 óf 16 GB aan videogeheugen hebben, en de GA104 6 óf 12

[Reactie gewijzigd door Ospo op 25 juli 2024 22:29]

Dan hadden ze gewoon voor een andere geheugenbus moeten "kiezen" bij het ontwerpen van de chips. De geheugenbus is dus misschien wel rechtstreeks de reden waarom een bepaalde kaart maar bepaalde configuraties aan memory kan hebben. Onrechtstreeks blijft het wel nog altijd Nvidia die kiest welke kaart welke geheugenbus krijgt. In mijn ogen is de geheugenbus dus geen excuus.
voor de gekkigheid, ik heb hier nog een ASUS Geforce 295 GTX Dual GPU liggen.

PCI Express 2.0 X16
896MB 2X(1792MB totaal) DDR3
448Bit x2 geheugenbus.

in feite werd dit gezien als een SingleBoard SLi kaartje.
en had zover ik weer 2x de kracht van de GTX 275.
Geheugen was dus ook dubbel, 896MB voor elke GPU.

Koste mij toen in 2009 €999,- euro.

Tot op heden heb ik nog steeds mijn trouwe GTX 1060 6GB op de plank liggen.
maar de prijs voor videokaarten zijn voor mijn doen helaas te hoog gegrepen. :X
Computer staat meer uit als aan, gamen haast geen tijd voor dus om dan zo een dure kaart te kopen gaat mij net een brug te ver.
Heeft met de geheugenbus te maken, de 3060 heeft er een van 192bit, waardoor je 3, 6, 12 GB of kunt toepassen. De 3060 Ti, 3070 en 3070 Ti hebben er een van 256bit waardoor je kunt kiezen uit 4, 8 of 16 GB.
Even los van alle achterliggende onrust, en nVidia die ons zou proberen te naaien met te weinig geheugen, wat is hier de achterliggende gedachte? Er zit gewoon geen logica in om mínder geheugen in de nieuwere generatie te stoppen.
Het is niet minder. De 3060 is er ook met "maar" 8gb te krijgen.

Die 8gb is overigens zat voor de meeste mensen en zelfs de meeste gamers. Het aantal spellen dat niet genoeg heeft aan 8GB om "normaal" gespeeld te kunnen worden is voor zover ik weet nog heel laag. De groep die de nieuwste games speelt én de hoogste kwaliteit wil én een PC heeft die dat kan leveren (buiten de GPU) is niet heel groot.
De meeste gamers zijn een stuk minder veeleisend en spelen af en toe een spelletje dat typisch al wat ouder is. Die kopen een graka die goed genoeg is om een beetje te kunnen gamen en die hoeven niet het beste van het beste te hebben.

De 3060 en (ik neem aan) 4060 richten zich op de onderkant van de markt voor gamers, niet de bovenkant. Mijn eigen gevoel is overigens dat 12GB best veel is voor een 3060, maar het ligt er natuurlijk erg aan wat voor games je speelt en wat je belangrijk vindt (hoge resolutie, hoge refresh rate, gedetailleerde explosies, etc...).

Overigens kan een kaart met minder RAM in theorie sneller zijn door sneller RAM in te zetten. Snel RAM is verschrikkelijk duur en dat kan dus een goede reden zijn om zuinig te doen met de hoeveelheid RAM die je op je budgetkaart zet.
Het is niet minder. De 3060 is er ook met "maar" 8gb te krijgen.
Wat bereikt wordt door de geheugenbus te verkleinen naar 128bit i.p.v. 192 ja. Wat mij betreft gaat dat zelfs richting oplichting dat die kaart onder de dezelfde '3060' naam is uitgebracht, dat had gewoon een 3050 Ti moeten heten :P

De kaart is gewoon echt fors langzamer dan de normale, en dat komt niet door het VRam, anders was de 3060Ti niet zoveel sneller als dat je zou verwachten.
https://www.techspot.com/...ch/CP2077_1440p-ov-p.webp
De groep die de nieuwste games speelt én de hoogste kwaliteit wil én een PC heeft die dat kan leveren (buiten de GPU) is niet heel groot.
Als de 4060Ti zo rond de 250-300 euro gaat zijn (dat is tegenwoordig onderkant van de markt w.m.b.) dan ben ik het met je eens, maar als het richting de 500 euro gaat dan mag je gewoon verwachten dat je er toch zeker een aantal jaar zorgeloos op kunt gamen op 1080P of eventueel 1440P zonder nu al in de settings te duiken en textures lager te zetten.

[Reactie gewijzigd door !mark op 25 juli 2024 22:29]

Ik denk dat we ergens verwend zijn geworden dat je met midrange kaarten games op ultra settings kon spelen. Wanneer je vroeger een midrange kaart kocht dan kon je ultra settings eigenlijk direct al op je buik schrijven, niet wanneer je meer dan 30 fps wilde behalen. Wellicht dat de ontwikkeling bij de games de laatste jaren wat is gestagneerd, in ieder geval in vergelijking met het tempo van de videokaarten.
Nouja, verwend. De lat van wat midrange is verschuift natuurlijk door de jaren heen. 1080p was ooit de top van de top, en inmiddels zijn midrange kaarten daar meer dan voldoende daarvoor. 4K ultra is misschien wat te veel gevraagd, maar 1440p ultra of zelfs 4K medium mag toch zeker wel lijkt me
Nouja, verwend. De lat van wat midrange is verschuift natuurlijk door de jaren heen. 1080p was ooit de top van de top, en inmiddels zijn midrange kaarten daar meer dan voldoende daarvoor. 4K ultra is misschien wat te veel gevraagd, maar 1440p ultra of zelfs 4K medium mag toch zeker wel lijkt me
Dat kan dus alleen wanneer de games relatief minder zwaar worden. Op lagere resolutie haal je immers altijd meer fps, tenzij je een cpu bottleneck hebt.

Maar ik doelde op het fenomeen dat je met een midrange kaart op een gangbare resolutie geen prettige fps behaalde op ultra settings in de nieuwste games. Zo haalde een 6600GT slechts 42 fps in Unreal tournament 2004 op 1600x1200 zonder AA. Voor 60 fps had je een Ultra nodig. Ook op 1280x1024 haalde die kaart de 60 fps niet. Splinter Cell was ook zo'n titel waar bij launch de midrange kaarten te kort schoten.
Die 6600GT koste dan ook letterlijk 1/3de van de huidige midrange...

De games worden tegenwoordig ook "grafisch minder goed" gemaakt.
Ik bedoel daarmee dat de games ook moet draaien op een Xbox of PS5. Dat is de target van de developer. Voor de PC versie gooien ze er tegenwoordig gewoon nog een simpele hardcore texture setting en raytracing aan toe en done.
Die 6600GT koste dan ook letterlijk 1/3de van de huidige midrange...
Dat maakt toch niet uit? De high-end kaarten zijn ook vele malen duurder dan vroeger.
De games worden tegenwoordig ook "grafisch minder goed" gemaakt.
Ik bedoel daarmee dat de games ook moet draaien op een Xbox of PS5. Dat is de target van de developer. Voor de PC versie gooien ze er tegenwoordig gewoon nog een simpele hardcore texture setting en raytracing aan toe en done.
Hmn is natuurlijk erg subjectief. Ik vind Forza 5 bijvoorbeeld grafisch erg sterk. Op de xbox draait die game in quality mode op slechts 30 fps. Dus daar zit nog genoeg ruimte voor sneller pc hardware.
Verwend ?

Ik ben ooit met het OV naar Amsterdam gegaan om een TNT-Ultra te kunnen kopen van bijna 400 gulden.
Dat ding had 32MB aan geheugen en was in '99 de top-dog.

Nu zijn 'slechtere' (tijdsgeest) kaarten 4 tot 6x duurder.
Dat noem ik geen verwennen meer hoor
Verwend ?

Ik ben ooit met het OV naar Amsterdam gegaan om een TNT-Ultra te kunnen kopen van bijna 400 gulden.
Dat ding had 32MB aan geheugen en was in '99 de top-dog.

Nu zijn 'slechtere' (tijdsgeest) kaarten 4 tot 6x duurder.
Dat noem ik geen verwennen meer hoor
Beetje een vreemde vergelijking. Een dikke BMW in dat tijdperk was betaalbaarder dan een volkswagen polo anno 2023. Dat maakt die bmw van toen voor zijn tijd niet ineens een instapper...

Het ging om wat je van een midrange kaart kan verwachten. Die segmentatie werd zo ver ik mij herriner overigens meer een ding in het Ati vs Geforce tijdperk. Toen had je bijvoorbeeld MX kaarten die goedkoper, maar trager waren. Die 4 Ti reeks had ook meerdere modellen. We hebben echt jaren lang een status quo gehad waarbij je met midrange kaarten gewoon geen lekkere frame rates kon halen in de games van dat moment. Denk aan een Call of duty Modern Warfare (2). Daarvoor had je dan het topmodel nodig.

[Reactie gewijzigd door sdk1985 op 25 juli 2024 22:29]

De achterliggende gedachte zal zijn dat het kosten bespaard voor Nvidia en dat men bij groeiende VRAM-vereisten sneller een nieuwe videokaart met meer VRAM zullen moeten aanschaffen.

Nu zijn ze wel met texture compression bezig maar goed dat is iets wat je de komende jaren nog niet zal zien en is het maar de vraag of er geen data verloren gaat bij dit proces(mindere kwaliteit):
https://www.tweaktown.com...f-vram-worries/index.html
Denk dat t ook is vanwege machine learning enzo, waar je veel ram voor nodig hebt, of 3d renderers. Je wilt niet je eigen producten kannabaliseren.
Achja ik zat sinds 2015 op een GTX 980M(obile) 4GB t/m 05-2022 :)
Daarvoor de GT 630M.
Nu eindelijk een RTX 3080 10GB desktop GPU dus zal er wel even mee willen doen.
Ben benieuwd of 7+ jaar lukt.

Maar Nvidia is wel karig in het consumer memory gebied ja, had denk ik voor AMD moeten gaan. Was beter future proof geweest.

[Reactie gewijzigd door grasmanek94 op 25 juli 2024 22:29]

Die 12GB van een 3060 draait wel trager / kleinere memory bus tegenover de 8GB van bijvoorbeeld een 3070.
"The RTX 3060 has a smaller 192 bit memory bus, clocked at 1875 MHz, while the RTX 3070 has a 256 bit memory bus clocked at 1750 MHz."

Die 12GB zegt volgens mij dus vrij weinig in dit geval. Ben hier zelf geen expert in. Ik wist niet dat de 3060 12GB had, dus ik zocht dit even zelf op omdat ik door jouw reactie benieuwd werd waarom de 3070 'maar' 8GB had.

[Reactie gewijzigd door Niek H. op 25 juli 2024 22:29]

Het idee was, denk ik, dat VRAM toen niet zoveel verschil maakte voor de gameprestaties zolang je er maar "genoeg" van had. 6 GB was te weinig, maar erboven maakte het niet echt uit, dus gooide men er maar een extra chipje in.

Ondertussen is VRAM veel belangrijker geworden als gevolg van AI en slechte ports met 4K textures. De grap is dat de 3060 hierdoor een veel betere kaart is dan de 3070. Ik heb een 3070 en overweeg te downgraden naar een 3060 omdat ik constant zonder VRAM val wanneer ik meer dan één van UE5, Stable Diffusion en Photoshop heb openstaan.
Ik speel momenteel The Last of Us op de RTX 4090 en zie daar in het settings menu, dat wanneer je alle settings op max zet en 4K dat hij 16 GB aan VRAM gebruikt. Ik ben echt verbaast dat de nieuwe generatie kaarten zo "weinig" video ram hebben gezien nieuwe generatie games steeds meer en grotere textures gebruiken en vram gebruiken.
Je speelt dan ook op een 4K scherm, terwijl volgens Steam 65% van de gamers nog op 1080p speelt. Dat zijn vier keer minder pixels die aangestuurd moeten worden, wat 8GB meer dan genoeg maakt.

Daarenboven is de bandbreedte doorheen de jaren gestegen en zorgen technieken (Delta Color Compression) voor een efficiëntere buffering van textures in het geheugen, waardoor 8GB nog lang niet afgeschreven is.

[Reactie gewijzigd door ShaiNe op 25 juli 2024 22:29]

Is het de kip of het ei?

"Upgraden naar een 1440p scherm is nu niet aan de orde want ik kan geen deftige videokaart kopen door de belachelijk hoge prijzen, dus blijf ik vasthangen aan 1080p"

Of

"gamers willen geen betere videokaart kopen want ze hebben bijna allemaal 1080p schermen"
Voor mij is het:
"Ik zou willen upgraden naar 1440p of zelfs 4K, maar op een 4K scherm zal ik voorlopig nog altijd op 1080p moeten spelen, want mijn GPU kan dat niet draaien. Voor beide resoluties zou ik dus toch echt best wel een GPU upgrade doen, maar ik heb geen zin om de huidige prijzen voor de GPUs te betalen. Vandaar dat ik de hogere resolutie ook maar uitstel..."

9 kansen van de 10 zal ik dus wel eerder een nieuw scherm kopen dan dat ik een nieuwe GPU koop.
Het is dan ook weer niet zo dat een paar gb ram extra de kaart onbetaalbaar zou maken.
Het lijkt een manier om een kaart op de markt te zetten welke eerder verouderd zal zijn want: iets goedkoper en "ach, voor nu voldoet het wel.)
Komt ook omdat het gros van de mensen nog op oudere videokaarten spelen. Iemand met een rtx 4060 ti gaat niet op een 1080p display spelen, miss als ze esport titles spelen...
Als jij The Last of Us op een TRX 4060 wilt spelen, zal je ook de resolutie en settings waarschijnlijk fors moeten reduceren ....en dan is 8 GB waarschijnlijk wel genoeg. Het gevaar is dat vanuit consoles geporte games geschreven zijn met 16 GB totaal beschikbaar, dat zou eventueel lastig kunnen gaan worden
De hoop is dan ook dat er via Direct Storage en mogelijk decompressie van textures door de GPU in de toekomst VRAM-capaciteit weer iets minder van belang gaat worden
Laten we het hopen, ben echt niet van plan om NU AL mijn 3070 te moeten vervangen.
Dit is dan wel meteen weer een uiterste voorbeeld nemen.
Een ongeoptimaliseert-voor-PC spel geschreven op console(s) die gedeelde (maar tragere) RAM heeft/hebben dan de dedicated VRAM op grafische kaarten is toch wel even een verschil dan een spel dat gewoon van de grond af aan is gebouwd OF vanuit een algemene engine support heeft voor PC en console platformen.
Je hoeft toch geen 4K scherm te hebben? Dan is er ineens een stuk minder VRAM nodig.
Ik speel op 1080p met een 3060 Ti met 8 Gb VRAM, en ik krijg in bijvoorbeeld Forza Horizon 5 regelmatig de melding dat er te weinig (video)geheugen is. Voor mijn volgende GPU zal ik dus minimaal voor 12Gb gaan, ook op 1080p. Als de resolutie omhoog gaat zelfs voor meer.
de 4060ti is dan ook niet bedoeld om met 4K resolutie te kunnen spel.
Ander verhaal was als je op 1440p op de laagste instelling al 16Gb zou gebruiken.
Dat komt ook door het feit dat er op geheugenchips niet zo veel valt de besparen behalve dan de kaart met minder geheugen leveren.
Dat zo'n game het gebruikt wil nog niet zeggen dat het ook echt nodig is om de game op die settings zonder problemen met stotters ofzo te kunnen draaien..
Die GPU is niet gisteren ontworpen natuurlijk. Daar gaat jaren overheen voordat het op de markt is.
In hoeverre zal de 288GB/s geheugenbandbreedte uitmaken op de vermeende 16GB 4060 Ti? Heb je niet liever de 500+GB/s bandbreedte van de 12GB in de 4070 (Ti)?

Ik zie mensen online al beginnen over dat de 4060 Ti zogenaamd een betere keuze wordt dan de 4070 en 4070 Ti, maar is dat wel zo?
Ligt aan de prijs denk ik, de enige reden dat een 4060 Ti geen upgrade is voor mijn 3060 Ti is omdat deze nog steeds maar 8GB heeft, die 16GB versie zet met toch weer aan het denken. Moet ie wel flink goedkoper zijn dan de 4070.
Ik zou een 16GB model wel erg raar vinden, omdat zijn grotere broertje (de 4070 en 4070Ti) maximaal 12GB hebben.
Op een oudere 3070 hebben ze informeel het geheugen uitgebreid van 8 naar 16 en dat leverde fenomenaal betere 1% low scores op. (avg fps was ongeveer hetzelfde).
Kennelijk zijn er toch al games die niet genoeg meer hebben aan 8GB.
De 3060 had ook 12gb en de 3060ti en 3070 8gb
let the memory wars begin.... op dit forum dan natuurlijk met alle posts pro en cons.

op zich is er niks mis met een 4060 met 8GB ware het niet dat nvidia te pas en onpas TI misbruikt voor andere positionering... eerst als refresh, nu als performance sub categorie... daar zit je dan met 2 reeksen in 1. Als je dan zo een farce tegenkomt met de xx80 serie met 12 en 16GB en de rebrand, ja dan is je gehele product positioning om zeep. Goeie marketing hebben ze daar....
nVidia is sowieso berucht om het herlabelen van oude producten tot een "nieuwe generatie" en inconsistentie qua naamgeving, dus ik probeer gewoon de reviews van de huidig leverbare producten te lezen en specs te vergelijken als ik een nieuwe GPU uitzoek.
Kan iemand mij uitleggen waarom er een 4060TI komt met 16GB en waarom de 4070 TI "maar" 12GB heeft?
Omdat je niet een willekeurige hoeveelheid geheugen op elke chip aan wil sluiten.

Als een gpu 3 geheugenchips kan aansturen wil je die voor de snelheid ook alle 3 gebruiken. Een chip met meer geheugen is gelijk dubbel zo veel geheugen.

Dus met 3 chips kan je kiezen tussen 3, 6 of 12 GB, met 4 chips 4, 8 of 16 GB
En voor iedereen die over het 8GB geheugen begint zoals bij elke Nvidia post. Er bestaat ook nog AMD en Intel! Kan je ook spelletjes op spelen alleen kost het niet overdreven veel geld. En anders betaal je lekker Nvidia belasting!
En voor iedereen die over het 8GB geheugen begint zoals bij elke Nvidia post. Er bestaat ook nog AMD en Intel! Kan je ook spelletjes op spelen alleen kost het niet overdreven veel geld. En anders betaal je lekker Nvidia belasting!
Hier in de aanloop naar een nieuw systeem, basis van AM5.
Ik zit écht te denken aan een 6650XT of een ARC770.
Geen pro-gamer, zelfs geen goede amateur ;) dus vermoedelijk zijn deze kaarten voor mij inderdaad de komende 5j prima.
Kijk eindelijk iemand die het snapt. Ik denk dat de beste ervaring AMD is. Maar als je de markt graag wil helpen zou ik voor Intel gaan😜
Kijk eindelijk iemand die het snapt. Ik denk dat de beste ervaring AMD is. Maar als je de markt graag wil helpen zou ik voor Intel gaan😜
Of ik het snap, dat weet ik niet ... mijn hardwaredagen zijn lang achter mij.
Zou je 3 weken geleden om advies gevraagd hebben, zou ik je naar een i5 en NVIDIA sturen.
Na wat (kwijlend) onderzoek lijkt een Ryzen 7 gewoon betere prestaties te leveren ( zelfs de AM4 )

Maar ik heb het op prijs en online reviews gebaseerd, en ik neig inderdaad naar een ARC, alleen iets huiverig omdat het een 1st gen kaart is.
Wat me dan weer wel aantrok, is de AV1 support .. of IK er iets aan zal hebben ...mwoah ..
Zo te horen heb je helemaal geen videokaart nodig
Waarschijnlijk niet.
Daarom begin ik zonder, en kijk naar de prestatie van de igpu op de 7-7700x

Dan kan ik alsnog beslissen of het naar een extra NVME, of gelijk naar 128GB ddr5.

Uiteindelijk wil ik ook nog wel een keer naar een R9 met x3d natuurlijk 😁

[Reactie gewijzigd door FreshMaker op 25 juli 2024 22:29]

Nou maar hopen dat mijn beeldscherm (1920x1200, bijna 15 jaar oud) en videokaart (1060 6GB) het nog even volhouden, want ik ben bang dat er voorlopig nog niet voor een fatsoenlijke prijs 4K te spelen is.

Op dit item kan niet meer gereageerd worden.