Vermeende specificaties Colorful RTX 4060 Ti met 8GB geheugen verschijnen online

Er zijn specificaties van een aangepaste GeForce RTX 4060 Ti-desktopvideokaart van Colorful online verschenen. De gpu zou een boostclock van 2580MHz krijgen. Nvidia zou de kaart daarnaast van 8GB geheugen voorzien.

De specificaties van de onaangekondigde Colorful iGame RTX 4060 Ti Ultra W werden door T4C Fantasy gedeeld. Deze Twitter-gebruiker beheert de gpu-database van TechPowerUp en deelde in het verleden meermaals correcte informatie over onuitgebrachte gpu's. De baseclock van de Colorful RTX 4060 Ti zou daarnaast 2535MHz bedragen. In een andere tweet bevestigt de leaker dat de RTX 4060 Ti 8GB geheugen krijgt, net al de RTX 3060 Ti. Het is onbekend of het GDDR6- of GDDR6X-geheugen betreft.

Er gaan al langer geruchten rond over de RTX 4060 Ti. De videokaart krijgt naar verwachting een AD106-gpu met 4352 CUDA-cores en een geheugenbus van 128bit, schrijft VideoCardz. Daarmee zou de videokaart een geheugenbandbreedte van 288GB/s halen, waar dat bij de RTX 3060 Ti op 448GB/s lag. Volgens VideoCardz krijgt de gpu daarnaast een PCIe 4.0-x8-interface. De videokaart wordt mogelijk in mei aangekondigd, hoewel dat nog niet officieel is bevestigd.

Videokaart RTX 4070 RTX 4060 Ti
(volgens geruchten)
RTX 3060 Ti
Architectuur Ada (TSMC 4N) Ada (TSMC 4N) Ampere (Samsung 8nm)
CUDA-cores 5888 4352 4864
Kloksnelheid Base: 1920MHz
Boost: 2475MHz
Base: 2310MHz
Boost: 2535MHz
Base: 1410MHz
Boost: 1665MHz
Geheugen 12GB 8GB 8GB
Geheugenbus 192bit 128bit 256bit
Geheugenbandbreedte 504GB/s 288GB/s 488GB/s
Interface PCIe 4.0 x16 PCIe 4.0 x8 PCIe 4.0 x16

Door Daan van Monsjou

Nieuwsredacteur

17-04-2023 • 07:42

211

Lees meer

Reacties (211)

211
206
117
7
0
58

Sorteer op:

Weergave:

NoFi, maar we hebben de afgelopen maanden gemerkt dat 8gb vram aan de krappe kant begint te worden. Dit is momenteel pijnlijk duidelijk met de 3070, deze kaart heeft in sommige spellen genoeg performance maar laat stutters zien vanwege het swappen van VRAM (Bijvoorbeeld The Last of Us: Part 1)
Het vermoeden is dat de 4060Ti vergelijkbare/betere compute prestaties gaat laten zien, en dus ook genekt zal worden kwa vram in dit soort games.

@Blokker_1999
budget georienteerde kaarten
Ik heb nog geen MSRP gezien, maar de huidige pricehikes in acht nemende vermoed ik een MSRP van $449-$499. In die prijscatagorie heb je gewoon 16gb kaarten met vergelijkbare compute performance (van het rode team bijvoorbeeld).

[Reactie gewijzigd door kid1988 op 25 juli 2024 23:23]

Als je denkt meer nodig te hebben, koop je een kaart met meer. Je kan niet verwachten dat zelfs de meer budget georienteerde kaarten een massa aan geheugen gaan hebben.
Als je denkt meer nodig te hebben, koop je een kaart met meer. Je kan niet verwachten dat zelfs de meer budget georienteerde kaarten een massa aan geheugen gaan hebben.
8GB VRAM kwam in 2015 naar de mainstream met een kaart van AMD. Dat Nvidia met hun hele dure kaarten nu nog steeds op 8GB blijft hangen is echt een probleem. Deze situatie is vergelijkbaar met Intel die ons 10 jaar lang quad-core CPU's op de desktop wilde verkopen.

Nvidia, en in mindere mate AMD, moeten gewoon de hoeveelheid VRAM verhogen. Dat is niet meer dan normaal. Je speelt toch ook niet meer op een systeem welke 8GB RAM heeft? Voor RAM is 16GB tegenwoordig instap en 32GB al vrij normaal. Maar met VRAM blijven we voor dure kaarten stilstaan bij Nvidia.

Tijd dus om voor dure kaarten meer VRAM toe te passen.
Daarnaast heeft Nvidia al lang verklapt dat 12GB op een midrange model prima te doen is met de RTX 3060 12GB. Ze hebben het vervolgens stilletjes verlaagd naar 8GB omdat het niet overeenkomt met hun nieuwe verdien model, waarbij veel VRAM alleen komt met een toren hoge prijs.

Nvidia is actief op zoek naar manieren om hun dure grafische kaarten te marketen. Ook zij weten dat er goede redenen moeten zijn om mensen te overtuigen dat meer dan 800 euro neer te tellen “het waard is”.
Even afwachten wat AMD voor antwoorden hier op gaat geven,
ik ben nog steeds op zoek naar een goedkope grafische kaart om mijn systeem
te upgraden. Mijn 1650 begint wel traag te worden.
maar ja, wil je een kaart van 400 (6700) of 600 (6800) er in doen...
laatste heeft meer geheugen, Ik zit eigenlijk te hopen op iets met de zelfde
snelheid, alleen nieuwere generatie gpu en dan met 12gb geheugen er in...
Mijn hoop is nu gevestigd op amd...
De 6950XT staat nu voor 670€ te koop, en loopt soms tegen de 650€ aan. (16Gb Vram)
Price/Performance kan dit wel tellen.
Bedankt voor de tip, ik ga er even naar kijken,
RTX 3060 12GB is ook een leuke optie als je dan meer vram wil hebben maar niet de hoofdprijs wil betalen.
{Nvidia is actief op zoek naar manieren om hun dure grafische kaarten te marketen. Ook zij weten dat er goede redenen moeten zijn om mensen te overtuigen dat meer dan 800 euro neer te tellen “het waard is”}

wtf....werk jij voor Nvidia ofzo?
Het kwartje moet echt vallen bij hun of niet?
Denk dat grootste gros tweakers de 4 serie links laten liggen.
Voor mij de bottle neck al de geheugen bussen en de geheugen en de prijs!!!

Dus ZIJ weten geen ene moer en denken aan kassa.....alleen blijft dat laatje leeg nu.

en dan deze kaart 128 bits? laat me niet lachen/beter huilen.
Ja, de RX480 had al 8GiB VRAM. Het is al een poosje geleden dat die kaart nog relevant was.
Dat verschilt per spel. Ik denk toch wel dat de rek er wel uit is bij de RX580 die ik in een 2e pc heb zitten.
Ik heb zonder te gamen al niet genoeg aan 8gb vram. YT stream, fusion360 en de boel begint al vol te lopen. Vooral fusion pakt sporadisch veel ram en als dat er niet is hangt het hele programma.

Heb een 3070 weer ingeruilt voor mijn oude 1080ti met 11gb ding trekt alles veel beter puur door vram.

Dus het is niet alleen voor games nodig ;) maar 8gb is wel veel teweinig zeker in 2023.
Spider-man, BF2042, de Mafia remakes en andere recentere titels draaien nog altijd prima. Mid-ultra settings(het is soms wel ff puzzelen voor een lekker balans). 1080p@60fps.

Een groot deel van de toegenomen benodigde performance de laatste 5 jaar zit in hogere resoluties, hogere framerates en raytracing. Alle 3 geef ik persoonlijk niet zo heel veel om.
Denk dat veel mensen verwachten dat je met de opvolger in hetzelfde segment uitkomt als degene die ze nu hebben. Maar dat is dus niet zo. 3060ti was een 1440p kaart. En deze niet.

En ja, dan kom je dus uit op een 4070, met bijnehorend prijskaartje.

Was de 3060ti dan eigenlijk heel veel bang for the buck of is deze dan minder?

[Reactie gewijzigd door NLxAROSA op 25 juli 2024 23:23]

Wie verwacht dan ook dat mensen met budget voor een 4060, ook budget hebben voor de dikste 4K monitor? Ik niet. Gewoon 1080 of 1440P. En dan is 8GB gewoon dikke prima.
We zien in diverse spellen dat de geheugenproblemen al optreden op 1080p, laat staan op 1440p. En ik heb eind vorig jaar voor minder dan 160 euro een 1440p monitor gekocht die 165 Hz aankan, dus 1440p gaming monitoren zijn uiterst betaalbaar.

Wat mij betreft is 1440p een heel redelijke eis voor een videokaart die volgens de laatste geruchten $450 gaat kosten.

Overigens maakt Nividia reclame met de claim dat hun kaarten zo goed zijn in ray-tracen en dat dit er zo goed uitziet, maar dat gebruikt wel meer geheugen.
Geheugen problemen komen vooral door slecht geoptimaliseerde engines en slechte devs.
Het komt ook door betere textures, meer gedetailleerde modellen en andere aanpassingen die de kwaliteit verbeteren. Uiteindelijk worden veel spellen gewoon eerst voor de console ontwikkeld en de PS5 en XBox hebben beide 16 GB.

Uiteindelijk maakt het als consument ook weinig uit wat de oorzaak nu is. Je komt in de problemen waarbij je kaart slechter gaat presteren dan veel langzamere kaarten die wel voldoende geheugen hebben.
Zolang Nvidia kaarten uit blijft brengen met 8GB geheugen, moeten devs hier rekening mee houden. Ergens juich ik het wel toe, want het probleem is van gewoon maar meer geheugen erin gooien, is dat de optimalisatieslag bij developers achterwegen wordt gelaten waardoor games onnodig zwaar worden.

Geheugen van consoles werkt anders dan geheugen in PC's. De consoles maken gebruik van geheugen dat zowel wordt gebruikt als intern geheugen als voor videogeheugen. Dus het gaat hier niet om 16GB die alleen gebruikt wordt als videogeheugen, dus je kan stellen dat de consoles gemiddeld ook rond de 8GB hiervoor hebben.
Gaan de ontwikkelaars er dan heel veel moeite in steken of zeggen ze dan dat je alles maar op low moet zetten?

En in de praktijk gebruiken spellen op de console meestal vrij weinig geheugen voor de code, het bijhouden van de objecten, etc; en wordt het overgrote deel gebruikt als VRAM. Ik heb gehoord dat richting de 10 GB zo wordt gebruikt. Dus dan zou een 12 GB kaart deze generatie voldoende moeten zijn, zolang je geen betere instellingen gebruikt dan de console. Wil je dat wel, dan kan 16 GB al nodig gaan zijn.
Ja, want ze kunnen moeilijk de limitaties van het overgrote gedeelte van de markt negeren. 8GB zal de norm nog wel even blijven: volgens Steam is 8 GB nu de norm met 32% van de systemen. Dan is er ook nog een heel groot gedeelte die minder heeft, en een klein gedeelte (rond de 20%) met meer dan 8GB VRAM. Dat zal pas worden ingehaald waarschijnlijk door nieuwe kaarten de volgende generatie, gezien de meeste mensen een 60 serie kopen. Dus ga rustig uit dat de meeste mensen een 8GB kaart gebruiken de aankomende 3 a 4 jaar.

Het mooiste is als het schaalt. Dus normal 1440p 60 zal dan de target moeten zijn, en voor kaarten met meer geheugen kan je hogere settings aanbieden. Het is gewoon puur luiheid als je alles loopt op te lossen door er maar meer kracht tegenaan te gooien, wat helaas bij PC gaming te vaak het geval is.

[Reactie gewijzigd door QErikNL op 25 juli 2024 23:23]

Zolang Nvidia kaarten uit blijft brengen met 8GB geheugen, moeten devs hier rekening mee houden.
Weet je wat devs echt moeten? Steeds mooiere games maken!
En dus vooral niet 'blijven hangen in 2016' (het 'I O+ my RX 480 8GB' tijdperk)...
Geheugen van consoles werkt anders dan geheugen in PC's. De consoles maken gebruik van geheugen dat zowel wordt gebruikt als intern geheugen als voor videogeheugen. Dus het gaat hier niet om 16GB die alleen gebruikt wordt als videogeheugen, dus je kan stellen dat de consoles gemiddeld ook rond de 8GB hiervoor hebben.
Het enige dat je terecht "kan stellen" (want: feit) is dat de huidige consoles te allen tijde 10GB voor de GPU beschikbaar hebben, oftewel 25% extra t.o.v. 8GB, dat is een serieus verschil...
En toch heeft nog steeds 80% van alle PC gamers een videokaart met minder dan 8GB VRAM, volgens de Steam hardware survey.

Ze kunnen de markt niet zo hard voorbijlopen. Die 25% maakt dan ook niet uit.
Met de Steam Survey moet je wel oppassen, want daar zitten ook allerlei mensen bij uit armere landen, die spellen als CS:GO spelen en andere gratis spellen die op een veredelde aardappel draaien. En ook een hoop kinderen die bijvoorbeeld Minecraft draaien, wat zelfs werkt op een Raspberry Pi. Die mensen kunnen met zeer matige hardware toe, maar ze kopen sowieso geen AAA games voor 60/70 euro. De mensen die dat doen hebben over het algemeen natuurlijk bovengemiddeld goede hardware.
Vergeet niet dat consoles nu 16GB (gedeeld) geheugen hebben en meer dan 8GB geheugen eigenlijk wel het minimale is. Het is echt niet zozeer slecht geoptimaliseeerde spellen hoewel dit in sommige gevallen wel kan meespelen.

Daarnaast hebben we sinds de RX 470/480 van 2016 al 8GB op lowend kaarten, het is niet de schuld van developers dat Nvidia er niet meer op wil plaatsen.
Wil ik wel nog even aan toevoegen dat er ook van de 580 een 4GB versie was, die toen in prestatie niet echt minder was
Klopt, je kan je afvragen of het toen al nodig was. Het laat wel zien dat het prima mogelijk is, en de extra kosten zullen het ook niet zijn; zeker niet met de prijzen die Nvidia vraagt tegenwoordig.
Ik heb de RX580 8GB. In mijn omgeving was de RX580 een populaire kaart, paar 8GB, paar 4GB.

De maten met een 4GB kaartje liepen binnen 2 jaar al steeds regelmatiger tegen lagere pixels en framerates aan dan ons met een 8GB variant, toen zelfs hier op Tweakers iedereen 8GB nog overkill vond.

De stap van 2GB naar 6GB ging best rap. Ik ben echt blij dat ik toen een paar euro meer heb uitgegeven voor 8GB. Nog nooit eerder zo lang kunnen doen met een kaart en zelfs nu, wat is het? 6 jaar later, ben ik nog best tevreden over de pixels en framerates die het weet te produceren.

Wat helpt is dat textures gewoon ruim 50% van je grafische 'experience' is en de rest veel minder van belang is en een behoorlijk -performance kostend- deel in mijn ogen eerder hinderlijk is (bloom, blur, sunshafts, LODs)
Klopt, maar de realiteit is nu eenmaal dat er altijd games zullen zijn die slecht geoptimaliseerd zijn dus meer VRAM helpt in zulke situaties. Daarnaast kan ik me voorstellen dat veel games de console als prioriteit hebben en die zullen in de huidige generatie ongetwijfeld meer dan 8GB VRAM ter beschikking hebben. 12GB zou nu toch wel zo'n beetje de standaard moeten zijn in het mid-range segment zou ik zeggen.

[Reactie gewijzigd door Frietsaus op 25 juli 2024 23:23]

Mogelijk, maar dat fenomeen is al net zo oud als de computer zelf. Daar moet Nvidia ook gewoon rekening mee houden en dat hebben ze ook jarenlang gefaciliteerd door afwijkend gedrag van games via de drivers te fiksen in plaats van ontwikkelaars te vertellen om zich aan de specificatie te houden.
Of het nu terecht is of games meer vram vragen, het is een feit. En je fps zijn lager.

Hardware unboxed liet voorbeelden zijn waarbij 3070 het in best veel games ernstig verliest van de 6800 XT, puur door vram. Als dit nu al zo is dan is het straks helemaal een groot probleem.
Lezers moeten inzien dat hier veel waarheid in zit, dit is daadwerkelijk waarom games zoals Harry Potter en TLOU veels te veel geheugen gebruiken voor hoe ze eruit zien.

Maar daarnaast maakt het niet uit he. Als veel games ps5 ports gaan zijn dan gaan we mogelijk ook veel games krijgen die het lastig hebben met 8GB grafische geheugen, omdat slechte of gehaaste ports helaas een onderdeel zijn van de PC gaming industrie.

Dus Nvidia moet nu echt niet gaan denken dat 8GB VRAM voldoende gaat zijn. Nu gaat het nog meestal wel, maar dat gaat in de komende jaren echt niet steeds goed lopen. Alleen de goed geoptimaliseerde games zullen nog prima werken, maar we weten dat veel games dat niet willen zijn.

[Reactie gewijzigd door RCFProd op 25 juli 2024 23:23]

8gb vram te weinig met 1080p? Wat voor aliexpress kaart gebruik je? Ik speel met 1080p en verbruik komt niet boven de 6gb vram uit. Vaak is het nog minder.
Hardware Unboxed heeft een video waar je kunt zien dat de 3070 beperkt wordt door de VRAM op 1080p met The Last Of US, Hogwarts Legacy, Resident Evil 4, A Plague Tale Requiem met raytracing, Callisto Protocol met raytracing, Warhammer 40000 en Halo Infinity.

Je ziet met name ook een grote impact op de 1% lows, wat zorgt voor een stotterend beeld, wat erg vervelend is.

Overigens is Hogwarts Legacy ondertussen 'gefixed' waarbij ze textures gewoon weglaten wanneer het geheugen vol loopt. Daardoor is de kwaliteit extreem veel slechter dan met voldoende geheugen.

Je opmerking over een 'aliexpress kaart' is trouwens nogal misplaatst, want juist de wat snellere kaarten met relatief weinig geheugen komen in de problemen. Bij tragere kaarten is de GPU zo zwak dat je de kwaliteit sowieso omlaag moet zetten, waardoor minder VRAM nodig is.
Maar dan noem je ook een paar games op, of beter gezegd de ENIGE die dat probleem hebben. Er zijn nog 10.000 andere games die men vaker/liever speelt die de hoge VRAM niet nodig hebben. Het is kolder om te zeggen dat 8gb in het algemeen te weinig is. Desnoods speel je bovengenoemde games op mid settings en dan ziet het er alsnog retevet uit. Zo kun je de 4080 12 gb ook wel opnoemen en het handjevol games dat boven de 12 gb VRAM uitkomt. Vandaag de dag kun je zelfs met een 1060 nog prima uit de voeten op 1440P.

[Reactie gewijzigd door jellybrah op 25 juli 2024 23:23]

Is het onspeelbaar? Nee.

Is het een goede koop om 500+ euro uit te gaan geven aan een GPU om vervolgens direct de settings terug te moeten draaien door gebrek aan VRAM? Ook nee. En dat mag best benoemd worden.
100% mee eens die 4060 TI is DOA.

Ik heb een EVGA 3070 XC en die kaart is me toch snel, maar heeft echt te weinig VRAM. Ik bedoel ik had op mijn oude vertrouwde RX570 ook al 8GB, de 3070 had met 12GB moeten releasen de 3080 met 16GB, sluit mooi aan bij de 24GB van de 3090.

Als ik Ultra/high 1440p wil moet ik nu in de volgende games de texturen verlagen:

DOOM Eternal
MW 2
Company of Heroes 3
Hogwarts Legacy
Resident Evil 2, 3 en 4

En dit zijn de games waarvan ik het zelf ervaren heb. Ik ben echt dolwijs op mijn 3070 maar die 8GB begint nu toch echt weinig te worden. Zo jammer aangezien de kaart meer dan snel genoeg is. Ik hoop dat AMD komt met een mooie 7800 (XT) voor een leuke prijs met minimaal 16GB VRAM. Ik denk toch dat NVIDIA dit met opzet doet, zodat je sneller overweegt een nieuwe GPU te kopen.
Voor een midrange kaart: ja, zeker. Dat het 500€+ kost is irrelevant, het is gewoon een midrange kaart ongeacht de prijs.
Maar dan noem je ook een paar games op, of beter gezegd de ENIGE die dat probleem hebben. [...] Vandaag de dag kun je zelfs met een 1060 nog prima uit de voeten op 1440P.
Dat zijn allemaal recente games, waarvan een deel ook niet meer gemaakt is om op de PS4 te werken. Logischerwijs zullen steeds meer spellen alleen voor de nieuwe consoles worden gemaakt, waardoor ze de hardware volledig kunnen benutten. De consequentie is dan wel dat ze ook veeleisender worden op de PC.

Uiteraard kun je altijd oude spellen spelen en/of de settings stevig verlagen. Dan werkt een oudere kaart inderdaad ook goed. Maar waarom zou je dan een 4060 Ti kopen ipv een 6600 voor de helft van het geld?
Grafische kaarten zoals de RTX 4000 koop voor je nu en de komende 3-4-5 jaar. Je ziet dus nu voorbeelden van games die in 2023 gemaakt zijn en die problemen beginnen te tonen met 8GB grafische geheugen. Dat betekent dat je de geheugen te korten alleen maar meer gaat zien in de toekomst.
Dat is juist het punt. Het zijn allemaal nieuwe games die veel VRAM vragen. Het is een indicatie van wat komen gaat.

Ja, je kan 99,9% van de bestaande games spelen met 8GB VRAM. Maar als je nu een videokaart koopt met 8GB dan is deze niet toekomstvast.

Niet iedereen koopt elke generatie een nieuwe videokaart. Ik wil het straks in 2025-2026 kunnen doen met de videokaart die ik nu heb. VRAM is de enige reden dat ik mijn 3070, na enkele maanden, toch maar vervangen heb voor een 3090.
het gaat erom....we zitten nu met 8gb vanaf 2016/2017 wordt het dan niet tijd met standaard het dubbele?
En meer is niet slechter he.....1060 op 1440p? low medium zeker haha
Ofwel moderne games die met moderne consoles in gedachte zijn ontwikkeld.
Ofwel de games die waarschijnlijk een goede indicator zijn van nog uit te komen games.
Ofwel juist die games waar je een nieuwe kaart voor aanschaft omdat de oude het niet meer trekt.

N.m.m zijn de RTX 3060 8GB, 3060 Ti, 4060, 4060Ti, 3070, 3070 Ti en 3080 10GB allemaal het kopen niet waard.
De 3060 is de enige kaart waar 8GB enigzins acceptabel is doordat de performance je vaak al tegenhoud in fps voordat het VRAM volloopt. Laat dat nou ook net de kaart zijn die juist wel in een 12GB variant komt waar je beter voor kunt gaan.

Op zich wel aardig van Nvidia om AMD en Intel een makkelijk verkooppunt te geven. Hier in ieder geval geen spijt, mn vriendin heeft een 12GB RTX 3060 en ik heb zelf een RX 6700 XT. Beide met 12GB en beide al spellen gespeeld die over de 8GB gaan.
Dan koop je toch gewoon een AMD videokaart als je denkt dat meer VRAM zo belangrijk is.. Probleem opgelost..

Zie weer velen zeuren over de hoeveelheid VRAM (die discussie komt eens in de zoveel jaar steeds terug), en toch blijven de meeste mensen Nvidia kopen, dat begrijp ik dan dus niet.. Of het is gewoon een kleine luide minderheid die er altijd over zeurt..

[Reactie gewijzigd door Inflatable op 25 juli 2024 23:23]

De discussie over VRAM krijg je natuurlijk elke keer dat de spellen meer geheugen gaan eisen. En Nvidia heeft er een handje van om erg krap te gaan zitten in de VRAM, dus veroorzaken ze deze discussie zelf. We weten bijvoorbeeld dat er een 3080 met 20 Gb is gemaakt en een 3070 met 16 GB. Ze hebben echter op het laatste moment besloten om de helft van de VRAM erop te zetten.

Het vervelende is dat AMD op veel andere vlakken weer achterloopt. AMD heeft ook de nieuwe generatie kaarten van dezelfde prijsklasse nog niet uitgebracht, dus we hebben nu alleen de vorige generatie nog als alternatief. Al lijkt de nieuwe generatie van AMD ook niet zo heel goed, dus de 7800 XT valt mogelijk ook tegen.

Uiteindelijk wordt op deze manier de midrange gamer markt gesloopt wanneer je voor het geld van een hele console (dus inclusief CPU, RAM en SSD) een videokaart koopt die niet eens de console-spellen lekker kan draaien. Dan stappen steeds meer mensen over naar de console en krijgen PC-spellen nog minder aandacht, waardoor het weer aantrekkelijker wordt om naar de console over te stappen.
Ik begrijp zulke logica dus echt nooit hè. Als Nvidia slechte keuzes begint te maken dan moet iedereen zijn opinie voor zichzelf houden en gewoon geen Nvidia kopen.

Zo werkt het toch niet. Mensen die hier niet zijn zullen Nvidia blijven kopen omdat ze heel veel mindshare hebben en als heel betrouwbaar en overheersend over komen in de PC gaming industrie. Daarnaast zit er in bijna elke gaming laptop een Nvidia grafische kaart en bijna nooit een AMD.

Het enige wat je kunt doen in dit geval is heel kritisch zijn over slechte beslissingen die ze maken. Zo informeer je tenminste sommige mensen dat misschien inderdaad AMD beter is in bepaalde aspecten en laat je ook zien aan Nvidia dat er ophef gemaakt kan worden over de slechte keuzes die zij maken. Beter dan gewoon lekker stil zijn heel de tijd en alles accepteren soms.

[Reactie gewijzigd door RCFProd op 25 juli 2024 23:23]

Ik heb zelf in het verleden ATi Radeon als AMD Radeon kaarten gehad. Met ATi nooit problemen, met AMD uit frustratie met driver problemen overgestapt naar nVidia. Voor mij maakt het merk niet zoveel uit, als het maar werkt.

Het voordeel van nVidia is de ondersteuning in veel software voor CUDA en Tensorcores (bv Davinci Resolve, Topaz AI, etc). Totdat AMD dezelfde functies biedt, dezelfde brede ondersteuning heeft, en de prestaties op orde heeft, blijft ik genoodzaakt bij nVidia.
Zie weer velen zeuren over de hoeveelheid VRAM (die discussie komt eens in de zoveel jaar steeds terug),
Nogal logisch, want dit probleem komt ook elk jaar weer terug.

Jij kan het zeuren noemen, maar wat jij hier neerzet noem ik pas zeuren.. Net of het verboden is over iets te klagen wat daadwerkelijk een probleem kan zijn..

Zolang mensen zoals jouw blijven denken, gaan bedrijven zoals nVidia hier ook niks aan veranderen.

Koop maar lekker elke 1/2 jaar een nieuwe kaart die dan weer 1/2GB extra aan geheugen heeft.. is precies wat nVdia wil dat je doet
Nogal logisch, want dit probleem komt ook elk jaar weer terug.

Jij kan het zeuren noemen, maar wat jij hier neerzet noem ik pas zeuren.. Net of het verboden is over iets te klagen wat daadwerkelijk een probleem kan zijn..
Kan zijn ja, daar zeg je het goed.. Ik gebruik nu alweer zo'n 15+ jaar alleen maar Nvidia videokaarten en heb nog nooit echt problemen gehad met de hoeveelheid VRAM op die dingen, en zoals gezegd ben ik toch best wel veeleisend voor wat betreft resolutie en de instellingen waar ik mee game.. Als ik er dus nooit echt last van gehad heb dan kan ik me niet voorstellen dat anderen dat wel gehad hebben.. Leuk die video's van o.a. HardwareUnboxed etc, maar randgevallen kan je altijd wel vinden met bepaalde nieuwe games of mods etc.. Kwestie van je instellingen goed instellen in games.. Daar zit meer het echte probleem denk ik, teveel mensen die denken alles maar op ultra settings te kunnen spelen.. Dat is nog nooit zo geweest, zeker in de nieuwste AAA games niet.. Dus ja, ik vind het een beetje gezeur allemaal, want het is niks nieuws dat Nvidia altijd net genoeg VRAM op de meeste van hun videokaarten stopt in vergelijk met wat de GPU aankan qua rekenkracht.. Dat is altijd al zo geweest, maar sommigen doen nu net alsof het een nieuw probleem is.. Maar blijf lekker zeuren, heel misschien luistert Nvidia een keer naar je en krijg je straks wel meer VRAM van ze (ik denk het niet)..

[Reactie gewijzigd door Inflatable op 25 juli 2024 23:23]

Ha, en dan krijg je 100000 driver problemen, nee dank je :P wacht wel op 5xxx serie zodat de 4080 (ti) betaalbaar word.

Mensen kopen nvidia omdat die kaarten stabiel draaien, heb menig 6/7xxx kaar getest en het was bij alle 5 om te janken.
Ik had een 5xxx series, en ben uit frustratie overgestapt naar nVidia. Maar drivers schijnen bij AMD nu wel op orde te zijn.
Ik koop nog steeds Nvidia vanwege minder problemen met VR en betere raytracing. En AMD heeft ook nog steeds niks in het 4090 segment.

Ik baal wel een beetje dat de 4090 geen geheugen sprong heeft gehad overigens, voor die enorme prijs had er best 32 in gemogen. De 3090 had al 24.

Met veel games zit ik nu al aan de 16 (msfs2020 in VR en cyberpunk in overdrive mode). Bovendien wil ik ook meer met chatbots gaan doen.

Grappig genoeg is die msfs2020 nog op mid settings want in VR trekt zelfs de 4090 niet hoger zonder te gaan schokken. VR is zo veel zwaarder.

[Reactie gewijzigd door GekkePrutser op 25 juli 2024 23:23]

De goedkoopste 4k monitor op 32 inch is momenteel zo’n 370 euro. Ideaal voor office werk, en dan heb je best wel een aantal mensen die een 4060 kopen voor af en toe een spelletje.

Leuke sidenote: heeft zelfs freesync :)

uitvoering: Lenovo L32p-30 (zonder webcam) Zwart
Opzich een leuke monitor ja! Als ik op de markt aan het zoeken was naar een 4K zou ik wel richting de 100 hz willen gaan. Dan lijkt uitvoering: Gigabyte M32UC Zwart wel een leuke. Maar zoals ik met mijn punt bedoelde, het kost goud geld.
Wie heeft het over 4k?

En nee, 1440p op high/60FPS ga je in de meest recente games en de aankomende games niet meer trekken. Ga je 12GB voor nodig hebben. Of het wordt serieus textures terug moeten zetten, of 1080p op een 1440p monitor spelen.

8GB is het nieuwe 4GB. Instap.
Dat kan inderdaad wat scheef zijn ja, al zou je voor video nog steeds voor 4k kunnen gaan.

Echter je kan hem ook aansluiten op een TV. Nou snap ik dat niet iedereen zoals ik dat in de woonkamer heeft, echter zijn er natuurlijk ook veel gamers op de slaapkamer in deze prijsklasse. Vroeger moest je eigenlijk wel een aparte monitor hebben omdat een aansluiting op je CRT TV eerst een dure oplossing was en later je alsnog geen letter kon lezen(voor gaming/video was het toen al wel redelijk geschikt). Echter kan je nu bijna elke TV gebruiken als 4K monitor. Je moet bijna moeite doen geen 4K TV te kopen. Zit je afhankelijk van je TV nog wel met een refreshrate die wat laag kan zijn(al doet mijn OLED 120Hz), maar juist refreshrate is iets waar ik me bij een kaart als de 4060 totaal niet druk om zou maken. 60Hz is daar voldoende, tenzij je van competitieve shooters houdt.

In dat laatste geval is 1080P met een hoge refreshrate idd misschien een betere optie, al kan je op je TV natuurlijk ook terug naar 1080P met perfecte pixel schaling. En natuurlijk zou je nog FSR of DLSS kunnen gebruiken. Zit je echter nog steeds met een eventueel lage refreshrate.

[Reactie gewijzigd door MN-Power op 25 juli 2024 23:23]

Ik heb hier voor 1000 euro aan monitoren staan en ik heb een video kaartje van 220 euro. Nou ja, dat was een paar jaar geleden, nu is ie duurder. Sterker nog, ik heb de videokaart gekocht om de monitoren aan te sturen. Monitoren gaan lang mee, en zijn naar mijn mening een heel andere investering dan een videokaart. Ik heb overigens ook een duur toetsenbord en wat duurdere muis.

Mag van mijzelf helaas geen OLED monitor kopen, dingen doen het nog te goed.
Ik ben van een 970 naar 1080ti naar 3070 gegaan (3070 was gratis) en terug naar 1080ti. Heb toen de 1080ti ook gekocht omdat mijn 2de 4k monitor op 30fps aangestuurd werd. Wel met het oog op de toekomst de 1080ti gekocht en niet een 1060 oid zoals een paar vrienden. Die in de dure tijd "moesten" upgraden omdat hun kaart overleed of het niet trok toen iedereen meer ging gamen in de lockdowns!
inderdaad ik wacht met smart op de 4060ti en speel op 27inch 240hz 1080P .. ik geef niks om 4k of 1440P
ja het zal er mooier uit zien maar als je het een weekje hebt is het alweer normaal

met een i9 10900 op MSI B460M mortar met 32GB speelt zo'n 4060ti echt alles smetteloos

als je 4K wilt spelen koop dan ook gewoon een i9 13900 met B760 en 64GB + RTX 4080 anders zou ik er niet eens aan beginnen
Iedere tv is tegenwoordig 4K. Dus ja mensen die een 4060 kunnen kopen hebben meestal ook een TV.
Koop jij een TV voor je desktop?
ik heb een desktop gebouwd voor mijn TV. Als vervanger voor een console.
Ok, een niche, maar ok
Dat is omdat jij ook andere mensen uit deze niche kent. Gemiddelde consument heeft dit niet.
Aangezien je zelf al steam benoemt, hierbij de survey resultaten van Maart 2023:
https://store.steampowere...e-Survey-Welcome-to-Steam

64.28% heeft een 1080p scherm als primaire resolutie.
20.72% heeft een 1440p scherm als primaire resolutie.
Een hele 1.78% van de steam gebruikers heeft 4k, of 2160p als primaire resolutie.

En van die whopping 1.78% zullen er een deel ook gewoon monitoren zijn en geen TV's.

Vind dat je wel heel gepikeerd doet op een reactie die aanwijst dat je usecase vrij niche is, die persoon gaat aanvallen op zijn bronnen terwijl je binnen 5 seconden googlen kunt zien dat je je waarschijnlijk inderdaad in een niche usecase bevindt.

En dan zeker als je speciaal een PC gebouwd hebt die alleen aan een TV hangt.
Als ik in mijn omgeving kijk en een doorsnede maak van mijn vrienden en familie, dan heeft niemand een thuisPC. Ome Henk op de hoek ook niet, net als Tante Truus in het verzorgingstehuis. Grappig dat ik dit moet onderbouwen en jij met welke data aankomt?
Gezien de prijzen mag je zeker meer verwachten. Naar verwachting gaat deze kaart $450 kosten en bij sommige spellen lijk je dan al direct tegen VRAM problemen aan te lopen, laat staan over 2 of 4 jaar.
Een 4060Ti is toch echt geen budget kaart, de -60 en al zeker de -60Ti kaarten zijn altijd mainstream gaming kaarten geweest.

Zeker als je kijkt naar de huidige prijzen van de 3060Ti, die in de aanloop naar zijn vervanging nog minstens 400 euro kost. Dat noem ik toch geen budgetkaart.
De Radeon R9 290X was de eerste video kaart met 8GB, in 2014. Of de meer mid-range 1070 in 2016. Het is al lang aan de orde voor meer vram op het mid range segment.
Op zich waar, maar je zou kunnen zeggen dat de ram capaciteit de GPU chip mogelijk gaat bottlenecken en dat dus de 8GB en GPU chip niet goed ‘in balans’ zijn. Daar mag je best kritiek op hebben (waar nvidia overigens weinig mee zal doen), daar is immers een reactie gedeelte op een technieuws website voor.

[Reactie gewijzigd door PjotterP op 25 juli 2024 23:23]

Alleen zijn de kaarten die nu als "budget" werden verkocht gelabelt met een prijs die pak 10 jaar geleden zelfs nog absurd werd geacht voor een high-end kaart.
Als je denkt meer nodig te hebben, koop je een kaart met meer. Je kan niet verwachten dat zelfs de meer budget georienteerde kaarten een massa aan geheugen gaan hebben.
Voor meer vram mag je dan gelijk 670,- neertellen.
Hoezo? Een RX 6700 XT heeft al 12 GB, en die zijn te krijgen voor € 410.
16 GB kost wat meer, maar ook die kan je vinden voor ongeveer € 600.
Ja, amd is idd wat minder gierig wat dat betreft.
We mogen niet verwachten dat een 4060 Ti meer VRAM heeft dan een GTX 1070 uit 2016? Na 7 jaar ontwikkeling?
Dan hebben wij een compleet andere definitie van budgetkaarten, dit is qua positionering gewoon mid-range. Gezien de prijs van de RTX4070 hoef je voor deze niet meer op minder dan 450 euro te rekenen.

8GB is nog leuk voor kaarten van 250 euro of minder, in het segment van deze kaart heeft Nvidia al sinds 2016 (Gtx1070) 8GB Vram. We mogen na 7 jaar toch wel eens een verhoging verwachten?
Het is maar wat je budget noemt.. Deze 4060Ti zal waarschijnlijk ergens tussen de €500 en €600 gaan kosten..
EN jij denkt dat dit nog een budgetprijs gaat krijgen? Ik vind €500 namelijk geen budget prijs en dat is wat je op zijn minst kan verwachten van Nvidia.
Ik betaalde €500 euro voor mijn GTX780 vele jaren terug. Nu koop je een 60-klasse kaart. Het is snel gegaan met de tijd.
Het slaat ook nergens op. Nvidia gaat veel te ver maar jammer genoeg zijn wij consumenten zo achterlijk dat wij er in mee gaan en de concurrentie gaat doodleuk mee. Achterlijke dummy's zijn wij collectief.

Ik heb vorig jaar voor het eerst een kaart van boven de €600 gekocht, een 6900 XT. Maar gelukkig gebruik ik het ding voor werk. Anders had ik het niet willen verantwoorden.
Zelfs de 2060 had gewoon 12GB aan geheugen.
De 2060 had gewoon 6 GB geheugen en kwam uit in januari 2019

Pas bijna 3 jaar na dato (december 2021), toen de 3000-reeks er al (een jaar) was, is er een 12 GB variant uitgekomen.

Vooral goed voor mining van crypto door het grote geheugen.
Nou nou, er is iemand met het verkeerde been uit bed gestapt.
Deze reactie slaat kant nog wal vind ik. 12 GB VRAM is al 2 jaar normaal op bijvoorbeeld de RX 6700XT van AMD, die in hetzelfde segment zit als een XX60Ti

Iemand heeft gewoon inhoudelijke kritiek en dan is je weerwoord "dan betaal je toch gewoon meer?" Ja eh, nee, dat is nu net de strekking van de kritiek 8)7

[Reactie gewijzigd door youridv1 op 25 juli 2024 23:23]

500euro GPU is geen "budget georienteerde kaart" meer.
Als ze nou eens zouden beginnen met het optimaliseren van The Last of Us, wellicht is een 3070 dan wel voldoende.
Heb je bronnen die stellen dat dit een optie is zonder dat “optimaliseren” een eufemisme is voor downgraden?

Dat laatste kan namelijk al, via de instellingen.

De port heeft zeker z’n makken, maar als een spel voor 16GB is gemaakt, is er op dat vlak lastig omheen te werken. Zo werken systeemeisen. 12GB+ is al bijna drie jaar de norm voor high end gaming.
Inderdaad.

Mensen lezen de systeem eisen niet. Check de eisen voor 1440p/60FPS/High voor TLOU: staan geen 8GB kaarten bij. Maar mensen knallen gewoon de High preset erop en gaan dan klagen dat het niet loopt.

Mensen verwachten dat op Steam 'minimum' betekent 'veel succes' (dit klopt ook) en 'recommended' alles kan vol aan, maar dat laatste is niet (meer) zo.

Ruw genomen:

Minimum = 720p/30FPS/Low
Recommended = 1080p/60FPS/High
High = 1440p/60FPS/High
Ultra = 4k/60FPS/Ultra

Overigens kun je de game inderdaad prima tweaken zodat het er een op een 3060ti met 8GB op 1440p/60FPS strak loopt en er ook echt mooi uitziet. Maar ja, kost wat moeite hè.

Neemt niet weg dat een uur shaders bouwen bij iedere update/driver update nergens op slaat.
Het liefste ultra natuurlijk. Wat dat betreft zijn de aanbevelingen van Digital Foundry altijd erg handig. Je weet dan precies waar de meeste winst zit qua fps tegen het minste te hoeven inboeten qua beeldkwaliteit. Plus dat ze het vaak ook nog even in perspectief zetten ten opzichte van "console settings'.

Het was natuurlijk ook jarenlang de norm dat je console games op een PC gewoon op max kon gooien wanneer je een videokaart had die 250€ of meer kostte. Tijden zijn veranderd helaas. :|
al 3 jaar 12GB+ ?
Mijn 3080 heeft 10gb, en toen ik em kocht 2.5j geleden, dacht ik toch echt dat ie "high end" was ..
Voor de prijs dat ie dan op sommige plaatsen te koop was, kon je er 2 of 3x een playstation 5 voor kopen !
Tja blame Nvidia? de RX6700XT en alles daarboven heeft als bijna 3 jaar minimaal 12 GB Vram terwijl Nvidia hooguit 8 Gb leverde op een RTX30 midrange kaart met als uitzondering de 3060.
Ik bedoel kijk naar de 4070Ti. Nieuwe kaart die meer dan 900 euro kost maar slecht 12 Gb vram heeft.

[Reactie gewijzigd door snakeye op 25 juli 2024 23:23]

Wat minder is dan de 1080ti, ondanks twee generaties nieuwer te zijn.

Ik snap het sentiment. Maar ook consoles zijn minder restrictief, ondanks dat ze flink goedkoper zijn. Cross gen is voorbij en het wordt langzaam voelbaar.
Die 3080 was trouwens om een 1080TI te vervangen, en die had inderdaad 11gb.
Maar die 3080 is toch echt wel op alle fronten voelbaar sneller. Overlaatst nog Far Cry 6 mee uitgespeeld, dat was fantastisch. Op z'n samsung 49" ultrawide 5K monitor, alle op hoogste setting...supersmooth !
Dit ben ik met je eens, maar TLOU is niet de enige game welke hier last van heeft.
https://www.youtube.com/watch?v=Rh7kFgHe21k
Wel belachelijk dat games zoveel VRAM gebruiken. Als gamer kan je daar niets mee behalve een andere GPU halen met meer VRAM, maar de realiteit is gewoon dat games die zo met geheugen om gaan gewoon geen respect hebben voor hun publiek.

Wat hebben ze ooit gedaan? 4096x4096 textures voor ieder blokje hout?
Of je zet de grafische kwaliteit een stapje naar beneden. "Ultra" is voor 4090's, niet voor 4060's.
Dat snapt iedereen wel denk ik.

Maar dat is het hele punt niet. Punt is dat als je 500 euro stukslaat op een GPU je graag wil dat hij een tijdje meegaat. Met de ervaringen van recente games en wat er nog gaat komen gaat wil je dan iets met minimaal 12GB aan VRAM want 8GB is instap geworden. Idem met RAM eisen. 16GB is instap, 32GB is/wordt de norm voor high settings op meer dan 1080p.

Maar niet iedereen heeft dat door, die denken dat je met 16GB RAM en 8GB VRAM nog een dik systeem hebt.
Of je zet de grafische kwaliteit een stapje naar beneden. "Ultra" is voor 4090's, niet voor 4060's.
Dat is gewoon onzin. De 4090 komt eigenlijk alleen tot zijn recht op 4K. Op lagere resoluties kun je met relatief bescheiden kaarten gewoon prima ultra halen, zeker als je meer gaat voor kwaliteit dan voor hoge FPS. De 3070 kan bijvoorbeeld prima ultra draaien bij allerlei nieuwe spellen op 1080p en regelmatig ook op 1440p, tenzij deze beperkt wordt door de hoeveelheid geheugen.

De 4060 Ti zou sneller moeten zijn dan de 3070, dus dan zijn er alleen maar meer situaties waar de GPU snel genoeg is om op hoge kwaliteit te draaien, maar beperkt wordt door de VRAM.
denk niet dat de 4060 sneller is....vanwege de 128bit bus.
trouwens alles onder 256 bus is { niet doen }
Nvidia heeft meer cache toegevoegd, een trucje dat AMD al gebruikte om goede performance te hebben met een relatief kleine bus. Het nadeel is vooral dat de GPU relatief slecht schaalt naar hogere resoluties.
Die 3090/4090 is weer een trapje hoger, waar de 3080/4080 gewoonlijk top of the line was/is.
Als je het belachelijk vind dan kan je prima de textures wat verlagen en heb je nergens last van. Dan kan je ook Nvidia nog geld geven en hun kaarten met minder geheugen kopen :+.

Het is namelijk niet meer dan logisch dat spellen meer VRam gaan gebruiken. Spellen worden gemaakt met de grootste doelgroep in acht, en dat is niet Nvidia met 8GB geheugen; dat zijn de nieuwe consoles met 16GB (welliswaar gedeeld) geheugen. Aanvullend kunnen consoles met minder af omdat hun IO gewoon beter is en omdat spellen voor consoles meer maatwerk zijn.
Dat het zo lang heeft geduurd is omdat de meeste spellen ook nog op de oudere consoles uitkwamen. Dat begint langzaam te verschuiven en dat zie je terug in de pracht en praal en ook het geheugen gebruik.

Als je wil meekomen met een nieuwe videokaart dan zou ik dat in het achterhoofd houden wanneer je er een aanschaft.
Als je het belachelijk vind dan kan je prima de textures wat verlagen en heb je nergens last van. .... Het is namelijk niet meer dan logisch dat spellen meer VRam gaan gebruiken.
Er zijn ruim voldoende oudere games die haarscherpe textures kunnen neerzetten met minder vram. Dit lijkt me gewoon luiheid van de devs om maar gewoon overal giga textures aan te hangen terwijl je het niet eens ziet.

De texture quality verlagen betekent dat ook grote oppervlaktes opeens niet mooi worden in die games. Nergens voor nodig.
Spellen worden gemaakt met de grootste doelgroep in acht, en dat is niet Nvidia met 8GB geheugen
De xbox series x en s komen met 10GB "VRAM" en 2GB (S) of 6GB (X) trager RAM. De totale 12 of 16GB is gedeeld, zoals je al aangaf. De PS5 heeft 16GB "VRAM" (ook gedeeld) en 512MB RAM

Het lijkt me aannemelijk dat de meeste games wel echt tenminste 4-8GB werkgeheugen nodig hebben - 8GB is dan gewoon een realistisch budget ook voor consoles.

[Reactie gewijzigd door Gamebuster op 25 juli 2024 23:23]

[...]

Er zijn ruim voldoende oudere games die haarscherpe textures kunnen neerzetten met minder vram. Dit lijkt me gewoon luiheid van de devs om maar gewoon overal giga textures aan te hangen terwijl je het niet eens ziet.

De texture quality verlagen betekent dat ook grote oppervlaktes opeens niet mooi worden in die games. Nergens voor nodig.
[...]
Je vergeet dat er tegenwoordig veel meer variatie is in modellen en textures en dat misschien de textures individueel niet groter zijn geworden, maar dat het er veel meer zijn. Ik kan ook een spel maken met een paar hele grote textures, alleen wordt het nogal saai zonder variatie.
Daarnaast is het niet alleen de textures, maar ook dingen die meer geheugen pakken.
De xbox series x en s komen met 10GB "VRAM" en 2GB (S) of 6GB (X) trager RAM. De totale 12 of 16GB is gedeeld, zoals je al aangaf. De PS5 heeft 16GB "VRAM" (ook gedeeld) en 512MB RAM

Het lijkt me aannemelijk dat de meeste games wel echt tenminste 4-8GB werkgeheugen nodig hebben - 8GB is dan gewoon een realistisch budget ook voor consoles.
Een andere post hier had het over 10GB voor videogeheugen en dus 2.5 voor de rest, met als bron (helaas geen link) Digital Foundry. Dat lijkt mij een redelijke verdeling overigens, gezien het geheugen gedeeld is en je geen dingen dubbel erin hebt staan, wat eerder voorkomt op de pc.
Dus ook de tragere XBox variant kan met minder geheugen meer doen dan een pc.

Als laatste punt, los van of games wel of niet geoptimaliseerd zijn... vind ik het niet kunnen dat Nvidia geen extra geheugen zet op een kaart van die prijs. Wat een afgang, met name als je in gedachten neemt dat je op low/midend kaarten met DLSS prima op hogere resoluties kan draaien en dat hogere texture kwaliteit dan leuk is om te hebben.
Gevalletje planned obsolescence en ik hoop dat AMD niet zo stom is om op hun 6xx serie kaart ook maar 8GB te plakken.

Edit: miste het woordje niet, wat nogal een invloed heeft op mijn stelling :P.

[Reactie gewijzigd door Sp3ci3s8472 op 25 juli 2024 23:23]

Ja dat zou je denken maar wat men vergeet is dat die SSD (NVMe) dat heeft een substantieel effect op pc games die geport worden. DF had hier een heel uitgebreid stuk over maar het kwam erop neer dat de PS5 en de XBX de textures e.d. in kunnen laden op die rappe SSD en dan niet het welbefaamde euvel van building shaders hoeven te doorgaan. Op pc heb je dit wel omdat alles apart van elkaar werkt. Op de consoles heb je 1 memory pool en 1 dedicated storage wat allemaal samenwerkt om een doel te behalen en dat is gamen. Een pc kan dit op dit moment nog niet goed genoeg, Mircosoft is er wel mee bezig met het zogenaamde direct storage API maar dat komt nog niet in de buurt van de efficiëntie van de consoles.

BRON: https://www.youtube.com/watch?v=Kr7RGkFuPdQ
Als gamer kun je voor andere games kiezen, dat staat je vrij.
Dat het erg was wist ik wel, maar dat RE4 op max quality crasht op de 3070 is wel triestig. De 6800 is dan wel de betere koop geweest. "Aged like fine wine" zoals ze zouden zeggen, team rood haalt meestal nog wat extra prestaties uit de drivers. Ook bij The Callisto Protocol is het erg gesteld met die 8GB 3070. Ik vraag mij dan ook wel af wat de 10GB 3080 hiermee doet en hoe de 6800 XT hiermee vergelijkt.
Als ze nou eens zouden beginnen met het optimaliseren van alle spellen die hier last van hebben...
Het kopen van nieuwere videokaarten met meer VRAM enkel om prutswerk soepel te kunnen draaien stimuleert prutswerk.
Als meerdere triple A's het doen spreek je van een trend. De gaming resoluties worden nou eenmaal hoger, binnenkort kan 8K dus die texture sizes gaan omhoog. Leuk of niet Nvidia heeft zich te confirmeren. Maar goed als ze slechte benchmarks scoren en door het stof gaan door hun VRAM tekort kunnen ze altijd nog zeuren dat het aan de devs ligt.

Verder is VRAM super handig voor deep learning dus Nvidia probeert aan alle kanten artificieel mensen te wijzen naar hun duurdere kaarten door de mid range to onderspeccen.
Ja maar je gaat toch niet verwachten dat wanneer 8k net een beetje gangbaar begint te worden, dat je dit direct op een oudere generatie x60 of x70 kaart kan spelen? (tegen de tijd dat 8k gangbaar word is de 4060ti al verouderd). Dat is de eerst komende jaren alleen weggelegd voor de nieuwste kaarten in het hoge segment. Dit ging ook zo met 4k, en 1080p. 4k begint nu eindelijk pas een beetje speelbaar te worden op een x70 segment kaart.

En daarnaast is het nog niet eens zo zeer de hoeveelheid RAM, maar m.i. vooral de lagere bandbreedte van het RAM dat de lager gepositioneerde kaarten meekrijgen. De hoeveelheid RAM speelt nú (op 4k) alleen een rol als de game slecht geoptimaliseerd is of als je op super hoge settings speelt, en een hóóp (nieuwe) games zijn echt bagger geoptimaliseerd voor PC. "Ja maar zij doen het ook" is absoluut geen excuus in deze.

Ook moet je gewoon je verwachtingen van je hardware bijstellen, en niet nvidia of amd verwijten dat hun minder presterende kaarten je hoge settings en resolutie niet trekken. Je gaat geen ultra settings 4k spelen op een een midrange kaart. Dat is misschien niet leuk om te horen, maar niet alles is de schuld van de software of de hardware.
Het gaat me hier om de included textures. Als 8K bestaat gaan devs 8K textures in hun games stoppen dus dat lekt wel eens door als je games op ultra wil spelen ook op 1080p.

VRAM is zeker wel een keiharde bottleneck, heb de recente Hardware Unboxed video hierover niet gezien? https://youtu.be/Rh7kFgHe21k?t=1470
Maar dan zet je de texturekwaliteit toch lager zodat je die 8K textures niet gebruikt? Het nut van 8192x8292 textures willen gebruiken als je scherm maar 1920x1080 pixels heeft ontgaat mij echt volledig, het verschil met 4K of zelfs 2K texutrs kun je dan toch niet zien?

In het algemeen wel eens dat 8GB op een nieuwe kaart van dik 400 euro belachelijk is hoor, maar het per se alles op Ultra willen draaien ook al zie je het verschil op een 1080P of 1440P scherm niet eens helpt ook niet mee zegmaar.
Je kan settings handmatig gaan tunen maar voor een GPU van zoveel geld mag je hopen dat hij gewoon redelijkerwijs moderne games kan spelen.

Tevens helpen high-res textures ook op resoluties lager dan de texture zelf. Downscaled 4K ziet er vaak veel beter uit dan 1080p met anti aliasing. Dit was onder andere waarom men met "super resolution" kwam een paar jaar geleden waar je rendert op een hogere resolutie en daarna downscaled.
Als meerdere triple A's het doen spreek je van een trend. De gaming resoluties worden nou eenmaal hoger, binnenkort kan 8K dus die texture sizes gaan omhoog.
Je kan als ontwikkelaar prima lagere resoluties ondersteunen voor minder presteren de videokaarten. Kijk bijvoorbeeld naar de Steam hardware survey en wat de populairste videokaarten zijn. Dat zijn geen kaarten met 8 GB of meer VRAM. Je onnodig exclusief richten op het hogere segment zorgt voor minder verkopen. Maar natuurlijk, geef piraterij maar de schuld en geef maar geld uit aan Denuvo. Dat lost alles op. :>
Ff gecheckt... Meest populaire kaart is de 3060 welk 12GB vram heeft.

Tevens zijn die andere kaarten vele malen zwakker. Een 390 of 970 gaat geen games op super-high of 4K kunnen spelen. Een 3070 of 4060TI zou dat zeker wel moeten kunnen.

De 4060TI is alsof je een BMW motor in een 45 km/u wagentje bouwt. Leuk dat de motor snel kan maar de wagen zelf trekt het niet.
Er is ook de 8GB-variant van de 3060. Die zitten in dezelfde bak.
Dat is de 3060TI toch?
Nee, Nvidia heeft ook een 8 GB variant van de 3060 uitgebracht met dezelfde naam, wat niet zo netjes is omdat mensen dan makkelijk de verkeerde kopen.
Ik heb een 3060ti met 8gb ram, maar is de 3060 niet heel stuk slechter qua game performance?
Jij draait dingen om. De steam survey is niet een reflectie wat mensen OK vinden en ook niet wat nog OK is. Ja je ziet daar wel populariteit in terug maar het is geen survey over wat men het liefst zou hebben of naar wat men zou willen upgraden.Het is wat mensen hebben, niet meer en niet minder.

Dat veel mensen nog op 1080p spelen is vaak meer een gedwongen keuze, niet een soort intrinsieke voorkeur voor die resolutie.

[Reactie gewijzigd door PjotterP op 25 juli 2024 23:23]

Totaal geen gedwongen keuze. Ik heb een 4070 ti en kan alles prima op 1440p hoge resolutie draaien, maar ik speel op 1080p, omdat ik alles sneller kan zien in 1 oog opslag en ik een 240hz monitor heb. Meeste gamers spelen daarom op deze resolutie en kopen hier een pc voor. Het gaat altijd om spellen als hogwarts etc. Meeste pc gamers spelen dit soort single player games niet eens. Mooi een ps5 kopen als je dit wil spelen. Bespaard je ook een hoop geld.
Ik zei ‘vaak’, niet ‘altijd’.
Dan zetten mensen met een 4060 (Ti) de textures maar wat lager. Dan draait het prima op 1080p en anders moeten ze maar wat geld bijleggen om een kaart te kopen die wel genoeg geheugen heeft (waar Nvidia heel blij mee zal zijn :D).
En dat is precies het punt waar het om gaat. De voorganger, de 3060ti was nl. wel een 1440p kaart. Gaan die upgraden naar een 4060ti met het idee dat ze dan weer naar 1440p kunnen met hogere settings dan komen ze bedrogen uit. Beter 150 bijleggen voor een 4070 of naar AMD.

En dat is nu precies het manco. nVidia zit te klooien met specs en naamgeving waardoor nu een scheve situatie is ontstaan. Samen met de door consoles gedreven VRAM honger levert dat een situatie op waardoor deze kaart feitelijk een stuk lager in de markt ligt dan de naam doet vermoeden.
Dat idee is ansich juist, zet de kwaliteit maar wat lager. Maar wat we nu zien gebeuren is dat de kwaliteit van de textures teruggaat naar wat we rond het jaar 2000 hadden en dat is echt onacceptabel. Ik snap best dat de hoogste settings niet nodig zouden zijn, maar er wordt gewoon duidelijk niet geoptimaliseerd voor de midrange, het is net alsof je ultra-low of ultra-high hebt met niets ertussenin. Dit zag je overigens in The Last of Us en Resident Evil. Texture streaming is ook beroerd, en dat terwijl er superveel games zijn die prachtige textures hebben en nauwelijks 6GB gebruiken. Het gaat maar om een kleine selectie games, en ik vind ook niet dat nVidia schuldig is aan dit fenomeen want er wordt gewoon beroerd met resources omgegaan door deze developers die blijkbaar de tijd niet krijgen om goed te optimaliseren. Gelukkig zijn er ook nog goeie games, en die kunnen prima uit de voeten met 8GB. Het is maar een rare tijd waar we in leven, ik begin er zolangzamerhand wel een beetje zat van te worden. De prijzen, gameindustrie verrot etc. etc. Wat ooit een prachthobby was dreigt het na 30 jaar zeer negatief te worden, ik probeer het met alle macht te negeren maar ik heb er toch wel een beetje last van, zeker omdat deze techwereld altijd mijn steun en toeverlaat was/is. Misschien wordt het tijd voor mij om het leven om te gooien, weg met de Computers en naar mijn vader in de Philipijnen verkassen... op een klein eilandje leven en meer van de zee en natuur gaan genieten en wat groente/fruit verbouwen. Ik vind het idee doodeng maar wellicht zal ik er een stuk vrolijker door worden. Hij woont er inmiddels 10 jaar en heeft al heel wat opgebouwd... Wat zou jij doen als je deze kans had? (sorry voor de offtopic meuk, ik dwaal weer af)
Je moet het zien als kost.
Beter optimaliseren is perfect mogelijk zodat het vlot loopt op 8GB vram maar de studio moet daar dan inspanningen voor doen. Dit kost ook tijd en geld en men heeft meestal geen overvloed aan beiden.
De mensen worden natuurlijk emotioneel als hun investering snel waardeloos wordt. De enige oplossing is om slimmer te investeren. De GTX 960 had destijds ook 2GB en 4GB uitvoeringen, de 1060 3 en 6GB.
De geschiedenis herhaalt zich gewoon.
Persoonlijk vind ik 8GB ook te weinig voor een 500 euro product. Je kan dan perfect een 2e hands 3070 kopen voor 300 of ietsje meer
Dit is al gebeurd, echter lost dit echt niet het probleem op waar we naar toe gaan

The Last of Us is ook echt niet het enige recente spel die hier last van heeft, en logischerwijs gaan dit in de toekomst nog veel meer games worden
8GB is lachwekkend anno 2023. Vorige generatie nvidia videokaarten met 8GB laten nu al prestatie problemen zien vanwege te weinig geheugen. De RX 67xx en 68xx kaarten van AMD laten zien dat meer geheugen loont.
The last of us is echt gigantisch slecht geport, slecht voorbeeld. Als developers nou weer eens games gaan maken die af zijn ipv te vroeg releasen met zeer slechte optimalisatie.
Het is niet alleen TLOU. Iedere game die ook op consoles uitkomt pakt zometeen gewoon 10GB, want console architectuur. En dan heb je dus op PC nog niets beters, dan heb je dezelfde kwaliteit als PS5/XBSX. En op PC wil je meer dus gaat t al gauw richting de 12-15 GB.

Dit is gewoon de harde realiteit. 8GB VRAM is het nieuwe 4GB.
Hoelang blijven we brakke ports met vram memory leaks gebruiken als voorbeelden?

Kun je vijf recente AAA games opnoemen die niet draaien op 8GB zonder Hogwards, The last of US en Resident Evil te noemen gezien deze allemaal memory leaks hebben en brakke ports zijn?
Toch denk ik dat games als TLoU (nog) uitzonderingen zijn. Het is gewoon een uitermate beroerde port.
Zéker als je bedenkt dat de game op de PS5 draait op in totaal 16GB geheugen! En ja, dit is RAM en VRAM 'samen' aangezien de PS5 het gewone RAM gebruikt als VRAM.

Voor de rest is dit gewoon weer een klein gaatje in het produktportfolio dat wordt dichtgesmeerd, zoals dat met elke generatie gaat.
Er zijn nu weer zo veel verschillende modellen op de markt dat het voor verwarring zorgt bij de consument. En dat is precies de bedoeling; want een twijfelende consument kiest vaak een duurder model.
16GB op consoles waarvan 10-12GB voor graphics is toegewezen. Zie je dan het probleem met 8GB? En ik neem aan dat je op PC meer eyecandy verwacht van midrange of hoger?
alleen krap op 4K toch? of werkt datniet zo?
het rode team blijft een beetje achter wat betreft zuiniger energie gebruik, verder wel interessante kaarten
In essentie bepalen de consoles wat de standaard voor een periode is van VRAM. Veel development is gericht op consoles en dan doet men een al dan niet performante port naar PC.

Toen PS5 nu al 2.5 jaar geleden uitkwam, had die 16GB aan ram wat neerkwam op ongeveer 10GB voor GPU kant. Toen was ik al aan het waarschuwen dat de Nvidia kaarten met 6 of 8 GB in de problemen zullen komen, maar iedereen zat in gedachten nog in de tijd dat games normaal nooit over 6GB VRAM gingen.

Onder de 10Gb gaat het wel draaien, maar dan wel beperkt in resolutie tot bij voorkeur 1080p en texuture settings die vaak onder de consoles moeten gaan.

Op zich wel slim gedaan van NVdia, een groot deel van hun nog heel recente kaarten zal op de tweede handsmarkt niet veel meer waard zijn. Je zou bijna denken dat ze het wisten en gepland hebben. ;)
Wellicht handig om de bron te vermelden: The Last of Us Part I, RIP 8GB GPUs! Nvidia's Planned Obsolescence In Effect

Overigens geeft dezelfde video aan dat op high alle kaarten boven de 3050 prima werken. Met andere woorden wanneer je de texture details niet op ultra zet dan is er niks aan de hand en haal je prima performance. Hetgeen ook letterlijk in dezelfde video wordt vermeld. "And it's not like the game doesn't work with 8 GB graphics cards. It does, and it does very well. Just not with the ultra quality preset".

Vroeger was dat eigenlijk een heel normaal iets. Je had vaak kaarten de x duurder waren met veel meer VRAM en wat je daarvoor terug kreeg was dat je bij dezelfde fps hogere texture detail settings kon draaien. Zeker wanneer je kaart zo oud werd dat je niet voor bij 'medium' settings kwam kon het dan nog weleens voorkomen dat je de textures wel op (very) high kon draaien en het er dan alsnog leuk uitzag.

Ben je iemand die de komende jaren alles persé met ultra textures wil kunnen draaien dan zou ik geen 8GB vram nemen. Maar dat lijkt mij niet de doelgroep voor een 4060 Ti.

[Reactie gewijzigd door sdk1985 op 25 juli 2024 23:23]

Het is wel belachelijk hoor. Een 128 bit geheugenbus, 4352 CUDA cores en 8 GB VRAM.
De RTX 3060 Ti ontving 46% van het aantal CUDA cores van de RTX 3090 (10496). De RTX 4060 Ti moet het doen met 27% van het aantal CUDA cores van de RTX 4090 (16384). Aangezien de RTX 4070 die recent is uitgebracht in feite een RTX 4060 is, is deze RTX 4060 in feite een RTX 4050. Gezien het aantal CUDA cores, de geheugenbus en de hoeveelheid VRAM wordt dit niet meer dan een 1080p kaart, daar de RTX 3060 Ti bij introductie een prima 1440p kaart was (inmiddels ook niet meer dan een 1080p kaart). Ik mag toch hopen dat deze kaart vriendelijk geprijsd wordt voor de 1080p gamer. Zo rond de 300 euro. En eigenlijk is dat al te duur wanneer een XBOX Series S waarschijnlijk betere prestaties levert op 1440p voor sub 300 euro.

[Reactie gewijzigd door Ellendeling op 25 juli 2024 23:23]

inderdaad, dit kaartje gaat enorm gebottleneckt zijn qua geheugenhoeveelheid en bussnelheid. Dat ze er zelfs maar een pcie4.0 x8 van gemaakt hebben geeft duidelijk aan dat je hier niet veel performance van moet verwachten. Deze valt nu in de "casual gamer" categorie met hopelijk een lekker laag TDP en misschien zelfs maar 1 8pin-connector en dual slot-designs
Is op zich niks mis mee. Maar noem het dan een 4050ti.
300 euro gaat nooit gebeuren aangezien dat een gigantisch gat zou laten liggen tussen de 4070 van minimaal 670 euro en de 4060 Ti. De laatste geruchten zijn $450, dus dan zit je zeker boven de 500 euro.

Uiteindelijk wil Nvidia de prijs per tier nooit verlagen per generatie, maar juist verhogen en ze kunnen nu moeilijk terugkrabbelen en toegeven dat dit een 4050 zou moeten heten.
Het is zeer onwaarschijnlijk dat deze kaart goedkoper wordt dan 400 euro. Echter, ik hoop het maar. Met mijn reactie bedoelde ik ook veelal te zeggen dat de kaart niet aanbevolen wordt voor meer dan 300,-. Daar 1080p nu wordt beschouwd als budget/entry-level hardware. Dan kun je beter uit de voeten met RX 6000 kaarten van de vorige generatie, gezien deze meer VRAM bieden en de driver updates van AMD door de jaren heen altijd de prestaties weten te verhogen na introductie.
Je hebt helemaal gelijk. geheugen bandbreedte is gehalveerd en je hebt minder cuda cores.
Alleen de cpu is hoger geclocked.
Ik denk dat deze GPU hetzelfde presteert en soms zelfs slechte dan zijn voorganger. Maar deze gaat wel 100 euro meer kosten waarschijnlijk.
Oke, met waarschuwingen overal op Youtube is 8GB niet meer "veilig" voor huidige generatie games. Het is ook vreemd dat Nvidia alsnog uitgeeft met specificaties voor RTX4060 / RTX4060Ti.

Men moet eigenlijk elke jaar VRAM met 2GB verhogen als minimaal. RTX30xx is 2 jaar geleden op de markt gekomen, dus dat is 4GB verhoging wel nodig.

Blijkbaar gebruikt Nivida dit als middel om je meer te dwingen duurdere kaarten te kopen met meer VRAM, dus 4070 als minimaal.
Nvidia heeft blijkbaar veel chips over die niet goedgekeurd zijn voor 4070/4080/4090 niveau, en daar maken ze hiermee nieuwe lijn van met meer uitgeschakelde kernen. Dat is goedkoper dan geheel nieuwe wafels maken. Net als bij CPUs zien we dezelfde trend.

Het zal helaas wel meer e-waste worden doordat meer mensen deze kaarten links laten liggen. Er blijft natuurlijk wel handjevol mensen over die graag met weinig geld een kleine update kunnen maken. Maar kleine update maken is niet mooi. Grote updates zijn beter omdat je dan beter meerdere jaren kan doorkomen en niet elke jaar opnieuw kaart kopen. Dat is wat goedkoper per jaar gezien.

En goedkoop zullen ze niet zijn, omdat Nvidia al vaste MSRP ingesteld heeft in de hele lijn. Betekent dus dat tussen RTX4060 en RTX4070 geen groot verschil zal zijn.
Dit maakt de 4060 kaarten dus duurder in vergelijking met 3060 kaarten. Nvidia zet je gewoon bewust in de moeilijke keuze en dwing je meer voor duurdere kaarten te gaan.

Daarnaast is ook niet de bedoeling dat je 4060 kaarten speelt op Ultra setting. Dat is slecht voor VRAM. Ook raytracing is wassen neus op zulke kaarten, het verbruikt ook VRAM en verliest nog meer frames per seconde, het wordt alleen maar nog langzamer. Je kan beter op high zetten en vooral op 1080p spelen. Daar zijn nog veel (budget) gamers van op 1080p.
RTX30xx is 2 jaar geleden op de markt gekomen, dus dat is 4GB verhoging wel nodig.....sterker nog de 3060 non TI heeft al 12 GB geheugen .
Het grappige (of trieste) is dan dat de 3060 misschien langer courant blijft dan zijn 3060ti zusje.
Misschien zelfs langer courant dan de nog te verschijnen 4060? Dat zou helemaal triest zijn......
Weinig misschien aan met die geheugen bandbreedte
Nvidia heeft blijkbaar veel chips over die niet goedgekeurd zijn voor 4070/4080/4090 niveau, en daar maken ze hiermee nieuwe lijn van met meer uitgeschakelde kernen.
Dit is volstrekt niet hoe het werkt. De chips in de 4090 zijn AD102-chips waar al een flink deel van is uitgeschakeld. De goede chips doen ze in de professionele producten, zoals de kaarten die ze voor AI-toepassingen verkopen. Op termijn stoppen ze die mogelijk ook in de 4090 Ti.

In de 4080 zit de veel kleinere AD103-chip en dan nog niet eens de volledige. De goede AD103-chips zijn ze nu ongetwijfeld aan het opsparen en die komen in de 4080 Ti.

In de 4070 en 4070 Ti zit de weer kleinere AD104, waarbij een deel is uitgeschakeld bij de 4070.

In de 4060 Ti en 4060 komt ongetwijfeld de weer kleinere AD106 (een derde van het formaat van de AD102).

Het is dus volstrekt niet zo dat deels kapotte chips die anders in de 4070/4080/4090 zouden komen, nu in de 4060 Ti gaan. Het is andersom. De deels kapotte chips gaan juist in de 4070/4080/4090, terwijl de goede chips in de 4070 Ti, 4080 Ti en de professionele kaarten gaan.

[Reactie gewijzigd door Ludewig op 25 juli 2024 23:23]

Oke, met waarschuwingen overal op Youtube is 8GB niet meer "veilig" voor huidige generatie games.
Dat de grens van 8GB gepasseerd zou worden was een kwestie van tijd. Velen gaven al aan bij de release van de 30xx series dat 8GB op mainstream kaarten niet genoeg zou zijn toekomstige spellen. En dat blijkt nu het geval.

Toen de 3070 uit kwam met maar 8GB was dat een zware teleurstelling. Ik had nog de hoop dat er een 3070 Ti refresh zou komen met 16GB, en heb daar nog lang op gewacht, maar toen duidelijk werdt dat dat niet meer ging gebeuren heb ik een 3090 gekocht - puur alleen voor de hoeveelheid VRAM.
Men moet eigenlijk elke jaar VRAM met 2GB verhogen als minimaal.
Als ik naar mezelf kijk, ik ben gegaan van een 660Ti naar een 1080 naar een 3090. Daar zit dus 4 en 2 generaties tussen. Aangezien nVidia en AMD om de 2 jaar een nieuwe generatie uitbrengen dan moet een videokaart toekomstvast zijn voor 4 tot 8 jaar. AMD heeft juist gehandeld en de vorige generatie standaard voorzien van 16GB.
Blijkbaar gebruikt Nivida dit als middel om je meer te dwingen duurdere kaarten te kopen met meer VRAM, dus 4070 als minimaal.
Ik kan alleen maar concluderen dat nVidia express heeft gekozen om hun mid-tier kaarten kreupel te maken om zo mensen te forceren meer geld uit te geven voor een hogere tier kaart. De 3080 heeft 12GB, en het is nu pas de 4080 die 16GB aan boord heeft. Voor mij is de 4080 dus minimaal.
Daarnaast is ook niet de bedoeling dat je 4060 kaarten speelt op Ultra setting. Dat is slecht voor VRAM.
De 4060 krijgt blijkbaar ook slechts 8GB. Als deze nou 12GB had gehad, had je waarschijnljik best wel een goed aantal spellen op Ultra kunnen spelen (op 1080p met DLSS).
Ook raytracing is wassen neus op zulke kaarten, het verbruikt ook VRAM en verliest nog meer frames per seconde, het wordt alleen maar nog langzamer.
Raytracing is geen selling-point. Dat is op dit moment nog maar "voor de leuk". Te weinig spellen ondersteunen het, en het heeft teveel impact op performance. Ik weeg raytracing op dit moment helemaal niet mee in een overweging welke kaart te kopen.
[...]
Ik kan alleen maar concluderen dat nVidia express heeft gekozen om hun mid-tier kaarten kreupel te maken om zo mensen te forceren meer geld uit te geven voor een hogere tier kaart. De 3080 heeft 12GB, en het is nu pas de 4080 die 16GB aan boord heeft. Voor mij is de 4080 dus minimaal.
Een wat mij betreft logischere verklaring is dat Nvidia heeft geprobeerd de 3xxx reeks betaalbaar te houden. Weet je nog de prijzen van voor de mining hype? Toen zag het er allemaal erg gunstig uit.

Verder ligt het allemaal iets complexer. Zo'n 3070 heeft bijvoorbeeld 8 modules van 1 GB met dus 8 GB VRAM. Wil je naar 10 GB dan heb je een bredere geheugenbus nodig wat ten kostte van de energie efficiëntie gaat; hoe breder de bus des te ongunstiger het stroomvebruik. Een alternatief is grotere modules gebruiken. In dit geval dan 8 * 2 GB voor totaal 16 GB. Alleen dat maakt een kaart veel duurder om te produceren, bij een GPU is VRAM nu eenmaal een groot deel van het kosten plaatje.
Als je een waardige opvolger voor je 3060ti zoekt kom je uit op de 4070.

Met launch was de 3060ti een 1440p kaart. 60FPS en High/Ultra.

Dat gaat de 4060ti, als de 8GB klopt, niet redden vandaag de dag. Voor 1440p/60FPS/High heb je 12GB nodig in de meest recente games.
Dat geheugenbandbreedte is anders ook erg aan de krappe kant, dat zal zich ook wel wreken. Vroeger was het xx60 tier ook vaak van 128 but voorzien, daar niet van, maar relatief tot de 4070 is het echt een aderlating. Zeker omdat dit het Ti model betreft.
Lijkt mij alsof de 40xx serie uit balans is t.o.v. de 30xx serie. Benieuwd naar de uiteindelijke specs en benchmarks.

Die bandbreedte wordt wel een ding i.c.m. 8GB VRAM. Eerder tegen de limiet = meer in/uit streamen.

[Reactie gewijzigd door NLxAROSA op 25 juli 2024 23:23]

Ja, vooral qua prijs eigenlijk. Het zou allemaal nog wel te verdedigen zijn als de 4060 een 300€ entry-level prijskaartje mee zou krijgen. Dat is al flink duurder dan wat het ooit was natuurlijk.

Als je deze specs ziet, is het een beetje het minimale om anno 2023 nog enigszins leuk te kunnen gamen. Ga je nog verder korten, dan houd je een kaart over die sowieso geen 300-400€ waard is. En dan is instappen in PC gaming wel erg duur.
Vroeger was het xx60 tier ook vaak van 128 but voorzien
Valt wel mee, sinds de GTX260 (15 jaar geleden) had alleen de GTX960 een 128bit bus, de rest was allemaal 192 of 256bit in dat segment.
Sorry maar dat is echt onzin. Mijn 3070 trekt 1440p/high ultra/60+ fps makkelijk. Ondanks de 8gb. Er zijn een paar games die meer vragen op ultra maar dat is dan ook echt alles. Dit hele 8gb is te weinig verhaal is zwaar overdreven.
Dat deze trend bestaat is al aangetoond, daar is geen discussie over. Ook is al meerdere malen aangegeven waarom deze trend bestaat (kort samengevat: PS5/XBSX architectuur: devs hoeven geen rekening meer te houden met vorige generatie, 10-12GB aan textures/assets is/wordt de norm).

Dat multi-platform titels die ook op PS4/XBO moeten draaien wel lekker draaien met 8GB lijkt me geen verassing. Maar zo'n beetje alles wat binnen nu en paar jaar uitkomt hoeft daar geen rekening meer mee te houden en dat betekent 10-12GB aan VRAM om op je PC dezelfde settings te hebben als op de consoles.

500 euro uitgeven aan een nieuwe GPU met 8GB is gewoon een heel slecht idee als je wil dat die kaart een tijdje mee gaat.
Het wordt echt zwaar overdreven, en geldt bijna altijd enkel met RT. 99% draait gewoon goed. En anders zeg je even een instelling naar high ipv ultra…
Het zijn niet alleen games met RT, maar het RT verergert het probleem zeker. Maar dat is nog steeds geen excuus, Raytracing en DLSS zijn juist de features die RTX kaarten interessant/speciaal maken. En dat zijn nou juist de features meer VRAM gebruiken, dat maakt het extra raar dat de hoeveelheid VRAM zo mager is vergeleken met AMD. Zeker als je kijkt naar hoe duur de videokaarten zijn geworden, dan mag je gewoon verwachten dat de hoeveelheid VRAM niet het probleem wordt.

Ja, 8GB VRAM was lange tijd genoeg, afhankelijk van wat je doet/speelt natuurlijk, want modded skyrim wordt al moeilijk met die hoeveelheid VRAM. Helemaal mooi verder, maar het is duidelijk dat er nu steeds meer games uit komen waar het een probleem wordt. Soms betekend dat kleine spikes in 1% low frametimes, en soms betekend het crashes of enorm slechte performance. Waarbij de goede performance van de 3070(ti) wordt gelimiteerd door VRAM en je (eigenlijk onnodig) instellingen moet verlagen, of sommige games helemaal niet kan spelen. Je kan optimalisatie de schuld hiervan geven, maar sommige games zijn nou eenmaal slecht geoptimaliseert of hebben gewoon meer VRAM nodig. Hogwarts Legacy's oplossing is het compleet verwijderen van textures om binnen de VRAM limieten te blijven, waardoor het spel speelbaar wordt maar er slecht uitziet. Uiteindelijk zit de consument linksom of rechtsom met een compleet onacceptabele game ervaring in sommige games MET EEN RTX 3070(ti)! Dat kan je zo veel goed praten als je wil, maar dit was geen probleem geweest als de kaart meer VRAM had. AMD's tegenhangers presteren immers wel goed in deze gevallen.

En dan komt Nvidia nu lekker met een kaart met evenveel VRAM en waarschijnlijk rond dezelfde performance, dat is gewoon dom, want de VRAM problemen zullen met de tijd alleen maar toenemen. Nvidia kan hierdoor lekker nog meer winst maken, en de consument zit met een kaart die vanaf de aankoop al problemen heeft met sommige games, wat met de tijd alleen maar zal toenemen. Diezelfde consument zal daardoor misschien zelfs sneller een nieuwe kaart kopen hierdoor. Erg slim van Nvidia.

[Reactie gewijzigd door Raphire op 25 juli 2024 23:23]

Inderdaad correct. Ik heb het idee dat de meeste reageerders hier geen 3070 hebben en maar wat uit hun duim zuigen. Geen enkel spel heeft tot nu toe problemen gehad met de 3070.
Geen enkel spel heeft tot nu toe problemen gehad met de 3070.
The Last of Us
Hogwards
Resident Evil 4
A Plageue Tale: Requiem
The Callisto Protocol
Warhammer 40K Darktide
COD: MWII

En bovenstaande games is niet alleen op 4K, maar zelf op 1080P Ultra + RT

En het punt is natuurlijk ook dat als je zoveel geld uitgeeft aan een kaart, je niet (zo snel) je settings naar beneden wilt zetten om het speelbaar te houden

En je kan ook moeilijk ontkennen dat als je het vergelijkt met een kaart met 16GB, deze in alle bovenstaande spellen nog prima mee komt, zelf met Raytracing aan

[Reactie gewijzigd door Sinester op 25 juli 2024 23:23]

Absolute onzin.

Ik heb in Hogwarts, Resident Evil 4 absoluut geen problemen op 1440p op high. Alles is 60+fps

Dus geen idee waar je deze info vandaan haalt, maar het klopt niet.
zijn genoeg vid op youtube erover dus het is waar en geen onzin.
we merken met 8gb problemen onder gaming...het is niet genoeg...stuttering/vertraging/kwaliteit minder/crash enz.

dus heb jij geluk en geen problemen.
En de info klopt wel kerel en ik game the games op 1080p en ervaar die problemen wel net als velen onder ons.
Het is zeker meer dan genoeg. Die filmpjes werken niet met juiste settings of verouderde cpu's.
Dat deze trend bestaat is al aangetoond, daar is geen discussie over. Ook is al meerdere malen aangegeven waarom deze trend bestaat (kort samengevat: PS5/XBSX architectuur: devs hoeven geen rekening meer te houden met vorige generatie, 10-12GB aan textures/assets is/wordt de norm).

Dat multi-platform titels die ook op PS4/XBO moeten draaien wel lekker draaien met 8GB lijkt me geen verassing. Maar zo'n beetje alles wat binnen nu en paar jaar uitkomt hoeft daar geen rekening meer mee te houden en dat betekent 10-12GB aan VRAM om op je PC dezelfde settings te hebben als op de consoles.

500 euro uitgeven aan een nieuwe GPU met 8GB is gewoon een heel slecht idee als je wil dat die kaart een tijdje mee gaat.
@848evo86 heeft gelijk aangezien je op de pc er simpelweg voor kunt kiezen om bij settings de ultra preset te wijzigen en een stapje omlaag te doen bij texture details. Als je daar niet tegen kunt dan zou ik inderdaad een kaart met meer VRAM kopen, maar problematisch is het niet te noemen.
Nieuwere generatie hoort toch sneller te zijn? Is dit een fout in het artikel?
ACM Software Architect @Barsonax17 april 2023 07:53
Videocardz noemt ook die 288GB/s voor de 4060TI (en 4060). Dus dan zouden zij het al fout hebben.

Wellicht verwacht Nvidia dat de toegenomen cache dit verschil in bandbreedte voldoende compenseert. Maar het ziet er inderdaad wel uit als een flinke daling (veel groter dan bij de 4080 vs 3080).
Iets minder cores ten opzichte van de 3060 Ti maar wel elk een stuk sneller.
Dan is het toch maf dat ze de geheugenbus afknijpen?
Je zou juist verwachten dat met snellere cores er méér uit het geheugen getrokken kan worden, niet mìnder.
Het geheugen is alleen nodig voor data die niet in cache zit. Die snellere cores willen niet op geheugen wachten, cache is sneller. Alleen voor de incidentele cache miss wordt het geheugen gebruikt, en dat is nu dus minder vaak nodig.
Ongeveer 36% sneller ongeveer als ik de boostcloks + cuda cores omrekent naar virtuele cuda cores @ 1GHz
3060TI: 4864 * 1.665 = 8099
4060TI: 4352 * 2.535 = 11032
11032/8099 = 36% snellere gpu performance.

maar van 256bit naar 128bit geheugen en 8GB...
Van 256bit naar 192bit(432GB/s) en 12GB was logischer.

De extra cache zal wel iets compenseren maar er moet ook nog rekening worden gehouden dat de GPU 36% meer data kan verwerken...

Dit lijkt me dan eerder gaan kaart die native voor 1080p is bedoelt met tensor/dlss up-scaling naar 1440p
Waarom kondigen bedrijven producten niet gewoon aan? Iedere keer weer die zogenaamde geruchten die door de marketingmachine van de fabrikanten wordt aangezwengeld....
Alles voor de hype en gepraat om een product. Publiciteit.
Heel stom inderdaad, ik geef er niet zo veel aandacht aan (behalve dat ik genoeg aandacht geef om hierop te reageren).
Maar dit hier lijkt me niet helemaal de soort van hype waar NVidia op zit te wachten...
Dat ze onder de 192 bits/12GB van de 4070 gaan zitten is wel logisch - productdifferentiatie. Maar 160 bits/10GB was in principe ook een optie geweest. Met 25% extra bandbreedte hadden ze ook iets op de cache kunnen besparen.
Dan hadden ze de AD104-chip moeten gebruiken, die een derde groter is dan de AD106-chip die hier in komt. De hele 4000-serie staat echter in het teken van het gebruik van relatief kleine en goedkope chips, zodat de winst maximaal is.
Pff 8 GB VRAM wat een grap zeg.
Ik werk met een RTX3070 in Unreal Engine 5 en krijg al bij vrij kleine scenes met Megascans al problemen met videogeheugen. Waarom ze de 4xxx serie met 8GB leveren is voor mij een raadsel, dat is niet next-gen.

[Reactie gewijzigd door Menesis op 25 juli 2024 23:23]

Voor de 4060 en 4050 is 8 gb gewoon prima, genoeg voor games op 1080p met high settings. De 4060 ti moet wel wat meer kunnen en is dus beperkt door zn 8 gb vram in sommige games op 1440p en zelfs 1080p.
erg grappig wat je typt...de 1070/1070ti/1080/1080ti ....kaarten van 7/8 j terug allemaal geschikt voor 1080p gaming zelfs voor 1440p.....wat is het verschil?
Waarom zouden wij deze kaart WILLEN kopen?

Zit niks nieuws in...en begin niet over de raytrace....want dat is te kreupel in dit segment.
Wat een karige specs voor de 4060ti. 128 bit bus, pcie 4.0 8x en 8gb aan VRAM
En minder CUDA cores dan de 3060ti, het is nog nooit voorgekomen dat een nieuwer model minder CUDA cores had dan de vorige generatie, dit is een nieuw dieptepunt.
De geheugen bandbreedte zit weinig vooruitgang in vergeleken met de 3060Ti. Een 4070 heeft maar krap iets meer.

Op dit item kan niet meer gereageerd worden.