'Nvidia RTX 5050 krijgt 8GB aan vram, 5060 Ti krijgt 8GB of 16GB'

Nvidia heeft volgens een leaker een GeForce RTX 5050 met een 128bit-geheugenbus en 8GB aan GDDR6-geheugen in de maak. De GeForce RTX 5060 Ti zou met 8GB en 16GB aan vram op de markt verschijnen. Nvidia heeft de videokaarten nog niet officieel aangekondigd.

De doorgaans betrouwbare leaker kopite7kimi schrijft in een post op X dat de Nvidia GeForce RTX 5050 2560 CUDA-rekenkernen krijgt. De videokaart beschikt over een GB207-300-gpu en zal naar verluidt een tdp van 130W hebben. Er zijn nog geen details bekend over de geheugensnelheid en geheugenbandbreedte. Het is ook niet duidelijk wanneer Nvidia de RTX 5050 zal aankondigen en wanneer het product te koop zal zijn.

Kopite7kimi heeft ook nieuwe details over de GeForce RTX 5060 gedeeld op X. De videokaart beschikt naar verluidt over 3840 CUDA-rekenkernen via een GB206-250-A1-gpu. Uit eerdere geruchten bleek al dat de RTX 5060 8GB aan GDDR7-geheugen meekrijgt met een geheugensnelheid van 28Gbit/s in combinatie met een 128bit-geheugenbus. Dat resulteert in een geheugenbandbreedte van 448GB/s. De tdp van de RTX 5060 ligt volgens kopite7kimi op 150W.

De Nvidia GeForce RTX 5060 Ti zou volgens de leaker 4608 CUDA-rekenkernen krijgen en 8GB of 16GB aan GDDR7-geheugen. Deze videokaart beschikt over een GB206-300-gpu en een 128bit-geheugenbus. De geheugensnelheid ligt volgens VideoCardz op 28Gbps. Dat resulteert in een geheugenbandbreedte van 448GB/s. De tdp van de RTX 5060 Ti ligt volgens kopite7kimi op 180W.

Het is niet duidelijk wanneer de GeForce RTX 5060 Ti op de markt verschijnt. Er deden eerder dit jaar al geruchten de ronde waaruit bleek dat de videokaart in maart beschikbaar komt. VideoCardz claimt dat zowel de GeForce RTX 5050 als de GeForce RTX 5060 Ti in de maanden april en mei op de markt zullen verschijnen.

Door Jay Stout

Redacteur

10-03-2025 • 09:58

160

Submitter: Vurenvos

Lees meer

Reacties (160)

Sorteer op:

Weergave:

8GB is natuurlijk aan de lage kant tegenwoordig, dit zal al op mainstream kaarten van een jaar of 8, 9 geleden.
Aan de andere kant gaat dit waarschijnlijk een kaart zijn waarmee je op 1080p gamed, dan heb je met 8 GB genoeg.
8GB is natuurlijk aan de lage kant tegenwoordig, dit zal al op mainstream kaarten van een jaar of 8, 9 geleden.
Aan de andere kant gaat dit waarschijnlijk een kaart zijn waarmee je op 1080p gamed, dan heb je met 8 GB genoeg.
Aan de lage kant? Het is te absurd voor woorden dat nvidia nu nog aan durft te komen met 8GB kaarten. En het is nog absurder dat mensen het maar blijven verdedigen met: "het is genoeg".

De 12GB van de nvidia RTX 5070 is al te weinig voor huidige titels. En dat is dan een kaart van 1300 euro. Voor dat geld mag je toch zeker wel verwachten dat je alle huidige titels op max kunt draaien. Maar nee, dat gaat niet. Want nvidia heeft weer een keer een twee tientjes op de hoeveelheid ram bezuinigd ...op een kaart van 1300 euro.
Op de 192 bits bus van een 5070 is de keuze simpel: 12 GB of 24 GB. 16 is geen optie; dat is niet deelbaar door 3. En als je een 236 bits bus wil, dan kom je bij de 5080 uit (die dan dus ook 16 GB heeft).

Het fundamentele probleem is dat je ook met GDDR7 redelijkerwijs vastzit aan 2 GB per 32 bits busbreedte. 4 GB kan technisch, maar dan loop je tegen snelheidslimieten aan voordat je tegen capaciteitslimieten aanloopt.

Dus ja, theoretisch kun je nog een kaart maken met een 224 bits bus en 14 GB. Maar anders dan dat heb je geen opties onder de 5080 configuratie met 256 bits/16 GB.
Acht jij daarom de kans klein dat de 5060 Ti met slechts 8GB vram uitkomt?

Ik vind het vermogenverschil tussen 150W (5060 met 3840 CUDA cores ) en 180W (5060 Ti met 4608 CUDA cores) te klein om een verdubbeling van het vram. Ik hoop dat ik ongelijk heb.

Ik hoop dat de 5060 Ti mét 16 GB uitkomt, maar ben bang dat die 30W verschil volledig wordt ontsluit door de extra cuda cores.

Ik verwcht dat Intel elk moment met de B770 uitkomt met minstens 16GB vram en laag idle verbruik. Dat wordt een interessante review tussen die twee, als ze rond hetzelfde prijspunt liggen, met name voor productiviteit en af-en-toe-gamers.
Dit is aan de lage kant voor jou. Maar houd er misschien rekening mee dat dit niet de kaart is die bedoeld is voor alles op 4K met ultra high te spelen. Dit is eerder om de kinderen freddy fish te laten spelen of voor de werk pc van de boekhouder die af en toe eens een videocall moet doen in combinatie met een achtergrond filter.
Dit is aan de lage kant voor jou.
Zou jij nu nog een 4-core Intel CPU voor 500 euro kopen? Eerlijk zeggen. Want dat is min of meer hetzelfde als nu nog een GPU met 8GB kopen.

Technisch gezien kun je op een 4-core CPU bijna alle moderne games spelen. Net als op een GPU met 8GB VRAM. Toch koopt niemand nog 4-core Intel CPU's om mee te gamen. Desondanks zijn er nog steeds mensen die "8GB nvidia" maar blijven verdedigen.
Je vergelijkt appelen met peren natuurlijk.
Die 8GB heeft NUL invloed op de prestaties tot die vol zit en zowat alle games op 1080p vragen geen 8GB+ van vram.

Daarbij moet je altijd je pc afstellen op wat je ermee doet, een high end cpu , low end gpu om op 1080p te spelen is een verspilling van die high end CPU. Daar kan een 4core voldoende zijn.
Die 8GB heeft NUL invloed op de prestaties tot die vol zit en zowat alle games op 1080p vragen geen 8GB+ van vram.
Dat is simpelweg, objectief, niet waar voor moderne games. Daarnaast is 1080p tegenwoordig echt wel het minimale wat gebruikt wordt. Dat een nieuwe 500+ euro GPU dat niet trekt is simpelweg absurd.
Zelfs de meeste moderne games doen dat niet. Dat jij enkel kijkt naar een handvol aaa games doet ee weinig toe dat er heezeel veel meer niet aaa gales uitkomen die allemaal prima draaien op1080p op een 4060.

(Wat vermoed ik de 5050 zal vervangen)
Omdat het ook geen high-end 4 cores zijn...
Dat is dan ook weer overdreven niet? Dat mag allemaal wel vlot draaien op een moderne igpu mag ik hopen.

Ik denk eerder aan de tiener die graag een potje fortnite of andere lichte game speelt zonder een (klein) fortuin kwijt te zijn.
1300 voor een RTX 5070 is dan ook weer aan de hoge kant, euh ik bedoel zwaar overdreven…

5050 is eigenlijk een instapkaart, als je die koopt heb je geen hoge of de verkeerde verwachtingen.

Ik sta er dubbel in, doordat het zo traag omhoog gaat, is de lifespan van mijn 2070S veel langer dan eender welke andere kaart die ik ooit eerder heb gekocht. Spellen blijven nog steeds speelbaar (zelfs Indiana Jones) en dat is voor mij belangrijker dan dat ze er perfect uitzien. Nu game ik al sinds Wolfenstein 3D en had ik genoeg inlevingsvermogen om doodsbang te zijn van de 2D bitmap monsters in Doom, gameplay is me dierbaarder dan graphic performance op zich.

“Does it run Crysis” was vroeger geen grap, 90% of meer konden het spel niet eens opstarten, en dan heb ik het helemaal niet over de instapkaart. En mijn PC in die tijd kostte ook 2500 euro (voor inflatie).

Dus ja meer VRAM is leuk en waarschijnlijk nodig, maar het zou ook iedereen met een oude kaart dwingen om te upgraden omdat developers dan mee zouden opschuiven. En we dus gedwongen worden om nog meer/sneller geld richting Nvidia en scalpers te schuiven.

In die zin vind ik dus ook niet zo erg, ik kan gewoon langer wachten met de upgrade.
In die zin vind ik dus ook niet zo erg, ik kan gewoon langer wachten met de upgrade.
Je kunt zowieso wachten met upgraden. Dat iemand anders een snellere PC heeft betekend niet dat jij ook moet upgraden. Er zijn duizenden leuke games die prima draaien op een GPU met slechts 8GB. FOMO is iets wat mensen enkel ongeluk brengt.

Je zou ook kunnen overwegen om op een console te gamen. Dat is prima leuk om te doen en dan hoef je helemaal nooit te upgraden. Niets mis mee.

Maar voor mensen die wel willen upgraden. Mensen die wel graag vooruit willen. Voor die mensen is 8GB VRAM nu echt te weinig. Het remt de hele games industrie. Moet je voorstellen dat we nu nog steeds op 4-core CPU's van Intel zaten te gamen met z'n allen. Ben toch echt wel blij dat 8(of meer)-core CPU's tegenwoordig heel gewoon zijn als je een nieuwe PC bouwt of koopt. Intel heeft de industrie bijna 10 jaar lang geremd met hun 4-core desktop CPU's. En nvidia doet datzelfde nu met 8GB VRAM in het lage en midden segment van hun GPU's.
[...]

Maar voor mensen die wel willen upgraden. Mensen die wel graag vooruit willen. Voor die mensen is 8GB VRAM nu echt te weinig. Het remt de hele games industrie. Moet je voorstellen dat we nu nog steeds op 4-core CPU's van Intel zaten te gamen met z'n allen. Ben toch echt wel blij dat 8(of meer)-core CPU's tegenwoordig heel gewoon zijn als je een nieuwe PC bouwt of koopt. Intel heeft de industrie bijna 10 jaar lang geremd met hun 4-core desktop CPU's. En nvidia doet datzelfde nu met 8GB VRAM in het lage en midden segment van hun GPU's.
Ik gaf alleen maar mee wat het netto effect is voor mijzelf, en dat is eigenlijk eerder positief. Vandaar dat ik er enigszins dubbel in sta. Ik snap dat er mensen zijn met andere eisen (al vind ik het moeilijk om de indruk te onderdrukken dat net die groep last heeft van FOMO of onrealistische verwachtingen) maar ik denk dat de *50, *60 en zelfs de *70 reeks sowieso nooit voor hen bedoeld waren.

Dat de game industrie geremd wordt, weet ik niet. Ik denk dat sowieso wat andere zaken een veel groter probleem vormen, maar als er eentje van technische aard is, dan is het de rekenkracht van de consoles, want daar willen ze sowieso voor ontwikkelen. De low-end PC GPUs zijn gewoon volgend, en uiteraard speelt Nvidia dat spelletje mee. Als de PS6 straks 24GB VRAM ter beschikking heeft (of meer), dan zal het rap opschuiven, vandaag is daar nog steeds geen behoefte toe.
Wat is hier zo absurd aan? Het is toch meer dan logische dat het vram wordt geschaald met de performance van de chip? Als de chip geen titels kan draaien die meer dan 8gb aan vram nodig zijn is het toch nutteloos om er meer dan 8gb aan vram op te zetten?

Nu is het natuurlijk de vraag of nvidia dit goed geschaald heeft, voor de RTX 5500 lijkt me dit genoeg, voor de RTX 5060 Ti lijkt me dit inderdaad te weinig.

Ik had persoonlijk ook liever gezien dat de 5060 (Ti) minimaal met 12gb wordt uitgerust en de 5070 met 16gb. Het lijkt er hier op dat nvidia mensen probeerd te weerhouden om het lagere segment in te zetten voor andere doeleinden dan gaming.
Wat is hier zo absurd aan? Het is toch meer dan logische dat het vram wordt geschaald met de performance van de chip?
Je snapt dat je hier nu zegt dat een GPU van 10 jaar oud net zo snel is als een GPU van nu. Dat is natuurlijk net zo absurd als 8GB VRAM op een GPU van nu.

Het is werkelijk waar niet te verdedigen dat je een moderne GPU van meerdere honderden euro's uitrust met slechts 8GB.
Je snapt dat je hier nu zegt dat een GPU van 10 jaar oud net zo snel is als een GPU van nu. Dat is natuurlijk net zo absurd als 8GB VRAM op een GPU van nu.
Je zegt dit, maar negeert vervolgens de punten die Jeffrey naar voren brengt. Een RTX 5060 (want daar gaat dit artikel over) is veelal een 1080p kaart. In 95% van de gevallen zul je aan 8 GB VRAM genoeg hebben, dus heeft 't geen zin om 12 of 16 GB te doen (tenzij je een nóg hogere prijs wilt betalen voor je videokaart, voor 't handjevol spellen die niet genoeg hebben aan 8 GB). Ik zou in die gevallen eerder m'n textures terugschalen naar medium of high, maar goed.
Dat zou je wel zeggen, maar toch heeft Nvidia de 3070 met 8gb en 3080 met 10gb uitgebracht. Die allebei niet goed met de tijd zijn meegegaan hierdoor xD

Daar bovenop komt nog dat ze qua prijzen en "klasses" wel heel royaal rekenen. De 5070 is eigenlijk een 5060 met de prijs van een 5080.
Laten we zeggen dat een gpu 50% te kort komt voor 1080p 60fps. Dan draait dat spel met een goede cpu nog steeds 1080p 30fps.

Komt een spel echter 50% vram te kort, dan kan de performance instorten door gebruik van gewoon systeemram. (Afhankelijk van hoeveel textures relatief veel of weinig worden gebruikt en hoe daar in software/drivers/gpu mee wordt om gegaan.)

Een tragere gpu met meer vram draait misschien op minder fps bij dezelfde resolutie, maar kan wel een grotere lading textures aan. Als je goed tegen lage fps kan is dat een betere keus op de lange termijn. Uiteindelijk wordt 8gb ooit te weinig voor bepaalde spellen en toepassingen, maar een gpu kan relatief goed meegaan door vermindering van instellingen als anti aliasing, lagere schermresolutie, etc.

En ja, een goed gemaakt spel zou nu nog steeds zelfs met 4 of 6 gb vram moeten kunnen. Maar texture sizes zijn van wat ik ervan begrijp belangrijk voor de kwaliteit. Uiteindelijk hebben ook ontwikkelaars geen tijd of zin meer om oudere hardware te blijven ondersteunen.
De hogere kaarten hebben ook niet meer geheugen gekregen. In dat opzicht is het te verwachten dat de lage kaarten ook geen boost zouden krijgen.

Maar ja, het is wel absurd dat ze dat niet hebben gedaan. Een minimale verbetering tov de vorige generatie. Maar dit kon je al aan zien komen toen ze hun high-end kaarten introduceerden en daar geen extra geheugen in zette. Het is duidelijk merkbaar dat hun AI server kaarten daar de voorrang in krijgen.
Tjah, als hun high-end kaarten met amper vram uitkomen, de budget kaarten zullen niet meer hebben dan de high-end kaarten. Straks komt nog een 4Gb kaart uit. Het is vast genoeg om naar fake frames te kijken op 10 jaar oude games.
De RTX 5000 kaarten hebben een kwart nodig van het geheugen nodig vanwege een nieuwe truuk van wat ik hoor.
Voor Indiana Jones is 8 GB in ieder geval niet genoeg, zelfs voor 1080p. Heb al benchmarks gezien waarbij kaarten van 8 GB zware problemen hebben op high...
Die ene game.. en de andere niet geoptimaliseerde. Eigenlijk moeten die games gewoon geboycot worden.
Die ene game..
Nog wel. Maar je koopt een kaart niet alleen voor nu. Je moet ook naar de toekomst kijken.
En de trend is duidelijk. Games eisen steeds meer VRAM om soepel te draaien.

Een kaart met krappe VRAM zal zijn (rest)waarde veel sneller verliezen dan een ruim bemeten kaart. Geheugen tekort is een veel ernstiger performance probleem dan minder cores/lagere clock/minder bandbreedte.
Je kan de toekomst moeilijk voorspellen, koop een kaart voor nu, bespaar wat geld, zodat je sneller terug een nieuwe kaart kan kopen indien het echt nodig is.

Altijd een pc bouwen voor je huidige noden, niet voor dingen die misschien al dan niet in de toekomst gaan gebeuren.
Ik moet zeggen dat ik dat een rare insteek vind voor het bouwen van een PC. Ieder zijn eigen voorkeur natuurlijk, maar ik heb net een volledig nieuwe PC in elkaar gezet, en ik heb echt zeker wel een inschatting gedaan over wat ik de komende drie tot vijf jaar nodig ga hebben. Toegegeven, zeker de graka markt is ontzettend koffiedik kijken, dus misschien stort de hele handel over een jaar wel in en zijn de kaarten dan spotgoedkoop, wie weet. Dus het blijft een kristallen bol, maar ik weet wel dat ik met mijn PC nu weer een flinke tijd vooruit kan.
Nou ik snap het wel en vind het helemaal geen rare insteek. Ja een jaar of 2 ermee door kunnen zeker waar. Maar bijvoorbeeld 5 of 10 jaar, nee. Liever een kaart die nu goed is en iets goedkoper. Heb ik meer nodig, dan verkoop ik richting die tijd de huidige kaart en koop ik een nieuwe. Als je kijkt ben je dan goedkoper uit voor dezelfde performance die je nu zou kopen. Daarmee ben je vaker in totaal goedkoper uit. Sowieso ben ik altijd van de tweedehands markt waar je met goede deals geld kunt besparen
Het klopt dat games niet genoeg geoptimaliseerd worden tegenwoordig, maarnzall heeft ook zeker gelijk:

Als ik kijk naar de prijsverhogingen op videokaarten de afgelopen tijd dan denk ik dat we toch echt wel mogen verwachten dat daar wat extra VRAM voor terug komt
Het klopt dat games niet genoeg geoptimaliseerd worden tegenwoordig, maarnzall heeft ook zeker gelijk:
Ik heb geen idee waar dat idee vandaan komt. Het is gewoon niet waar. Om te beginnen doen de moderne game engines een heel deel van de optimalisatie zelf. Daarnaast zijn de meeste game devs en artists tegenwoordig goed opgeleid en weten echt wel hoe je efficient werkt.

Natuurlijk zijn er uitzonderingen als een game te vroeg uitgebracht moet worden, maar uit ervaring (en als iemand die dit soort projecten moet managen) kan ik je met het hand op het hart vertellen dat er bijzonder weinig optimalisatie ruimte zit in de meeste projecten. Een procentje hier en daar en de vlag gaat al uit tegenwoordig. Vrijwel geen update die je tegenwoordig ziet brengt verbetering in FPS of vram gebruik.
Niet kopen. Dan worden de prijzen vanzelf weer normaal.
Ik wacht al 10 jaar op dat moment ;)
de invulling van de definitie van "normaal" verandert jammer genoeg ook :(
Als VRAM de bottleneck is, zekers. Daarom heb ik de 3090 destijds gekocht. Veel VRAM. En die ene game die ik niet meer kan draaien omdat de kaart op andere fronten tekort schiet, jammer dan. Zoveel goede AAA games komen er toch niet meer uit.

Ik speel zelf op 1440p, dan kan ik nog wel 4 tot 6 jaar uit met deze 3090 (wellicht even de thermal pads/paste een keer vervangen).
Kijk, 4K is heel anders. Luxe in mijn ogen. 4K én een slecht geoptimaliseerde game zorgen er ook wel voor dat je het duurste van het duurste nodig hebt (en waarbij VRAM belangrijker word).

Als je in deze positie zit:

1. Je wil op 4K gamen
2. Je bent op de markt voor een nieuwe videokaart
3. Je wilt de nieuwste AAA games spelen
4. Je wil deze AAA games op de allerhoogste settings spelen met hoge refresh rates

$$$$$

[Reactie gewijzigd door jellybrah op 10 maart 2025 12:27]

Indiana Jones is anders énorm goed geoptimaliseerd. Een voorbeeld van een developer die het wel goed doet.
Maar ze hebben dan ook technieken gebruikt die ontzettend veel performance opvreten, zelfs met goede optimalisatie.
Terwijl ze andere, veel zuinigere technieken hadden kunnen gebruiken en kunnen implementeren voor de lagere instellingen, maar gewoon geweigerd hebben dat te doen.

Hoe noemen we dat dan?
Hoe noemen we dat dan?
Uh, een afweging maken? Momenteel kiezen de meeste developers voor raytracing én rasterized solutions omdat raytracing niet de performance biedt die spellen nodig hebben. Eigenlijk doen ze massaal dubbel werk. MachineGames heeft dat voor Indiana Jones niet gedaan en richt zich 100% op een RTGI solution. Dat is een afweging.

We weten dat Id Tech goeie performance biedt, en dat is hier te zien. Voor een spel met mandatory raytracing draait het méér dan prima.
Je sluit hier mee gewoon een HOOP potentiële klanten uit en dat doen die andere spellen dus niet door allebei de technieken te gebruiken.
Dus vraag mij af of dit opweegt tegen de afweging, maar de tijd zal het leren. Gezien de Steam Survey llaat zien dat de RTX360 en RTX4060 veruit de populairste kaarten zijn (en wél raytracing aan kunnen maar...) zal het een kwestie van geduld moeten zijn (of een moloch als Microsoft achter je hebben staan die de verliezen opvangt).
Hoeveel is ''een hoop'' volgens jou? De eerste RT-capable videokaarten komen uit 2018 - bijna 7 jaar geleden. Met een GTX 900 of 1000 kaart (of AMD equivalent) heb je sowieso weinig te zoeken bij moderne spellen imo. Diezelfde Steam Survey laat zien dat de meeste mensen anno 2025 een RT-capable GPU hebben.
"RT capable" betekend niet dat het ook zinvol gebruikt kan worden....
Zeker de eerste RTX kaarten ondersteunden weliswaar ray tracing maar de performance was dusdanig belabberd dat je het echt niet wilde gebruiken.
En op hogere resoluties is ray tracing op een 3060 nogsteeds geen zinvolle optie.
Zeker de eerste RTX kaarten ondersteunden weliswaar ray tracing maar de performance was dusdanig belabberd dat je het echt niet wilde gebruiken.
Dat ben ik met je eens. Heb jaren een RTX 2070 gehad en daarmee was ray-tracing meestal een no-go voor mij. Niet te doen.

Maar even terug naar Indiana Jones, want daar ging deze discussie over: als ik benchmarks erbij pak zit de RTX 2070 rond de 60fps @ 1080p medium settings. En de minimum spec volgens MachineGames is een RTX 2060. Dus in dit geval is ''RT capable'' redelijk synoniem met een playable experience, toch? Da's redelijk vergelijkbaar met de performance die een 2060 (of 2070) uit de meeste spellen haalt anno 2025.
Het spel heeft een bijkomende probleem met dat 8GB aan VRAM op 1080p op het randje is.
Vervolgens sluit je dus ook een hoop RT compatible kaarten uit.
We weten dat Id Tech goeie performance biedt, en dat is hier te zien. Voor een spel met mandatory raytracing draait het méér dan prima.
Dat is waar, maar verplichte raytracing zie ik wel als een vorm van niet optimaliseren. Het kost veel tijd en moeite om met prebaked/rasterized technieken een redelijk gelijkwaardige ervaring te krijgen als met RT, maar de performance is veel beter. Als je RT gebruikt, dan laat je dat allemaal realtime aan de GPU over, scheelt heel veel ontwikkelingstijd, maar de performance is veel slechter.

Laatst speelde ik the last of us part 2 weer eens op de PS5. Die game komt nog uit het PS4 tijdperk en is grafisch nog steeds mooier (zonder enige vorm van RT) dan al die niet geoptimaliseerde RT meuk die we deze generatie naar ons toe geslingerd krijgen.

[Reactie gewijzigd door Hulleman op 10 maart 2025 11:08]

Mwoah, dat zie ik niet zo. Realtime raytracing is hoe dan ook de toekomst van computer graphics. Met prebaked lighting moet je enorm veel concessies doen. Statische environments, statische belichting (time of day), statische objecten, etc. RT geeft developers juist meer creative vrijheid.
En toch moet ik af en toe twee keer kijken of het geen video is als ik in GTA5 's avonds door de regen rijd, en dat zonder raytracing op een 1660ti.
Of juist wel. Dat je met een pracht spel wat meer vram nodig heeft acceptable FPS kan halen. Die andere redden het niet omdat de FPS zelfs op 1080p zo slecht is dat je vanzelf terug schaalt.
"Het spel is niet geoptimaliseerd" is altijd zo een onnozel zwak argument. Ten opzichten van wat? Spellen worden nu eenmaal zwaarder omdat er steeds meer eisen worden gesteld, zowel grafisch als puur technisch van wat er allemaal moet kunnen in een spel. Spoiler alert: spellen van vandaag zijn gaan inderdaad een stuk slechter presteren dan spellen van 20 jaar geleden om diezelfde hardware. Dat heeft absoluut niets met optimalisatie te maken.
Dat is helemaal niet onnozel. Zonder al teveel in detail te gaan zijn games totaal niet "zwaarder" of "gedetailleerder" dan voorheen. Eerder andersom. Kijk naar Star Wars outlaws: low textures, bugs, glitches, slechte animaties (en gezichten) en dat alles waarbij je een dikke vette videokaart voor nodig hebt. Laat me niet lachen. En dat is slechts één game van de laatste jaren. MH Wilds, Veilguard en ook straks AC gaat er "last" van hebben.

[Reactie gewijzigd door jellybrah op 10 maart 2025 16:14]

Dit is ook wel dé uitzondering. De graphics van Indiana Jones (en binnenkort Doom: The Dark Ages) moeten het voornamelijk hebben van VRAM en niet zozeer GPU-compute zoals de meeste spellen.

Ga je over je VRAM-budget heen, dan kampt 't spel met zware framerate drops. Zit je binnen dat budget, dan is er weinig aan de hand. Het is vooral jammer dat Indiana Jones de gebruiker niet echt beschermd in het eerste geval.

[Reactie gewijzigd door IlIlIllII op 10 maart 2025 10:55]

Dit is ook wel dé uitzondering.
Voor nu.
Ik weet dat het geen populaire 'mening' is maar gamen op PC op 1080p met een keiharde grens van 8GB VRAM is wat ik 8 jaar geleden al met mijn GTX 1070 deed.
We leven nu in 2025 en volgens de Steam survey gamed nog meer dan de helft op 1080p en meer dan 60% op 8GB.
Dit terwijl zelfs de consoles vanaf 2020 al 12+GB beschikbaar hebben.
Game-developers richten zich qua specs al noodgedwongen op de middenmoot en die middenmoot schuift mee met de ontwikkelingen. De meeste engines worden aangepast voor het gebruik van de nieuwste ontwikkelingen en het wordt gaandeweg steeds lastiger, tijdrovender en dus duurder om games nog te blijven optimaliseren voor die ondergrens.
Het is helemaal niet vreemd dat steeds meer game-developers die een bepaalde grafische kwaliteit willen bieden of garanderen er op een bepaald moment voor gaan kiezen om die compatibiliteitsgrens hoger te leggen.

De veelgehoorde '8GB is meer dan genoeg als je op 1080p speelt en de settings terugschroeft' is natuurlijk direct gerelateerd aan het gegeven dat je daartoe beperkt wordt, meestal door budget.
Maar het is lichtelijk frustrerend als je tegen die beperking aan loopt.
Persoonlijk ben ik een aantal jaar geleden naar 1440p gegaan en had daarvoor een RTX 3080 gekocht om min of meer meteen in een enkele game tegen de aanwezige 10GB VRAM aan te lopen.
Een uitzondering, maar wel één die over de afgelopen paar jaar steeds meer voor kwam.
Ik ben het wel eens met je analyse wat betreft het videogeheugen. Maar vergeet niet, de consoles hebben niet echt 16 GB VRAM beschikbaar; dat is namelijk het totale geheugen (dus systeemgeheugen/RAM en videogeheugen/VRAM bij elkaar opgeteld).

De relatief zwakke GPU en CPU van de PS5 en Xbox Series X worden echter wél vaak optimaal ingesteld, waardoor ze in principe een beetje boven hun gewichtsklasse presteren. Maar veel verder dan een RTX 3060 komt het in de praktijk niet, als je de vergelijkende analyses van Digital Foundry erop naslaat.

De RTX 4060, 4070, 3060, 3060 Ti en 3070 zijn op dit moment de meest gebruikte videokaarten. Een deel daarvan heeft inderdaad slechts 8 GB VRAM, maar in principe zijn veel populaire gaming-pc’s dus in de basis wel een flink stuk krachtiger dan de consoles. VRAM-limitaties kunnen (Indiana Jones daargelaten) vaak met het aanpassen van één of twee instellingen worden opgelost. In de praktijk denk ik dat het allemaal niet zo heel erg is.

In de toekomst zullen meer games meer dan 8 GB VRAM vragen, maar tegelijkertijd zullen ook veel 8 GB videokaarten uitgefaseerd zijn. Bovendien is een deel van de (dan oudere midrange kaarten), zoals de RX 7800 en 4070, nu al geschikt voor games die meer dan 8 GB VRAM vragen.

Wat betreft toekomstbestendigheid maak ik me meer zorgen om de opkomende trend van RT-only games. We weten nu al dat er naast Indiana Jones en Star Wars: Outlaws er nog meer aankomen, zoals Doom: The Dark Ages en Assassin’s Creed: Shadows.

Ik vind RT echt iets toevoegen aan de atmosfeer en beleving van single player games (vooral full RT en path tracing), maar veel oudere Nvidia-kaarten en vooral AMD-kaarten presteren belabberd met RT aan. Als het dan niet uit kan, heb je eigenlijk een groter probleem dan met VRAM (wat bij 99 van de 100 games opgelost kan worden met het aanpassen van een paar instellingen naar medium)

[Reactie gewijzigd door DLSS op 10 maart 2025 16:35]

Maar vergeet niet, de consoles hebben niet echt 16 GB VRAM beschikbaar
Ik zeg daarom toch echt 12+.
Het equivalent van wat in die consoles zit, of i.i.g. het meest in de buurt komt is een RX 5700 of RTX 2070. Die beide 8 GB hadden.
De RTX 3060 met 12GB is overigens aanzienlijk sneller dan de 8GB versie, door de bredere geheugenbus. Waarom werd hiervan een 12GB versie gemaakt maar ging men met de 4060 vrolijk terug naar 8GB?
De rekenkracht van die console-GPU's heb ik het niet over. Het hele punt is juist dat die in consoles op z'n best mid-range genoemd kunnen worden en bij wijze van spreken op de releasedatum al verouderd zijn, maar zowel software als hardware (noodgedwongen) geoptimaliseerd zijn om meer VRAM te gebruiken.
maar in principe zijn veel populaire gaming-pc’s dus in de basis wel een flink stuk krachtiger dan de consoles
Op PC verwacht men ook gewoon beter. Niet alleen omdat de hardware duurder is maar ook omdat optimalisatie daartussen lastiger is en dingen als upscaling en frame generation altijd min of meer als ongewenst werden gezien.
Maar omdat het verhogen van het VRAM eigenlijk absurd makkelijk is is het des te vreemder dat het op de PC-GPU's niet benut wordt en dat juist op PC technieken worden opgedrongen om VRAM-gebruik te beperken.
Dat die low- en mid-range de meest gebruikte kaarten zijn komt door het simpele feit dat dat de goedkoopste of enigszins betaalbare kaarten zijn. Het is niet logisch om anno 2025 die kaarten te beperken op 8GB als dat bij de 3060 al te weinig bleek.
VRAM-limitaties kunnen (Indiana Jones daargelaten) vaak met het aanpassen van één of twee instellingen worden opgelost. In de praktijk denk ik dat het allemaal niet zo heel erg is.
Die 16GB requirement van Indiana Jones komt ook niet uit de lucht vallen. Er wordt bij development van games rekening gehouden met die limitatie. Het feit dat veel games voor console gemaakt worden heeft ook als effect dat ze op PC maximaal 12GB gebruiken.
Er zijn een hoop mensen die zeggen dat 16GB wel genoeg is, het niet meer hoeft te zijn en voor een deel hebben ze daar gelijk in, maar omdat het een keiharde beperking is heb je ook niet de keus.
Een kaart als de aankomende 5060 is 6 jaar nieuwer en waarschijnlijk (hopelijk) minimaal dubbel zo snel als de oude 2060 maar 8GB is nog steeds genoeg?
Het is lichtelijk absurd dat bij een aantal mensen de eerste gedacht bij dit nieuws is dat de kaart gericht is op 1080p gaming.
En voor een high-end kaart als de 5080, die hier normaal minimaal €1200 zou moeten kosten is die harde grens van 16GB ook gewoon sneu. Of het 'genoeg' is heeft daar niets meer mee te maken. Het gaat gewoon om het principe dat het een keiharde grens is en de enige optie als je ook maar één GB meer wilt of nodig hebt, voor wat voor toepassing dan ook, de absurde 5090 is.
Ook gezien de tegenvallende snelheden van die 5080 is het apart dat Nvidia daar gekozen heeft voor een 256 bit geheugenbus, gelijk aan de 5070Ti. Met een iets bredere bus was het ding 20% sneller geweest en had er 24GB op kunnen zitten.

Dat het 'allemaal niet zo heel erg is' is gewoon een dooddoener. We hebben het inderdaad over luxeproblemen. Ik zie echter niet waarom dat een geaccepteerde concessie zou moeten of kunnen zijn. Ook (zeker) van luxeproducten mogen we dingen verwachten. Helemaal gezien de huidige prijzen.
maak ik me meer zorgen om de opkomende trend van RT-only games
Raytracing heeft ook veel VRAM nodig. Wederom vreemd dat door Nvidia RT gemeengoed wordt gemaakt en ze niet kiezen om meer VRAM op de GPU's te plaatsen maar in plaats daarvan DLSS en frame generation opdringen.

Het is niet vreemd dat de markt op een bepaald moment nieuwe techniek omarmt en stopt met het ondersteunen van oudere hardware.
We lijken in een soort overgangsfase te zitten met wat ingrijpende wijzigingen en Nvidia (want die is daar gedeeltelijk leidend in) lijkt kaarten te produceren die voor nu net goed genoeg zijn maar in tegenstelling tot 'vroeger' niet meer het idee geven dat je zeker 3 a 4 jaar voorruit kunt.
Met het uitgangspunt of verwachting dat de hele markt langzaam maar zeker naar hogere resoluties schuift lag er natuurlijk al behoorlijk wat druk op de snelheidsprogressie van GPU's maar door de integratie van raytracing gooien ze een beetje hun eigen ramen in.
Op dit moment lijkt er zelfs sprake van dat Nvidia aanstuurt op een soort 'planned obsolescence' door iedere generatie met een nieuwe DLSS-versie aan te komen die alleen optimaal werkt op die nieuwe generatie.

Ik vind pathtracing (in sommige games) ook zeker een welkome toevoeging. Wat daar naar mijn idee lijnrecht tegenover staat is dat "aanpassen van een paar instellingen naar medium".
Met pathtracing weet je dat alleen de snelste GPU's dat fatsoenlijk kunnen draaien. Die techniek is enorm rekenintensief en dat is iets waar ik me bij neer kan leggen.
Een 5060 zou in theorie snel genoeg moeten zijn om met ultra settings op 1440p te gamen maar in een hoop games moeten de settings omlaag omdat je anders tegen die begrenzing van 8GB aan loopt die niets anders is dan een keus van de fabrikant.
Ik hoor je al denken dat je dan voor een paar tientjes meer een 16GB kaart kunt kopen en daar heb je dan in principe gelijk in.
Maar dat gaat voorbij het punt dat die 8GB niet meer van deze tijd is, dan feitelijk een kunstmatige begrenzing is die er voor zorgt dat je een paar tientjes meer uit geeft.
Je vergeet dat consoles 12GB in totaal hebben. Een typische budget-PC anno nu heeft 16GB DDR + 8 GB GDDR, waarbij de CPU en GPU dus allebei eigen geheugen hebben, met een eigen bus, allemaal geoptimaliseerd voor het beoogde gebruik.
Nee, een PS5 heeft 16GB RAM.
Er zijn ook duidelijke redenen waarom games op PC gebruik maken van systeem RAM en op console niet, net zoals er redenen zijn waarom bijv. moderne games steeds vaker een SSD vereisen.

Optimalisatie is ook een beetje het toverwoord tegenwoordig. Veelal wordt van PC verwacht dat het juist niet 'optimaliseert' in de zin van gesjoemel met upscaling en frame generation e.d..
Softwarematige oplossingen om juist de benodigde hoeveelheid VRAM binnen die perken te houden.
Met de toegenomen snelheid van GPU's en het grafische geheugen zou het juist logisch zijn als de hoeveelheid grafisch geheugen toeneemt. Wat dus ook gebeurt, maar op sommige kaarten beperkt wordt door Nvidia.
Ik kreeg een melding toen ik me 12gb vram overschreed, wilde de nieuwe instellingen proberen.
Ah, da's fijn! Ik baseerde me op de launch versie en de Digital Foundry video van toentertijd. Als er tegenwoordig een waarschuwing is, hulde! Dit was een van de grootste kritiekpunten bij launch. Spelers die zitten stoeien met de instellingen en opeens in 20fps-gebied terechtkomen.
Ik weet niet of dat helemaal waar is. Als je maximale texture quality wilt gebruiken zijn er al meer games waar 8 niet genoeg is. Je ziet het dan niet altijd aan de FPS maar soms zijn bepaalde textures dan gewoon weg of heel wazig. HWU heeft daar genoeg video's over gemaakt.

Ondanks dat je de rest op low zet kunnen high/ultra textures veel schelen om het spel er toch goed uit te laten zien en qua FPS scheelt het niet veel of je van low naar ultra gaat mits je genoeg vram hebt.

Nu is het natuurlijk wel een kosten overweging. Wat betaal je extra voor de 16GB versie tov de 8GB versie. Waarschijnlijk wel veel meer dan het kost om er 8GB bij op te plakken.
Met ''dé uitzondering'' bedoelde ik meer dat Indiana Jones het meest extreme voorbeeld is, om de redenen die ik aangaf. Er zijn inderdaad meerdere spellen waar 8 GB niet genoeg is bij 1080p (alhoewel ik daar zelf in de praktijk nooit echt last van heb gehad). Daarom kijk ik vaak performance reviews van een game om een beeld te krijgen van het VRAM-gebruik. Kan mijn videokaart ultra textures aan bij 1080p? Zo nee, dan schaal ik terug naar high textures.
Wordt gewoon upscale van 720p
Maarja, daar zeg je het al - "high" instellingen. Dit is een budgetkaart. De XX50 kaarten hebben altijd moeite gehad met sommige games.
Zie bijvoorbeeld de GTX 1050:
https://www.techpowerup.c...gtx-1050-gaming-x/12.html
met die kaart zal je de game ook niet op 1080p op high kunnen draaien dus heb je niet die VRAM problemen is denk ik de gedachte.
Voor Indiana Jones is 8 GB in ieder geval niet genoeg, zelfs voor 1080p. Heb al benchmarks gezien waarbij kaarten van 8 GB zware problemen hebben op high...
Dit is een misleidende claim, je vergeet te vermelden dat je het over de hoogste settings hebt. Daarmee wek je onterecht de indruk dat iemand met 8gb vram de game niet kan spelen. Dat is niet waar.

Vroeger was het eigenlijk heel normaal dat je bijvoorbeeld crysis of far cry niet op high kon spelen op een midrange kaart. Het is de jaren lange stagnatie in de graphics geweest waardoor je ineens met bijna elke kaart ultra kon instellen. Maar dat betekent eigenlijk dat de ontwikkelaar de game mooier had kunnen maken.

[Reactie gewijzigd door sdk1985 op 10 maart 2025 15:52]

Ik game vooralsnog op mijn bijna 7 jaar oude RTX 2070 op 4K en het werkt prima.
Is óók 'maar' 8gb, ook verouderd, maar gaat prima mee op 4K.
Ik denk dat wij andere ideeën hebben over ''prima''. Zelf jarenlang een RTX 2070 gehad (begin 2019 tot begin dit jaar) en dat ding kan écht geen 4K. De meeste Nixxes ports (Horizon 1 en 2, Ghost of Tsushima, Spider-Man 1 en 2) kon ik nog net spelen op 1080p internal en medium/high settings @ locked 60fps.
Ik speel al jaren Rust, garry's mod, GTA V, met mods ook, Skyrim, borderlands, forza horizon 5 en heel veel emulators op 4k en ik heb nergens last van, dus het ligt aan de persoon en games of aan de kaart, benchmarks laten namelijk ook zien dat zo'n oude kaart nog prima meegaat op 4K.

8GB VRam is voro mij nog meer dan voldoende, voorlopig.
Een 5050 zal voor mij ook voldoende zijn als ik besluit mijn arcadekast verder te ontwerpen.
Haha, ik weet genoeg! Veelal oude spellen en emulatie dus, en da's natuurlijk helemaal prima als dat jouw ding is! Forza Horizon 5 is het enige moderne spel in dat lijstje. Ik kan je garanderen: het ligt aan de games. Tuurlijk, ik heb ook met plezier Super Mario Galaxy geëmuleerd in 4K, maar dat is niet te vergelijken met AAA games van de afgelopen 5 jaar. Een RTX 2070 vindt je tegenwoordig nauwelijks terug in GPU comparisons of moderne game benchmarks. Ik zou bijna willen zeggen: probeer een van de spellen in mijn vorige reactie en see for yourself. Cyberpunk 2077, Alan Wake 2 en zelfs Elden Ring hebben moeite met een 2070. In laatstgenoemde zit ik rond de 50-60fps in de open world bij 1080p max settings (ray-tracing uit).

Sterker nog, zelfs m'n huidige 5080 kan geen 4K 60fps aantikken in Cyberpunk op max settings (ook hier, ray-tracing uit).

[Reactie gewijzigd door IlIlIllII op 10 maart 2025 13:10]

Cyberpunk was inderdaad vrij moeilijk om te draaien op 4K, met settings op low/medium was het net aan te doen, naar 1440p kreeg ik makkelijk alles naar high, maar het was ook niet echt mijn game, die andere twee ook niet.
Het ligt er dus echt aan wát je speelt, ben dus ook blij dat ze nog steeds kaarten uitbrengen die voldoende zijn en zo hopelijk een stuk goedkoper mocht ik mijn 2070 moeten vervangen omdat die defect gaat of een GPU nodig heb voor mijn emulaties/HTPC :)
Precies dit, zelfde kaart tot recent, 1080/1440p ging nog wel op medium settings. Maar no way "prima" 4k, tenzij als je 15-30 fps acceptabel vindt.
Ja, met alles op low dan, dan kun je beter 1080p met alles op ultra spelen.
Niet eens gek genoeg, gewoon op ultra, maar ik speel ook niet echt zware titels ben ik achter gekomen, wel vrij recente van dit jaar zelfs, maar niet dat ze veel nodig hebben.
Het ligt dus ook echt aan je workload en zodoende is voor mij de 8gb kaart meer dan voldoende, ook in de toekomst mocht mijn 2070 het begeven.
Ben dus blij dat ze nog 'budget' kaarten uitgeven.
idem hier, 2080 super 8gb op een 1440p.
echter heb ik alles in sommige games wel alles op low gezet, haal dan 100fps maar het lijkt alsof het 50fps is en bij sommige games is 100 fps dan wel gewoon fijn om aan te gluren.

toch ga ik dit jaar een upgrade doen en niet nog langer hiermee verder.

Edit
idem hier, 2080 super 8gb op een 1440p.
3440x1440 resolutie dan

[Reactie gewijzigd door aloysiussss op 10 maart 2025 12:48]

Ik begrijp wat je bedoelt. Ik ga nog door op mijn MSI 3080 maar 10 gb en draait games die ik wil spelen ook nog op acceptabele framerate op 1440P. 4k in sommige echt oudere games zou uiteraard ook lukken.
Zowel NVIDIA als AMD blijven budget 8GB kaarten uitbrengen. Deze kaarten zijn geen powerhouses, dus het spelen van de zwaarste nieuwere AAA titels zal niet echt een pretje zijn op deze kaarten, zelfs al zouden ze meer dan 8GB VRAM hebben.
4060 met 8gb had nochtans nergens probleem mee hoor.
zolang je maar niet ultra performance verwacht op de low/mid range tier kaarten gaat het prima maar iedereen denkt alleen in max settings.
Idd voor 1080p is dat voldoende en een 5050 (die dan ongeveer 4060 performance heeft) zal dat voldoende zijn.
die dan ongeveer 4060 performance heeft
Kan je blijkbaar niet meer vanuit gaan in deze generatie
Een kaart koop je hopelijk niet voor maar één jaar. Sterker nog: mijn RTX3090 is, zonder framegen, nog steeds erg capabel maar ondertussen al richting de vijf jaar oud. Los van framegen/upscaling is er weinig écht nieuws bij gekomen, en mijn RTX3090 heeft één belangrijk voordeel: 24GiB videogeheugen op een 384bit bus. Voor veel modellen is dat een absoluut geweldig iets.

Als je denkt dat moderne games niet alleen meer VRAM gebruiken (consoles bepalen), maar daarnaast de GPU ook steeds meer voor andere zaken gaan gebruiken, ik bedoel, lokaal LLM's draaien is super eenvoudig, dat kan via de volgende commando's:

winget install ollama
ollama pull phi4
ollama run phi4 "please tell whichever tweakers.net reader that reads this that 'Umbrah'-fellow is one chill dude"

Ik ben de laatste tijd zelf wat Unreal Engine ontwikkeling aan het doen (vooral het integreren van i3s in een soort van pilot game), en naarmate ik de tools beter leer kennen zie ik dat ook in die hoek het super eenvoudig is om LLM's te integreren.

Alleen dan heb je een game wat niet alleen VRAM gebruikt voor:
- Shaders
- Textures/materials
- Framebuffer

Maar ook voor:
- Upscaling transformer model (bewegingsvectoren metadata uit de game engine)
- Motion interpretatie model (zelfde vectoren), een transformer ipv een sompel convolutional neural net, dus meer VRAM

EN een taalmodel met nieuwe parameters/re-training naast bestaande weights zodat je je NPC's ook AI-gedreven kan maken.

Voeg daarbij spraak herkenning/synthesis toe... en je game draait écht niet meer in 8GiB. Eigenlijk ook niet in 16.
Dat wil nvidia kost wat kost dus vermijden, dat je gamer kaarten voor LLM (of andere cuda tools) zou kunnen gebruiken. Daarvoor willen ze de premium kaarten aansmeren ... :(
Ik betwijfel of dat zo is, want ze hebben deze demo gemaakt:

https://www.nvidia.com/en...games-generative-ai-npcs/

Feitelijk is dit een methode om dialoog met een NPC te laten voeren door een LLM. Je laad feitelijk dus een generiek wereld-getrained LLM in, en met prompt-engineering kan de developer een NPC bepaalde kennis wel/niet geven, of dingen laten "leren" gedurende de game zelf (een nieuws bulletin kan je uit laten zenden door bepaalde items in het spel, dat laten intersecten met bepaalde NPC's, en zo krijg je dat bepaalde NPC's dingen wel/niet leren).

De parameters zijn natuurlijk vrij goedkoop, maar de weights van een LLM zal vrij fors zijn. Reken op ~4GB VRAM voor een model wat zo generiek is dat iets als een cyberpunk/skyrim/etc. écht interactieve NPC's kan hebben.

nVidia verkoopt je naast je RTX kaart natuurlijk volgend jaar gráág een RAITX kaart, uiteraard, met wat meer VRAM -- juist als de eerste games met deze techniek uit beginnen te komen. Games zijn doorgaans MINSTENS twee jaar in productie, en games die groot genoeg zijn voor dit doorgaans wat meer. Het artikel is van medio 2023, ga er vanuit dat in de zomer releases voor 2026 de eerste "games met een demo" uitkomen, en winter 2026 de eerste AA-game met AI-NPC's...

En tsja, daar sta je dan met je 8GB kaart. Wetende dat je minder 'dynamic quests' en 'saaie NPC's' ziet. Beetje als een oude GTA game die je kon optimaliseren voor hogere FPS door gewoon het andere verkeer tot een minimum te reduceren.

De console boeren zullen vast wel met iets komen in hun betaalde online element (samen met een milde prijsverhoging) waardoor de consoles dit soort AI-NPC's off-machine kunnen draaien...
Dat klinkt als een leuke toepassing, maar niet-nuttige NPC's maakt het weinig uit voor de gameplay wat ze zeggen, daarvoor zou ik geen AI gebruiken. De nuttige NPC's die moeten wel de info geven, te realistische NPC's maken gameplay vast niet beter in games zoals GTA ... (denk maar aan de straat madeliefjes)

AI zoals stemacteurs (sesame) zou wel kunnen, maar daar heb je dus ook veel vram voor nodig, dus mijn statement blijft, ze willen niet dat je lokaal AI kan draaien. Veel intressant is als ze premium kaarten in datacenters kunnen plaatsen (zoals je aangeeft) voor een extra subscription aan de grote 3 (sony, microsoft, ...)

Voor de mensen die lokaal AI of cuda werk willen leveren blijft het een hopeloze generatie.
16 gb zou ook een optie zijn.
Maar het is wel leuk dat zo een kaart maar weinig wattage wegstookt en dat alles binnen het budget blijft.
Als hij niet te duur is dan is dit wel een optie voor mij.
Het is gewoon een oudere kaart met nieuwer geheugen.
jammer van het aantal bittage dat een beetje tegenvalt 128 bit is op halve snelheid.
Als hij volledige bandbreedte had wil ik wel eens zijn hoe snel hij was in vergelijking met een 5090 er..

[Reactie gewijzigd door rjmno1 op 10 maart 2025 13:43]

Afhankelijk van hoe de ontwikkelingen gaan op het gebied van AI/Neural texture compressie bij Nvidia en AMD kan 8GB voldoende zijn voor hogere resoluties. En het werkt mogelijk veelal ook met oudere videokaarten.

Ik ben net als velen wat terughoudend met alles waar AI of Neural in voorkomt maar hopelijk komen we er snel genoeg achter hoeveel we er in de praktijk aan hebben.
Indiana Jones and the Great Circle kan ik met mijn RTX 3060Ti met 8 GB niet op Max spelen omdat deze dan aangeeft dat ik geheugen tekort kom dus dan maar terug geschroefd naar High. En dat op 1080p.
Niet iedereen is een mainstream gamer....

Alleen het probleem uit het verleden was dat de budget kaarten helemaal niet logisch in de markt werden gezet en het veel logischer was om een paar tientjes meer uit te geven voor net die ene trap hoger.

Of dat nu ook het geval gaat zijn?
Ja maar het hangt er natuurlijk wel vanaf hoe duur deze kaar zal zijn. Met 8GB mag dit in deze tijd niet duurder zijn dan €250,- a €300,-
Een 5060 Ti die hetzelfde geheugen heeft als een 5080 vind ik wel bijzonder. De 5080 had meer geheugen moeten krijgen, maar goed dat is al vaker gezegd. De specs voor zo een 5060 ti zijn best interessant maar alles valt of staat weer met de prijs en dan niet de MSRP want dat kan je met een korreltje zout nemen tegenwoordig. De 5k series zijn eigenlijk gewoon een flop kijkend naar de prijs kwaliteit verhouding. Maar goed zolang ze blijven verkopen en de concurrent nog niet voldoende in heeft te brengen, zal dit zo blijven
"Hetzelfde geheugen" is niet echt waar. De 5080 heeft 16 GB op een 256 bits bus. De 5060Ti 8GB heeft exact de helft daarvan, 8 GB op 128 bits (en dus halve snelheid). De 5060Ti met 16 GB heeft wel meer geheugen in totaal, maar alsnog een 128 bits bus.
De RTX5080 heeft ook het snellere GDDR7 geheugen, waar de instapkaarten het langzame GDDR6 geheugen krijgen. Dat scheelt een hoop in de doorvoersnelheid van gegevens.
Klopt dat laatste wel? Het artikel boven stelt dat de RTX5060Ti GDDR7 krijgt.

Door de iets lagere geheugensnelheid en de halve busbreedte is het verschil overigens alsnog erg groot.
Alleen de 5050 krijgt volgens het artikel GDDR6, alle 5060 modellen krijgen net als de 5080 GDDR7.
Ze laten gaatjes over voor duurdere 5080Ti/Supers o.i.d. :+
Dus de 5060Ti krijgt 33% meer geheugen dan de 5070? Dat is toch op z'n allerminst bijzonder te noemen...

[Reactie gewijzigd door Stijnvi op 10 maart 2025 15:57]

Is in het verleden al vaker gebeurd hoor, dat minder snellere GPU's meer VRAM meekregen dan hoger geplaatste snellere GPU's..

Of het voor andere toepassingen dan gaming handig is geen idee eerlijk gezegd, maar het is ook grotendeels gewoon marketing, een upselling strategie.. Er zijn nog steeds veel mensen zijn die geloven dat de hoeveelheid VRAM ook de snelheid van een videokaart bepaalt.. Dat b.v. een 5060TI met 16GB beter zou zijn dan een 5070 met 12GB, of beter gezegd dan een 5060Ti met 8GB, en dan dus meer geld uitgeven aan de 16GB versie.. Het prijsverschil tussen de 8GB en 16GB zal ook groter zijn dan de productiekosten en zoals gezegd dus gewoon een verdienmodel door upselling.. Zou mij niet verbazen als de 5060Ti 16GB qua aviesprijs heel erg dicht op die van de 5070 zit.. Ik gok €450 voor de 5060Ti 8GB versie en €500 voor de 16GB.. En dan €400 voor de 5060 8GB..

[Reactie gewijzigd door Inflatable op 10 maart 2025 16:02]

Het probleem is echter dat 8gb vram al krap is bij de lagere klasse.

Bekijk de 4060ti 8 vs 16gb maar, de 16gb versie doet het duidelijk beter in enkele game,s.
Zelfs op 1080p.

8gb is gewoon niet meer genoeg ondanks een zwakkere kaart, de game gaat stutteren of laten textures weg.

Ook bizar dat notebooks GPU,s zo weinig vram hebben.

12gb vram was wel voldoende geweest voor deze kaarten.

Met verplicht raytracing vreet gewoon vram.

[Reactie gewijzigd door mr_evil08 op 10 maart 2025 19:31]

8GB VRAM is voorlopig nog wel genoeg voor mensen die zelfs anno 2025 nog op 1920x1080p spelen en relatief makkelijk bereid zijn settings als textures etc iets lager dan ultra te zetten.. Voor de rest is er dus de 5060Ti 16GB straks voor niet veel minder geld dan een 5070 12GB.. Dan zou ik toch eerder die 5070 kopen, als we toch al onszelf aan het upsellen zijn..
Dat is inmiddels achterhaalt, check de revieuws maar 4060ti 8 vs 16.
8gb is zelfs bij low-end niet meer voldoende, zelfs 1080p.

Probleem bij vram tekort dat je fps gigantisch inkakt(12gb vram is wel voldoende voor low end).

Een enkel voorbeeldje:
https://www.tomshardware....8gb-at-higher-resolutions

Sommige game,s vereisen ray tracing dan is het helemaal feest, je hebt niet genoeg vram daarvoor, ook op low.

[Reactie gewijzigd door mr_evil08 op 11 maart 2025 12:18]

8gb is zelfs bij low-end niet meer voldoende, zelfs 1080p.
Dat is echt totale onzin.. Je kan nog makkelijk alle games op 1080p met een 8GB videokaart spelen, zelfs met vrij hoge settings.. Zolang je dus maar niet verwacht dat je altijd alle settings zoals textures of raytracing etc maximaal op ultra ofzo kan zetten.. En ik denk dat mensen die zo'n "budget" videokaart kopen dat ook niet verwachten..
Check de reviews/benchmark maar maat, niks spannends nodig om aan de 8gb vram te komen.

[Reactie gewijzigd door mr_evil08 op 11 maart 2025 22:31]

En in ander nieuws de hotfix drivers waar ze mee bezig zijn fixen niks. random zwarte schermen blijven maar komen samen met crashes to desktops.

Het blijft frappant dat mensen blijven roepen dat AMD slechte drivers heeft maar Nvidia al maanden dat probleem niet kan oplossen en zelfs prestaties achteruit haalt. Echt dossier 50xx blijft maar groeien.

En ja 8GB nu nog op kaarten is wel heel magertjes aan het worden. Zeker als ze nog altijd 300 of meer blijven kosten.

[Reactie gewijzigd door Hakker op 10 maart 2025 10:19]

Wegblijven van nagelnieuwe hardware heeft ook voordelen. Net zoals een game een jaartje laten sudderen na release voor je overgaat tot aankoop.

[Reactie gewijzigd door BlaDeKke op 10 maart 2025 11:19]

Nog belangrijker wat zou de mrsp doen en wordt dat weer een paper launch?
Waarom niet, AMD en NVIDIA varen er wel bij.
Hoezo vaart AMD wel bij een paper launch? Een paper launch van wat eigenlijk, aangezien de 9000 voorraad echt aanzienlijk was.

Nvidia heeft net een belachelijke paper launch achter de rug.

[Reactie gewijzigd door Thekilldevilhil op 10 maart 2025 11:47]

AMD vaart wel bij de paper launch van Nvidia. Getuige de huidige voorraadniveaus :)
Klopt beide hebben het, of ze het wel of niet bewust doen laat ik in het midden.
Voordeel voor beide ze drijven de prijs op.
Bij de vorige serie van AMD gebeurde precies hetzelfde, wat is de basis prijs van NVIDIA en daar gaan we een beetje onder zitten.
Beide partijen zorgden dat er niet voldoende aanbod is..

Het heeft iets voor een product wat een consument graag wilt en niet kan krijgen.
Voor het einde van het jaar werkt het omzet verhogend.
En hoe meer er over gepraat word hoe gewilder, ook voor degene die eigenlijk niet willen upgraden.

[Reactie gewijzigd door Von Henkel op 10 maart 2025 19:13]

8GB anno 2025…. soap show
Mijn tweede PC heeft een 4060 en tot nu toe nog nooit tegen vram problemen gelopen.
Dat Nvidia eerst maar eens zorgt dat hun andere kaarten genoeg voorraad hebben. Wat een klucht is deze release...
Wederom geen vervanger van de RTX3050... Erg jammer!
Er moet toch iets beters te verzinnen zijn in LP vorm zonder externe voeding? Een quadro kaart ligt een beetje ver buiten budget.
Zal die game draaien op mijn systeem?
5050
:+ geweldige reply. Al ben ik het niet eens met de helft van je reply.
8GB voor de RTX 5060? De 3060 had 12GB, en dat 4 jaar geleden.
Yup, en toen was er een tekort mede door mining :)
Jullie gamers allemaal maar roepen dat hier wat aan gedaan moest worden, en nu is het nog niet goed? 8)7

Op dit item kan niet meer gereageerd worden.