Foto’s van vermeende RTX 5060 Ti-videokaarten bevestigen PCIe 5.0 x8-interface

Nvidia’s aankomende RTX 5060 Ti lijkt een PCIe 5.0 x8-interface te gebruiken. Dat blijkt uit beeldmateriaal waarop verschillende videokaarten van MSI zijn te zien. De RTX 4060 Ti beschikt eveneens over een x8-interface, maar met de langzamere PCIe 4.0-standaard.

VideoCardz heeft foto’s gepubliceerd van vier verschillendeMSI RTX 5060 Ti PCIe 5.0 8x RTX 5060 Ti-modellen: de Inspire 2X, de Gaming en de Gaming Trio in zowel zwart als wit. Volgens de website gebruiken ze allemaal een fysieke PCIe 5.0 x16-connector, maar zijn slechts acht lanes daadwerkelijk verbonden met de gpu.

De Gaming Trio-modellen onderscheiden zich van de rest door het gebruik van drie in plaats van twee ventilators. Ze hebben ook een langer en slanker ontwerp, hoewel ze net iets meer dan twee PCI-uitbreidingsslots in beslag lijken te nemen. De Inspire 2X is dan weer de enige videokaart die een 8-pins-PEG-connector gebruikt en geen 12V-2x6-aansluiting. Dat suggereert dat fabrikanten meer willen inzetten op de nieuwe connector. Bij de RTX 4060 Ti bestaan er met uitzondering van Nvidia’s Founders Edition nagenoeg geen videokaarten met een 16-pins-PCIe Gen5-aansluiting.

MSI RTX 5060 TiMSI RTX 5060 TiMSI RTX 5060 TiMSI RTX 5060 Ti

De geruchtenmolen rondom Nvidia’s RTX 5060 Ti draait op volle toeren. Volgens geruchten wil de chipontwerper zijn nieuwste Blackwell-gpu’s uitbrengen op 16 april. De line-up bestaat naar verluidt uit zowel varianten met 8GB als met 16GB videogeheugen, die iets goedkoper moeten zijn dan hun respectievelijke voorgangers.

Gigabyte registreerde begin deze maand verschillende 16GB-modellen bij het Koreaanse RRA. Daarnaast deelde X-gebruiker I_Leak_VN eerder deze week een lijst met negen 16GB-sku’s van MSI, waaronder de bovengenoemde kaarten. Het is dus mogelijk dat er bij release aanvankelijk enkel 16GB-kaarten beschikbaar zullen zijn.

Door Idriz Velghe

Redacteur

11-04-2025 • 14:29

70

Reacties (70)

Sorteer op:

Weergave:

"De RTX 4060 Ti beschikt eveneens over een x8-interface, maar met de langzamere PCIe 4.0-standaard."


Als de 4060 Ti over een PCIe 5.0 had beschikt, zou de kaart dan in realiteit sneller zijn zoja hoeveel%?
Als de 5060 Ti in PCIe 4.0 modus zou draaien, zou de kaart dan in realiteit trager zijn zoja hoeveel%?
review: Nvidia GeForce RTX 3090 - De overtreffende trap van Ampere

Hier vind je je antwoord. Pcie gen3 16x is even snel als pcie gen4 8x. En een 3090 heeft er geen last van. Dan gaat een 4060 of 5060 helemaal geen last hebben van pcie gen4 8x.

[Reactie gewijzigd door BlaDeKke op 11 april 2025 20:51]

5060Ti 16GB :*)
5070 12GB :+
5080 16GB :+
komt de 12GB niet door de geheugenbus? Dus 6 , 12 of 24GB?
Als ze daar 24GB op steken moeten ze wel 32GB op de 5080 zetten.

mijn 7900XTX heeft 384bit bus -> 24GB
7900XT heeft 320bit bus -> 20GB

[Reactie gewijzigd door TMT op 11 april 2025 14:56]

De geheugenbus bepaalt enkel de dataoverdrachtsnelheid en niet de hoeveelheid fysiek geheugen (geheugenbus 5060ti is ook kleiner dan 5070).

Edit: niet correct.

[Reactie gewijzigd door Ugraded op 11 april 2025 15:30]

De geheugenbus bepaalt enkel de dataoverdrachtsnelheid en niet de hoeveelheid fysiek geheugen (geheugenbus 5060ti is ook kleiner dan 5070).

Dat de duurdere RTX 5070 ondanks een bredere bus slechts 12 GB heeft, terwijl de 5060ti 16 GB krijgt, vind ik een onlogische ontwerpkeuze van Nvidia
Die uitleg klopt niet. Er is wel degelijk een verband tussen de breedte van de geheugenbus en de hoeveelheid geheugen die je kunt aansluiten. De bandbreedte wordt bepaald door de geheugensnelheid × het aantal kanalen (chips), waarbij elk kanaal doorgaans 32-bit breed is.

Neem de RTX 5070 als voorbeeld: deze heeft een 192-bit geheugenbus, wat neerkomt op 6 × 32-bit kanalen. Gebruik je chips van 2 GB per stuk, dan krijg je:
6 × 2 GB = 12 GB VRAM. Zo komt Nvidia aan die hoeveelheid.

Een kaart zoals de RTX 4070 Super heeft een 256-bit bus, dus 8 kanalen. Ook hier geldt:
8 × 2 GB = 16 GB VRAM.

Een bredere bus levert weliswaar meer bandbreedte op, maar verhoogt ook het stroomverbruik en de productiekosten. Fabrikanten proberen die dus zo smal mogelijk te houden binnen het beoogde segment.

Bij een 128-bit bus zoals bij de RTX 4060 Ti heb je maar 4 kanalen (4 × 2 GB = 8 GB). Toch kun je hier met een clamshell-configuratie alsnog 8 chips kwijt, doordat twee chips één kanaal delen (bijv. 2 × 16-bit = 32-bit totaal). De totale bandbreedte blijft gelijk, maar de bandbreedte per chip halveert. Zo kun je alsnog 16 GB realiseren op een 128-bit bus.

Voor méér geheugen op de RTX 5070 had Nvidia dus één van de volgende (duurdere) opties moeten toepassen:
  • 3 GB modules gebruiken → 6 × 3 GB = 18 GB
  • Clamshelling toepassen → 6 kanalen × 2 chips × 2 GB = 24 GB
  • Bredere 256-bit bus toepassen → 8 kanalen × 2 GB = 16 GB
Alle bovenstaande opties zijn duurder in productie. Nvidia koos er dit keer voor om de MSRP ondanks inflatie te verlagen, en heeft binnen dat kader een logische geheugenconfiguratie gekozen (de goedkoopste).

Of dat commercieel slim is, is een andere discussie — maar technisch gezien is het niet onlogisch.

[Reactie gewijzigd door sdk1985 op 11 april 2025 15:33]

Een rtx 470 super en Ti is 12 GB [192bit]. Een 4070 Ti super is 16 GB [256bit]
Interessant verhaal. Een vraag, sorry als het een domme vraag is maar benieuwd:

Zou het mogelijk zijn om grafische kaarten los zonder geheugen te leveren, in het kader van geheugen is duur, daarmee de kaarten goedkoper en dus toegankelijker maken, en zodat je zelf GDDR7 modules in kan steken?
De een heeft aan 2 x 4GB = 8GB GDDR7 meer dan genoeg voor office
De ander wil minimaal 2 x 8GB = 16 GB GDDR7
Weer een ander neemt 2 x 16 GB = 32GB GDDR7 en plaatst dat in een 5060 Ti of welk kaart dan ook

Beetje (of eigenlijk precies) zoals met moederborden en PC bouwen gaat.
Stel je voor dat fabrikanten moederborden moesten uitbrengen met geheugen aan boord...
Met dit idee worden kaarten bevrijdt van de configuraties en kan consument zelf bepalen wat die nodig heeft.
Ik denk dat ik mij zelf een tijd herinner dat dat kon of ben ik nu aan he dromen?
Wie is oud genoeg om dat zich nog te kunnen herinneren stel dat ik zeg dat het vroeger mogelijk was.

Benieuwd ernaar of dit Technisch niet mogelijk is, of dat het hopeloos onpraktisch is, of dat het luiheid van Nvidia/MSI/ASUS is. Alle voordenen en nadelen tegenover elkaar afwegend.
Ik denk dat dit wel technisch mogelijk moet zijn maar dat de vraag is of je dit wil. Ik ben geen expert maar zoals ik het lees lijkt het mij dat je toch heel wat parameters hebt die perfect moeten kloppen. Want 192-bit betekent 6 32-bit registers. In jouw voorbeeld zou ik daar moeten kunnen kiezen in gelijk welke hoeveelheid geheugen, maar de naam 192-bit geheugenbus lijkt mij te impliceren dat je als je niet alle 6 registers gebruikt maar op 128-bit of zo komt wat dan weer andere zaken zal gaan impliceren waardoor je RTX5090 ondanks de hele krachtige GB202 niet beter is dan een GTX750. En da's dan weer geen reclame en al zeker niet als je GDDR7 gewoon van een andere 5000 kaart komt.

Disclaimer: dit is interpretatie van vorige comments. Geen kennis.

[Reactie gewijzigd door JeroenED op 11 april 2025 23:02]

Das een goeie die geheugens zijn allemaal een andere bit inderdaad.
Nou zeg je wat, niet alleen dat, maar ook de bandbreedtes, snelheden verschillen van kaart tot kaart zelfs binnen één en dezelfde serie. Als ik het goed zie heeft een 4060 een andere geheugen als 5060, maar ook een 5070 een ander geheugen dan 5060. Als ze dat zouden kunnen standaardiseren zoals DDR5 dat is voor een of meer generaties, dan zou dat de keuzevrijheid bevorderen.

Een andere optie zou zijn om losse geheugen te verkopen voor ieder wat wils en stel maar zelf samen:
8GB GDDR7 128 bit
8GB GDDR7 192 bit
8GB GDDR7 256 bit
8GB GDDR7 512 bit
8GB GDDR7 768 bit
In theorie kun je 'sockets' maken voor dram chips uiteraard, maar het maakt de kaarten dikker, groter (kijk maar hoe dicht de geheugenchips nu tegen elkaar aan zitten, met socket lukt dat niet) en de daardoor benodigde grotere afstand tussen de GPU en de RAM chips is lastig voor geheugentiming/latency. En het wordt er ook niet goedkoper van als je beiden moet hebben.

Vroeger was dit natuurlijk heel gebruikelijk met allerlei chips, maar juist de integratie heeft het mogelijk gemaakt om steeds meer functies in dezelfde of minder ruimte kwijt te kunnen.
De geheugenbus bepaalt enkel de dataoverdrachtsnelheid en niet de hoeveelheid fysiek geheugen (geheugenbus 5060ti is ook kleiner dan 5070).
Dat is absoluut niet waar. Je kan niet zomaar een random hoeveelheid geheugen aan elke bus koppelen. Als je een willekeurige hoeveelheid pakt krijg je GTX970 problemen. Elke chip praat via een 32bit controller met de GPU. Dus 256bit is 8 chips.

Je hebt tegenwoordig wel 3GB dus je kan iets fijnmaziger omgaan met de hoeveelheid. Dus 6x3GB kan nu wel (18GB totaal) waardoor hiervoor niet ging.
Toen de specificaties (chip, geheugen, aantal cores, Hz-en) van de 5090, 5080 en 5070(Ti) bekend waren vond ik het allemaal al onlogisch en het wordt er niet beter op.
Die Ti-varianten, die oorspronkelijk de Super-versies waren, lijken er nu in de basis al tussen gefrot te worden maar de 5070 en 5080 lijken qua prestaties (zeker gezien de prijs) gewoon slap en naar mijn gevoel had de 5070Ti gewoon de 5070 moeten zijn.

Persoonlijk ben ik Nvidia voorlopig wel beu en kijk ik bij de release van de Super versies wel weer een keer of er verbetering in zit.
Ja en nee, het feit dat de 5070 een 192bit bus heeft en 12GB VRAM is natuurlijk verbonden met elkaar. Het is beide gierigheid van NVIDIA (mijn mening) en kunstmatige product (over)segmentatie. De 5070 had natuurlijk 16GB moet krijgen, de 5080 24GB en d 5090 32GB. Maar ja, kleine GPU kost minder dus dan maar een 5070Ti uitbrengen en daaronder een 5070 plaatsen met een kleine GB205. Die die heeft helaas een 192bit bus dus ben je gebonden aan 6 chips.

Maar de crux is dat het niet meer hoeft sinds er 3GB GDDR7 chips uitgebracht zijn. De laptop 5090 heeft bijvoorbeeld 24GB op een 256bit bus door 8x3GB te combineren. Op zich had NVIDIA dus zo de 5070 en 5080 een mooie boost kunnen geven en toch kleine dies kunnen houden. Want met GDDR7 is de bandbreedte nog steeds erg netjes, zelfs op wat een wat smallere bus. Had ook wel mooi geweest voor de marketing, loopt het geheugen op met de prijs. Maar ja :)

[Reactie gewijzigd door Thekilldevilhil op 11 april 2025 15:19]

Ongetwijfeld dat er een 24GB 5080TI gaat komen. oorspronkelijk was dit dan ook het plan. De fabriekanten hadden notabenen dit op hun dozen staan wat afgeplakt is met de nieuwe specs later.
Ongetwijfeld dat er een 24GB 5080TI gaat komen. oorspronkelijk was dit dan ook het plan. De fabriekanten hadden notabenen dit op hun dozen staan wat afgeplakt is met de nieuwe specs later.
Het oorspronkelijke plan was toch en 5080 met 24GB, niet een 5080Ti met 24GB?

Maar die 24GB versie zal er wel komen ja. Wat ik begreep van de laptop 5090 is dat er best wat tekorten zijn aan de 3GB chips. Dus mooi product voor kerst ofzo...
De engineers hebben waarschijnlijk een stuk of 25 verschillende configuraties geschetst. Welke namen marketing daar vervolgens aan geeft is redelijk arbitrair - zie de 4070 soap. Ongetwijfeld zaten daar ook 6*4GB en 8*3GB configuraties tussen, maar marketing heeft nog niet besloten om die uit te brengen. Dat kan altijd nog; desnoods als "5080 Super".
Leuke optie voor de budget workstations zoals de 3060 dat ook was. En gelukkig dit keer niet zo'n extreme sprong als toen.
In de RTX 30 serie moest je namelijk helemaal naar de 3080Ti voordat je weer 12GB kreeg.
nvidia maakt er echt een zooitje van
Het is dus mogelijk dat er bij release aanvankelijk enkel 16GB-kaarten beschikbaar zullen zijn.
De enige versie die je überhaupt zou moeten willen.
Ik vraag me af waarom je dit vindt?
RTX 5060 Ti 8GB = ~415€; 16GB = ~470€ (of dus 13% duurder)
RTX 4060 Ti 8GB = ~490€; 16GB = ~559€ (of dus 14% duurder)
(prijzen komen van hier)

De meerderheid van de mensen draait geen AI model en er zijn er genoeg die geen tripple A games spelen, maar dit gebruiken voor voor bvb video encoding of andere CUDA versnelling. Deze mensen hebben geen extra geheugen nodig en zijn misschien blij dat ze deze paar tientjes uitsparen en dit in een ander onderdeel kunnen investeren.

Er is voor elk wat wils en wie zijn wij om te zeggen wat een ander bij een andere use case nodig heeft, toch?
Hier een specifieke case van Jayz die van de week al uitlegd waarom het eventueel een slecht idee kan zijn om een 8GB model te kopen: YouTube: This is what happens when you run out of VRAM... Say NO to 8GB GPUs!
Je hebt gewoon voldoende ram nodig, als je geen games speelt die meer dan 8GB vram aanspreken op de resolutie die je speelt. Dan is al dat extra ram 100% nutteloos, mag Jay-Z nog zoveel zingen als ie wil :+

Er zijn serieuze gamers die geen graten zien in 4k resoluties of de modernste games. Maar wel gewoon een snelle gpu willen. Die mogen toch ook bediend worden.
Idd beetje absurd om op 4k en dan tegen de 20-30fps die low end kaarten tegen elkaar te gaan afzetten.
Niemand gamed daar zo mee. Verlaag je dat naar 1440p of gebruik je dlss dan is 8gb vram plots wel genoeg en is er amper/geen verschil met 12 of 16gb kaarten.
laten we nou eens met z'n allen de slechtere keuzes op de shelf laten liggen.

geen 4070 met 12gb
geen 4060ti met 8 gb
Yup, 4060 gebruiker hier. Ik speel geen AAA games, en draai de games die ik wel speel op 1440p High op 75FPS. VRAM is zover nooit echt een probleem geweest, met Cyberpunk als de hoogste verbruiker op 6,7/8GB.

8GB is meer dan prima voor een budgetkaart. Het is ten slotte een budget kaart.
De 4060 Ti gebruikte ook slechts 8 lanes dus an sich niet heel verassend. Er is zelfs een GPU uitgekomen die de extra lanes beschikbaar maakte voor een m.2 ssd: nieuws: ASUS gaat GeForce RTX 4060 Ti met ingebouwd M.2-slot in Benelux uitbr....

Wel nieuw is PCI-E 5.0, niet dat ik verwacht dat de kaart hier echt voordeel uit gaat halen.
Nu kan ASUS er nog altijd een M.2-slot in gooien
Voordeel van PCIe 5.0 is dat x8 prima kan op de langzamere kaarten. Scheelt weer in de kosten voor de GPU-fabrikant. Werkt ook mooi samen met sommige moederborden zodat die extra M.2 slots kunnen realiseren.

Zou wellicht ook leuk zijn voor budget moederborden om alleen 8 lanes te gebruiken voor het bovenste slot om het bord nog goedkoper te maken. PCIe 5.0 is immers duur genoeg. Of PCIe 4.0 x16 is nog goedkoper, dan is het natuurlijk onzin.
@IdrizV Aub aan uw team van reviewers van de aankomende 5060 Ti vragen om te dubbelchecken of het onlangs verschenen nieuwe probleem van missende ROPs (Raster Operations Pipeline) ook de 5060 Ti treft in uw test exemplaar (dat zal wel niet, Nvidia levert vast cherrypicked exemplaren aan reviewers):

https://www.reddit.com/r/...y_some_nvidia_cards_have/
"A mistake was made when the wafers were manufactured and either the problem was not identified (which is rare in a field with such high QC), or Nvidia chose to use these chips to curb shortages knowing that consumers would eventually find and demand replacement of such devices."
YouTube: The RTX 50 Disaster
"TechPowerUp uncovered some RTX 5090 gpus are missing 8 ROPs".

[Reactie gewijzigd door SambalSamurai op 11 april 2025 21:29]

ze zouden beter de 8gb kaarten enkel zonder pcie power kabel maken en in lp variant
en de normale met minimum 12GB
8gb in 2025 kan echt niet meer nvidia
Het is *60, geen *80, en geheugen is duur.
idd maar 8gb kan echt niet meer! amd kon in 2021 wel al 12gb in de 6700xt steken?
Meh, ik game* nog af en toe op m'n desktop met een 3400G die 2GB werkgeheugen als grafisch geheugen inzet, dusja :+

Games van 10+ jaar oud, UT GOTY doet het meer dan prima. CIV6 hapert soms wat.
de game(s) die ik speel (beamng) verbruiken wel een goeie 12gb vram dus ja
Op welke resolutie/setting?

Meeste games op 1080p ultra zitten niet aan 8GB hoor, zelfs veel op 1440p nog niet.
1080p max met een 6950xt en cpu bottleneck 5700g
Dan kijk je waarschijnlijk naar allocated en niet effectief ingenomen. Of het moet wel ene heel slecht geoptimaliseerde game zijn. (of veel mods)
Dergelijke oude games verbuikten zeker niet zoveel vram of niemand kon ze spelen in de tijd.
Beamng zonder mods
Weet dat vram gebruik uitlezen maar zo zo is. Het is nagenoeg onmogelijk om dat nauwkeurig in kaart te brengen. Als je tegen je vram aanloopt merk je dat vanzelf wel. Dan heb je niet wat lagere fps, maar heel je framerate duikt ineen als een kaartenhuisje.

En ik speel beamng zonder problemen op mijn gpu met 8GB vram.

[Reactie gewijzigd door BlaDeKke op 11 april 2025 18:06]

Er zijn ook games die prima gebruik kunnen maken van 16 GB. Maar de vraag voor NVidia is: zijn er genoeg gamers die behoefte hebben aan een 8 GB kaart?

Ik heb nog een 1660 met 6 GB. Dat is wat krapjes voor sommige van mijn games, maar een upgrade naar een 5060 met 8 GB is 33% extra geheugen en veel meer bandbreedte.
Ja dan zouden ze de 8gb zoals al gezegd zonder power connector moeten maken en veel goedkoper vind ik. Een videokaart met 4060 performance maar voor 230 euro bv zou niet slecht zijn :+
Ja, en een kaart met 4070 performance voor 150 euro is nog veel beter. Maar dat is niet waar we anno 2025 staan. Ik deel je idee dat een kaart zonder power connector (75W PCIe slot) een relevante markt-niche is. Daar had je heel lang de 1030GT; een nieuwe 5030 zou best kunnen. Alleen moet je in een x030 kaart geen x060 performance verwachten.
Ik game met een 2070 super maxq 8GB, en de vram capaciteit is wel het laatste waar ik tegenaan loop.
Voila daarom moet nvidia wat meer vram in hun kaarten steken
Dan heb je mijn reactie niet goed gelezen.
Oh ja sorry verkeerd begrepen
En in 2014 kwam de eerste 8gb kaart uit.
De r9 290 vaporx.
In 2105 kwam de 390 met 8gb uit.
In 2016 kwam de 1000 serie van nvidia uit, met 8gb kaarten.
In 2005 was 256mb/512mb normaal.
2015 2/4gb en dus ook 8gb.
2025 alsnog 8gb maar eerder 12/16 gb.
8gb zie ik nu als het minimale voor een low end kaart.
Helaas bestaan die niet echt meer iig niet voor de low end prijzen zoals eerder.
8gb is dus allang niet meer courant.
Ook al kan je er nog steeds mee gamen met lage instellingen.
Precies mijn punt!
Ook al kan je er nog steeds mee gamen met lage instellingen.
Heb ik even voor je gecorrigeerd.

Je mag er van vinden wat je wil, maar laten we aub niet nog meer misinformatie verspreiden.

[Reactie gewijzigd door BlaDeKke op 11 april 2025 18:28]

precies, en een Xbox heeft ook maar 10Gb en kan ook gewoon alles draaien dus daar werkt het ook gewoon en hoor je niemand er over zeuren.
en waarom dan niet,

Ik heb 6Gb en heb geen enkele issue met geen enkele game.
Hangt sterk af van welke game

Mijn 6950xt op Max settings 1080p beamng heeft het al moeilijk
Vaak heb je max settings niet eens nodig want je ziet het toch niet op 1080p

En dat is het ding niet iedereen gamed op 4k max
Hoge kwaliteit textures kan je prima zien op een degelijk 1080P scherm, stream genoeg vanuit m'n game-pc naar remote locaties over het internet met 100Mbit/s en zeer lage input lag naar waar een 1080P scherm aanwezig is en al die AAA-titels zien er gelikt uit met hoge textures, te weinig VRAM is gewoon onnodig jezelf in de weg zitten, textures vreten geen performance van de core weg maar met te weinig buffer gaat dat in bepaalde spellen toch wel zeker een flinke bottleneck verzorgen.

Snap eigenlijk niet zo goed waarom het verdedigd wordt, ik kan het snappen om de prijs te drukken maar realistisch gezien voor deze prijzen maakt het juist een slechtere indruk het weg te laten. Net zoals mensen nog denken dat 8GB RAM genoeg is om hedendaags mee te gamen, of vooruit, 16GB, dat was leuk in 2013.

Maar dit draait meestal uit op oeverloze discussies, men komt er vanzelf wel achter als het niet werkt en dan argeloos toekijken hoe een model met meer VRAM op vergelijkbaar prestatie-niveau die crisis modelletjes voorbij lachen zeker gezien de devs nu veel meer texture geweld gebruiken dan vroeger het geval was ook in de minder heftige games. 8GB was nog leuk met de 10-series maar we zijn alweer 9 jaar verder.

Aan de andere kant, als je dergelijk intensieve spellen niet speelt dan boeit het niet zoveel, maar je krijgt voor die absurde prijzen wel erg weinig voor je geld.
mooi voor jouw ik zie het verschil niet op 4K 2K of 1K met textures tenzij het zowat je hele scherm vult,

Heb nog een tijdje met unreal engine gespeeld en dan moet je texture sizes gaan bepalen in je levels , meerendeel krijgt geen 4K omdat het totaal niet nodig is op normale resoluties, totdat je 4K gaat gamen.

Good old gameplay alla BF42 en mass effect is veel belangrijker , pas nog uitgespeeld en ondanks dat het 12 jaar oud is ziet het er net zo goed uit omdat de gameplay super is.
Heuh? je ziet het wel degelijk op 1080p, game,s laten zaken achterwege op lager settings zoals minder bosjes, minder schaduw, minder lichteffecten en lager texture,s vaak ziet het er dan uit als minecraft(vooral tussen low en medium).

Resolutie heeft te maken met afstand tussen jouw en monitor grootte, niet iedereen heeft belang bij 32" op 30cm afstand.

[Reactie gewijzigd door mr_evil08 op 14 april 2025 16:10]

8gb in 2025 kan echt niet meer
4060 gebruiker hier, ik speel de afgelopen 2 jaar al mijn games (geen nieuwe AAA) op 2560x1440 High op 75FPS. Dan hebben we het over games als Cyberpunk, Need for Speed en God of War. Cyberpunk is zover de hoogste VRAM gebruiker op 6,7/8GB. Natuurlijk begint het geheugen hier al krapjes te worden, maar mijn performance is stabiel dus ik klaag niet :P

8GB is prima voor een budgetkaart. Je koopt hem ten slotte met een klein budget. Dat je bij Nvidia niet het meeste waar voor je geld hebt is al langere tijd zo. Ik vond het bij aankoop simpelweg een mooie kaart voor een mooie prijs (Gaming X €329). Nu al 2 jaar plezier van gehad, dat geld heb ik er zeker uitgehaald vind ik :D
Ergens lachwekkend dat een RTX 5060 Ti wellicht wat sneller is i.v.m. zijn architectuur en GDDR7 maar nog altijd deze kaarten genekt worden door de bandbreedte en zelfs de gelimiteerde 8x PCI-E bus met een magere 128-bits bus wat zelfs op oudere platformen ook nog eens nadelig werkt omdat je dan in 8x mode moet draaien op PCI-E 2.0/3.0/4.0 wat dus de bandbreedte nog minder ten goede komt dan dat als het op 16x gedraaid had.

Een beetje courante GPU als de 1080Ti zoals de EVGA FTW3 liep op 484GB/s en met een kleine +500 overklok op het VRAM was daar al 524GB/s van te maken voor 12Gbps doorgifte en die versloeg de RTX 4060 regelmatig door zijn grotere framebuffer, en juist die bandbreedte is voordelig met de hogere resoluties als 1440P waar die kaarten prima op kunnen functioneren.

Al met al dus nog vrijwel weinig voorruitgang in een x60-class videokaart t.a.v. een inmiddels 8 jaar oude 1080Ti...
Ja je hebt ReBAR met de RTX videokaarten wat wellicht voor zo'n 10fps o.i.d. in verbetering kan zorgen maar dat werkt ook niet overal.

En dan die 8GB, dat kan anno 2025 dus echt niet meer.
Misschien voor een x50-class GPU die recentelijk niet zoveel aanwezig is geweest maar niet de x60-class waar je een beetje game-capabiliteit verwacht.
En het grappigste is juist dat zaken als DLSS, Framegen en Raytracing nog meer van het VRAM vragen en hun eigen G-Assist kan niet eens functioneren op minder dan 12GB wat dus hun nieuwe 8GB kaarten eigenlijk al per direct einde levensduur maken.

Zie ook de recente video van JayzTwoCents:
YouTube: This is what happens when you run out of VRAM... Say NO to 8GB GPUs!
"courante" gpu is niet een high end van 7 jaar geleden.

Daarbij is een 4060 zo goed als altijd sneller dan die 1080 ti zelfs zonder dlss or RT met dat is het verschil enorm.

Die 8gb is voor de 4060 ook genoeg hoor je eigen video toont dat aan, die low end kaarten halen met moeite 30fps op de resoluties dat het uitmaakt. Je moet dus al met dlss SR beginnen om het speelbaar te maken wat evoor maakt dat 8GB vram genoeg is.
je eigen video toont dat aan, die low end kaarten halen met moeite 30fps op de resoluties dat het uitmaakt. Je moet dus al met dlss SR beginnen om het speelbaar te maken wat evoor maakt dat 8GB vram genoeg is.
Speelbaar tegenover totaal niet, ik ga niet verder in op je reacties.
Sorry maar je eigen video bevestigd dat, of het nu 20 fps of 25fps is maakt weinig uit, dat is onspeelbaar.
Leuk dat je "op papier" 25% sneller bent maar je kan er geen spel in die settings meer mee spelen.
Ik speel ondertussen al 5 jaar op mijn 2070 super maxq met 8GB vram ipv mijn 1080ti met 11GB vram omdat het performance verschil niet merkbaar is in ouderwetse games. In moderne games die voordeel kunnen halen van de nieuwere architectuur is mijn 2070 altijd sneller.

Een 1080ti vergelijken met 3000/4000, laat staan 5000 serie heeft geen zin in mijn ogen.

@CriticalHit_NL
Het is dus eigenlijk een 5050 de mislukkingen bij nvidia gaan maar door. Deze generatie maar overslaan tot ze weer bij zinnen komen.
Lagere kosten & stroomverbruik is in het budgetsegment een goed iets wat mij betreft. Dat deze generatie veel te wensen over laat ben ik met je eens, maar persoonlijk kijk ik uit naar de 5060/5060Ti release mits de prijzen deze keer dan eens een beetje degelijk mogen zijn. Voor nu wishful thinking denk ik 8)7
De reacties hier doen me vermoeden dat er toch wat gamers voor een 4k monitor gegaan zijn, zonder daar al te lang over nagedacht te hebben. Wat ergens logisch lijkt aangezien 1080p 1440p of 4k zowat voor dezelfde prijzen te vinden zijn en hoger is beter, right?

En dan van een koude kermis thuiskomen als je ziet wat het in de huidige markt zou kosten als je die monitor met een leuke framerate wil aansturen in moderne games. En een 5060 gaat dat niet doen, nog niet met 32GB vram.

Heb er al zien struikelen over de pcie5 8x bus. Alsof dat ooit een bottleneck gaat zijn voor deze gpu. Er is nog steeds veel mis informatie te vinden zo blijkt.

[Reactie gewijzigd door BlaDeKke op 11 april 2025 18:22]

Via Lossless Scaling vanaf een base framerate van 40 FPS (capped) @ 1080p met SGSR (Snapdragon Game Super Resolution) + 3x LSFG (Lossless Scaling Frame Generation) naar 120 FPS/Hz @ 4K.

Mot net kunne.
Kan zeker als je compromissen maakt. Net het leuke aan pc gaming!

Op dit item kan niet meer gereageerd worden.