Nvidia kondigt RTX 5060 en RTX 5060 Ti aan en halveert meerprijs 16GB-model

Na de release van de RTX 5070 begin maart was het even stil, maar Nvidia gaat zijn line-up de komende weken weer verder uitbouwen. De chipontwerper kondigt de RTX 5060 en RTX 5060 Ti aan, en die laatste gaat woensdag al in de verkoop. De gewone RTX 5060 volgt in mei.

Specificaties: nieuwe GB206-gpu en sneller geheugen

De GeForce RTX 5060 en RTX 5060 Ti maken allebei gebruik van de nieuwe GB206-gpu, die net als de andere chips die gebruikt worden in de 50-serie op TSMC's 4N-procedé wordt gemaakt. In zijn volledige configuratie, zoals aanwezig in de RTX 5060 Ti, telt hij 4608 cores. Dat zijn er een kwart minder dan in de RTX 5070. Bij de RTX 5060 wordt daar nog eens 17 procent van uitgeschakeld om uit te komen op 3840 shadercores. De kloksnelheden van zowel de gpu als het geheugen variëren onderling niet tot nauwelijks.

Beide nieuwe modellen zijn voorzien van een 128bit-geheugenbus, net als hun voorgangers in de 40-serie. Doordat het GDDR7-geheugen op veel hogere snelheden werkt, valt de geheugenbandbreedte met 448GB/s wel ruim de helft hoger uit. De RTX 5060 Ti komt in twee varianten beschikbaar, met 8 en 16GB vram. Verder verschillen deze kaarten niet van elkaar. De RTX 5060 verschijnt alleen met 8GB geheugen.

De tekst gaat verder onder de tabel.

RTX 5070 RTX 5060 Ti RTX 4060 Ti RTX 5060 RTX 4060
Architectuur Blackwell Blackwell Ada Lovelace Blackwell Ada Lovelace
Procedé TSMC 4N TSMC 4N TSMC 4N TSMC 4N TSMC 4N
Gpu GB205 GB206 AD106 GB206 AD107
Diesize 263mm² 181mm² 190mm² 181mm² 158,7mm²
Aantal transistors 31,1 miljard 21,9 miljard 22,9 miljard 21,9 miljard 18,9 miljard
Cores 6144 4608 4352 3840 3072
Boostclock 2,45GHz 2,57GHz 2,53GHz 2,50GHz 2,46GHz
Geheugen 12GB GDDR7 8GB/16GB GDDR7 8GB/16GB
GDDR6
8GB GDDR7 8GB GDDR6
Geheugenbus 192bit 128bit 128bit 128bit 128bit
Snelheid geheugen 28Gbit/s 28Gbit/s 18Gbit/s 28Gbit/s 17Gbit/s
Bandbreedte
geheugen
672GB/s 448GB/s 288GB/s 448GB/s 272GB/s
Tgp 250W 180W 160W 145W 115W
Interface PCIe 5.0 x16 PCIe 5.0 x8 PCIe 4.0 x8 PCIe 5.0 x8 PCIe 4.0 x8

Het is opvallend dat de RTX 5060 en RTX 5060 Ti gebaseerd zijn op dezelfde gpu, waar de RTX 4060 Ti nog een hardwarematig andere chip bevatte dan de RTX 4060. Nu worden de verschillen dus alleen gevormd door het aantal actieve cores, een iets andere gpu-kloksnelheid en de tdp: dat is 180W bij de RTX 5060 Ti en 145W bij de RTX 5060. Beide vermogens liggen wat hoger dan bij de 40-serie.

Verkrijgbaarheid en prijzen

De RTX 5060 Ti komt als eerste uit. Deze videokaart ligt vanaf woensdagmiddag om 15.00 uur in de winkels en krijgt adviesprijzen van 405 euro voor het 8GB-model en 459 euro voor het 16GB-model. Daarmee is de RTX 5060 Ti aanzienlijk goedkoper dan zijn voorganger, zeker in het geval van de 16GB-uitvoering; de meerprijs daarvan is gehalveerd van 110 naar 54 euro.

De gewone RTX 5060 volgt ergens in mei. Nvidia geeft nog geen adviesprijs in euro's vrij, maar wel in dollars, en die is met 299 dollar identiek aan die van de RTX 4060. Als Nvidia dezelfde conversiekoers hanteert als het bij de RTX 5060 Ti's heeft gedaan, zou dat een prijs van 320 euro betekenen.

RTX 5070 RTX 5060 Ti RTX 4060 Ti RTX 5060 RTX 4060
Introductieprijs 654 euro 8GB: 405 euro
16GB: 459 euro
8GB: 449 euro
16GB: 559 euro
~320 euro 329 euro
Releasedatum 05-03-2025 16-04-2025 23-05-2023 mei 2025 28-06-2023

Van alle gpu's in de RTX 5060-serie verschijnen geen Founders Editions; je kunt ze dus alleen kopen van Nvidia-partners waaronder ASUS, Gigabyte, INNO3D, MSI, Palit en PNY.

Nvidia GeForce RTX 5060 Ti videokaarten

Door Tomas Hochstenbach

Redacteur

15-04-2025 • 15:00

179

Lees meer

Reacties (179)

179
177
50
3
0
106
Wijzig sortering
Ik ben een leek als om de techniek van CPU en GPU gaat. Ik lees geregeld dat een GPU 15-20 miljard transistoren heeft. Als ik dan het volgende bedenk dan vraag ik me af hoe dan?

Stel 20 miljard transistoren. Als er bijvoorbeeld 100 transistoren per seconde gemaakt worden dan zou dat uiteindelijk 58333 uur duren🙄

Hoe werkt zoiets dan? (een eenvoudig antwoord volstaat)
Daar heeft Tweakers zelf een mooi artikel over geschreven.
"Wafer process" even opzoeken dan zal het duidelijk worden.

Om het 100% in kort uit te leggen is wat moeilijk. Maar afbeeldingen op google zullen je zeker inzicht geven.
Wikipedia: Photolithography

Ze maken een chip in lagen, met een masker waarmee je een hele laag in 1x maakt. Na een x keer belichten heb je miljarden transistors.
Ik weet er toch wel wat van af, en bij mij blijft ook de vraag staan hoe dan? En hoe meer ik er vanaf weet, hoe meer ik de vraag heb, hoe dan?!? Elk treetje dieper neemt mijn verbazing toe. Mocht je ooit een keer in de gelegenheid zijn om ASML in Veldhoven te bezoeken zou ik dat zeker doen. Naar mijn mening een van de meest bijzondere bedrijven van Nederland. Het hele korte antwoord is dat ze foto's maken met "pixels" op nanometer resolutie. Dat is ergens in de buurt van 10^-9 meter qua precisie afhankelijk van welke structuur ze willen maken.
Ze werken met zo'n 100 maskers waar licht doorheen schijnt.
Je kunt dat vergelijken met 100 stempels elk met een ander patroon en kleur.
Die stempel je dan 100 keer over elkaar heen en je uiteindelijke plaatje heeft dan 20 miljard transistoren.
Je schiet licht door een masker met gaatjes dat stukken photoresist wegetst, je haalt die loshangende photoresist weg en dan schiet je nog eens doorheen dat masker met miljarden gaatjes om de blootgestelde lagen nu echt weg te etsen en de transistors - een opvolging van geleider-halfisolator-geleider - te vormen in een wafer. Die maskers zijn miljoenen waard. En het licht dat m'n gebruikt word steeds kleiner (extreme ultra violet - EUV), ingewikkelder maar ook precieser.
Je moet wel helemaal niet weten wat je doet als je een 8 GB model van de 5060 Ti koopt i.p.v van de 16 GB voor een meerprijs van alleen maar € 50. Waarom Nvidia niet gewoon alleen de 16 GB uitbrengt vind ik ook bijzonder.
omdat 16GB dikke overkill is als je gewoon 1900*1200 speeld,

Zeker als je ook niet alles open zet, en zodra als je alles open gaat zetten zeker icm de nieuwe compressie en AI dan heeft de Processor een eerdere bottle nek dan de mem constraint is het idee.
Zoals @nzall al aangeeft een grote onzin.

Ik zal hier maar een paar voorbeeldjes erbij pakken, de niet-RTX spellen kon ik ook prima qua GPU-kracht op de 1080Ti spelen op 1080P dan wel 1440P, uitgezonderd Dead Space 2023/Wreckfest die ik daarmee niet geprobeerd heb. En Hogwarts Legacy heb ik niet eens als voorbeeld erbij gepakt omdat die niet geïnstalleerd is maar die pakte vrijwel direct na boot al 10GB VRAM op de 1080Ti.

En dan zijn deze voorbeelden hieronder nog maar net nadat de spellen zijn ingeladen, zonder echt door het spel heen te gaan wat vaak nog extra assets blijft bijladen, en zonder veel extra zooi open behalve een paar launchers en een paar chrome tabs en verder klein grut wat niet veel VRAM inneemt.

Dead Space (2023):Half-Life 2 RTX (2025):Halo Infinite (2021):Portal RTX (2022):Ratchet & Clank: Rifts Apart (2021):Shadow of the Tomb Raider (2018):Sniper Elite 5 (2022):Wreckfest 2 (2025):En dan kijken we voor het gemak maar even niet wat het spel zelf gebruikt maar het totale verbruik, want vol is vol en dan is het RAM-swappen met alle gevolgen die daaraan kleven zoals stutters en traag ladende textures of die zelfs gewoon doodleuk weer verdwijnen om plek te maken voor andere textures. Textures kost de GPU nihiel aan kracht om te renderen, totdat je geen VRAM meer over hebt.

Genoeg mensen die nog wel eens YouTube of een of andere livestream erbij hebben openstaan, of Discord of andere zaken en dan kan je het met 8GB snel schudden.

Komt er ook nog bij dat ik zelf niet eens spellen heb benoemd die uberhaupt vrijwel niet te draaien zijn op 8GB.

Nee, 12GB voor de x60-class videokaarten zou de ondergrens moeten zijn in 2025, zelfs het Nvidia's eigen Geforce G-Assist heeft minimaal 12GB nodig, je doet jezelf dan echt tekort door verkeerde zuinigheid.
Dit VRAM gezeik komt ondertussen echt m'n strot uit. Bekijk benchmarks, en maak een keuze op basis van je eisen. Simple as that.

Ik speel veel relatief recente games op 2560x1440 resolutie op High of Ultra met 75fps op mijn 4060 met 8GB. Qua VRAM is Cyberpunk 2077 de grootste verbruiker met 6,7GB max. Een ander heeft weer een 4080 nodig omdat diegene graag de allernieuwste (en daarbij vaak slecht geoptimaliseerde) games speelt. Dit wordt nu echt zo'n discussie als IOS vs Android :P
Dat boeit vrij weinig, hoge kwaliteit textures kan je prima zien op lagere resoluties en heb je prima profijt van. Dit is overal op de hoogste texture instelling.
Dan snap je het hele punt niet. En heeft de discussie geen zin
Dan negeer je wel wat hij zegt, want hij had het over "Zeker als je ook niet alles open zet" en niet over alleen de resolutie.
Dat is onzin. Er zijn nu al games op de markt waar 8 GB VRAM effectief de juiste ervaring belemmert. In Indiana Jones and the Great Circle is zelfs bij bescheiden settings 8 GB VRAM niet genoeg, zelfs niet voor 1080p. En bij Hogwarts Legacy, Forspoken en andere games zijn de textures spuuglelijk op 8 GB VRAM omdat de frame buffer gewoon niet groot genoeg is om redelijk formaat textures te tonen. In die games heb je last van texture pop-in.

Ik ben het er wel mee eens dat voor 1080p 12 GB VRAM volstaat, zelfs voor bovenstaande games en dat 16 GB veel is, maar met een memory bus van 128 bit is dat geen optie. Nvidia heeft gewoon de verkeerde keuzes gemaakt met de memory bus die het aan de 5060 en 5060 Ti gegeven heeft.
Hogwarts Legacy anders behoorlijk wat schik mee gehad i.c.m. een 3060Ti kaart. Nee niet op de hoogste (texture) instellingen uiteraard, maar de problemen waar iedereen over spreekt dat het onspeelbaar is of er totaal niet uitziet op 8GB kaarten vond ik echt totaal overtrokken. En ja ik heb hem ook al eens opgestart op een 16GB kaart en dat ziet er natuurlijk wel beter uit doordat de instellingen een stuk hoger kunnen maar onspeelbaar was het dus zeker niet.

Overigens ben ik het wel met je eens dat het nu anno 2025 nog nieuw aanschaffen van 8GB kaarten geen slimme keuze uit, m.u.v. iets 2de hands van hooguit 200-230 euro.

Daarnaast gaat de 5060Ti 8GB denk ik de twijfelachtige eer krijgen de snelste 8GB kaart ooit te zijn (dat is nu de 3070Ti vgm), en denk ik ook dat deze kaart vrij snel 'oud' gaat worden in toekomstige spellen.
Ik ben het er wel mee eens dat voor 1080p 12 GB VRAM volstaat, zelfs voor bovenstaande games en dat 16 GB veel is, maar met een memory bus van 128 bit is dat geen optie.
Er zijn tegenwoordig 3GB Vram modules, zo komt de laptop variant van de 5090 namelijk aan 24GB op 256bit. 12GB op 128bit is dus ansich mogelijk.

[Reactie gewijzigd door !mark op 15 april 2025 16:37]

Je vergelijkt nu wel 256 bit memory in een 3060TI met 128 bit memory in een 5060TI. Ik weet niet wat die verhouding precies voor invloed heeft maar het kan wel verklaren waarom toch 12 of 16GB nodig is.
Bandbreedte blijft hetzelfde aangezien er GDDR7 op de 5060 Ti zit. Beide in dit geval dus 448GB/s.
aan de andere kant, is een kaart als deze uberhaubt krachtig genoeg om deze op zulke hoge settings te spelen dat die 4K textures nodig heef t?
texture quality heeft absoluut geen impact op FPS, tenzij als door te hoge texture resolution je VRAM buffer overschreden wordt. Of je nu 1K textures, 4K textures of 8K textures gebruikt, als ze in de frame buffer passen gaat dat geen scheet uitmaken qua performance. Texture is gewoon een index van alle kleuren op een polygoon, en of die index tabel nu 1000X1000 rijen heeft om in op te zoeken of 4000x4000 maakt niet uit, dat opzoeken duurt even snel.

Maar het is wel één van de meest impactvolle dingen op de grafische kwaliteit van de frames die je ziet, want die textures zijn de basis van alle shaders, upscaling en RT effects die op je scherm getoond worden. Hoe meer informatie er in die textures zit hoe beter.
Dat is onzin. Er zijn nu al games op de markt waar 8 GB VRAM effectief de juiste ervaring belemmert. In Indiana Jones and the Great Circle is zelfs bij bescheiden settings 8 GB VRAM niet genoeg, zelfs niet voor 1080p. En bij Hogwarts Legacy, Forspoken en andere games zijn de textures spuuglelijk op 8 GB VRAM omdat de frame buffer gewoon niet groot genoeg is om redelijk formaat textures te tonen. In die games heb je last van texture pop-in.
En dat is wel raar want vorige keer zou jij juist hetzelfde gezegd hebben als ScriptKid. Het VRAM gebruik is geballooned de afgelopen jaren. En vroeger hadden we van die back of the hand berekeningen om te zien hoeveel pixels je framebuffer moest kunnen dragen en dus hoeveel VRAM je moet hebben. Maar dat is al lang niet enkel meer wat er in het VRAM steekt.
Die zijn allemaal al verbeterd na updates en geven geen problemen meer op 8gb kaarten.
De problemen die zijn opgelost in die games waren FPS problemen, en daar had ik het expliciet niet over. Sterker nog: hetgeen ik aanhaal is de oplossing voor die problemen: in plaats van dat ze de FPS verlagen van het spel omdat de textures niet in de framebuffer passen gebruiken ze nu lagere kwaliteit textures als de framebuffer vol komt te zitten.
Die games hadden ook memoryleakes waardoor het geheugen volliep en je dat dan kreeg.
Er is een handvol games dat meer dan 8GB gebruik op 1080p high of daarboven, als je die speelt dan is idd 8gb te weinig
Ga maar eens kijken bij de post van CriticalHit_NL wat lager. hij heeft daar een hele resem games die meer dan 8 GB VRAM gebruiken op 1080p als ze daartoe de kans krijgen.
Laat staan dat 8GB gewoon niet future proof is op de langere termijn, wellicht zelfs middel termijn.
hij hallt allocated and used door elkaar.
8.1gb allocated (de eerste op 1080p) betekend niet dat de game die allemaal gebruikt.

YouTube: RTX 4060 vs RTX 4060 TI vs RTX 4060 TI 16GB vs RTX 4070 - Test in 25...

amper verschil in performance tussen 8gb & 16gb 4060ti
Hier weer heel ander story. YouTube: RTX 4060 Ti 8GB vs 4060 Ti 16GB - Test in 8 Games (Worst-Case Scenar...

Volgens mij zijn de 0,1 en 1% frames altijd een stukje beter op een 16gb model.
Ja dat laatste zeker, alhoewel dat met een 5060 beter zou moeten zijn door het snellere geheugen.

EN sommige games (zeker een nieuwe slechte port) kunnen idd issues geven, update slossen dat op meestal. Als je dat niet wil is 12 of 16Gb aangeraden idd
Een budget videokaart kopen voor een AAA game is nooit voldoende geweest. Dit heeft echt niks met het geheugen te maken, maar met de eisen die men stelt. Ik merk zelf vaak dat velen grote dromen hebben, en een dunne portemonnee 8)7
Voor nu mee eens, maar je ziet nu al dat 8 GB soms aan de krappe kant is. Als je hier een aantal jaar mee verder wilt kan het nog wel eens een issue worden. Bovendien, het hele AI verhaal is juist een prime selling point van Nvidia
Voor nu mee eens, maar je ziet nu al dat 8 GB soms aan de krappe kant is. Als je hier een aantal jaar mee verder wilt kan het nog wel eens een issue worden. Bovendien, het hele AI verhaal is juist een prime selling point van Nvidia
Een issue gaat het niet worden. Je kunt altijd texture details verlagen. Je kunt zelfs met 4GB nog wegkomen anno 2025.
Dat zul je in loop der tijd sowieso doen als de relatieve performance afzakt. Overigens lijkt het me een vrij degelijke randvoorwaarde om te stellen dat je je GPU nog enigsinds significant aan het werk gezet wordt. Ik kan ook de FPS limiteren op 5 en met een GT 720 gaan gamen, maar dat neemt natuurlijk niemand serieus. "Je kunt altijd texture details verlagen." vind ik daarom appels met peren vergelijken, zeker omdat VRAM-gebruik veel breder is dan enkel texture settings.
texture details voegen weinig tot niks toe om die hover dan 2K te hebben , zeker op de resoluties waar deze kaarten voor gemaakt zijn.

Alleen als je met je snufferd tegen het object aan staat en 3/4 van je scherm is gevult zul je verschil tussen een 2K en een 4K texture zien.
Dat zul je in loop der tijd sowieso doen als de relatieve performance afzakt. Overigens lijkt het me een vrij degelijke randvoorwaarde om te stellen dat je je GPU nog enigsinds significant aan het werk gezet wordt. Ik kan ook de FPS limiteren op 5 en met een GT 720 gaan gamen, maar dat neemt natuurlijk niemand serieus. "Je kunt altijd texture details verlagen." vind ik daarom appels met peren vergelijken, zeker omdat VRAM-gebruik veel breder is dan enkel texture settings.
Ik snap niet wat die overdrijving toevoegt. Mijn laptop heeft een RTX 3050 met 4GB vram en daar valt prima mee te gamen. Dan moet je denken aan games als Forza Horizon 5, Helldivers 2 en Snowrunner. Zo uit mijn hoofd haal ik circa 100 fps in Forza. Prestatie technisch moet je denken aan ongeveer een 1060.

Op mijn desktop heb ik een RTX 4070 met 12GB vram icm 3440x1440, maar laten we niet gaan doen alsof dat de ondergrens is want dat is het simpelweg niet.
Overdrijving? Als ik (enkel) mn textures omlaag schroef puur en alleen zodat het binnen het VRAM past, dan is dat een expliciet andere situatie dan ren eerlijke performance vergelijking. Er is een reden dat alle benchmarks van de standaard graphics niveaus gebruik maken. Ik geloof 100% dat je prima kan gamen op je 4GB 3050, maar daar zul je al je settings op aangepast hebben niet alleen je textures om je VRAM happy te houden.

[Reactie gewijzigd door Verbruggen op 15 april 2025 17:22]

Het gaat hier over VRAM capaciteit. Hou dat binnen de perken en je kan gewoon lekker gamen. En 8GB is plek zat als je niet gaat overdrijven op vlak van textures en resolutie. Je hebt maar zoveel VRAM nodig als je nodig hebt, een overschot aan VRAM is ALTIJD nutteloos, dat biedt geen enkel prestatie voordeel.
Overdrijving? Als ik (enkel) mn textures omlaag schroef puur en alleen zodat het binnen het VRAM past, dan is dat een expliciet andere situatie dan ren eerlijke performance vergelijking. Er is een reden dat alle benchmarks van de standaard graphics niveaus gebruik maken. Ik geloof 100% dat je prima kan gamen op je 4GB 3050, maar daar zul je al je settings op aangepast hebben niet alleen je textures om je VRAM happy te houden.
Ik heb het zojuist voor je getest. Forza Horizon 5 had een flinke update, settings waren gereset, hij kwam met de suggestie voor profile 'high'. Vervolgens een race gedaan en kwam gemiddeld rond de 100 fps uit en heb geen getal lager dan 95 gezien. Geen enkele frame drop. Dit in combinatie met de VRR (g-sync compatible) van het scherm en ik heb letterlijk niets te klagen over de game ervaring. Hetgeen in schil contrast staat met het beeld dat jij schetste (5 fps) en dat met 4GB. Game ziet er ook prima uit op high.

Het voordeel van PC gaming is nu juist dat je zélf controle hebt over die settings. Dus de dag dat 8GB, in geval van mijn laptop 4GB, niet toereikend is dan kun je altijd nog de texture details omlaag zetten. Overige settings hebben tegenwoordig vrijwel geen impact op VRAM. Zelfs resolutie niet, zie bijvoorbeeld deze game waar het verschil tussen 1920x1080 en 2560x1440 letterlijk 600mb betreft.

Die settings is tegenwoordig iets dat je niet zelf hoeft te bedenken. Voor wie dat nodig heeft kan Geforce Experience/ Nvidia App de boel voor je instellen op basis van jouw hardware.

[Reactie gewijzigd door sdk1985 op 16 april 2025 02:00]

Leuk maar een rtx 5060ti draait rondjes om je 3050 mobile GPU. 8gb ram op een kaart van 400 euro terwijl 8 extra maar 55 euro kost.... dat is gewoon een no go.... en tuurlijk kan je settings aanpassen maar dat wil je toch helemaal niet met een kaart van 400 euro? Zeker als er nu al games zijn die er tegenaan lopen en je 1% low en 0,1% low naar de afgrond brengt.. nee dank u vriendelijk....

YouTube: Final Fantasy XVI: 35 GPU Performance Review - Bandwidth Needed

En de textures verlagen heeft ook weinig effect bij die game... en ik wil niet weten wat er over 3/4 jaar uit gaat komen.

[Reactie gewijzigd door loki504 op 16 april 2025 08:47]

Leuk maar een rtx 5060ti draait rondjes om je 3050 mobile GPU. 8gb ram op een kaart van 400 euro terwijl 8 extra maar 55 euro kost.... dat is gewoon een no go.... en tuurlijk kan je settings aanpassen maar dat wil je toch helemaal niet met een kaart van 400 euro? Zeker als er nu al games zijn die er tegenaan lopen en je 1% low en 0,1% low naar de afgrond brengt.. nee dank u vriendelijk....

YouTube: Final Fantasy XVI: 35 GPU Performance Review - Bandwidth Needed

En de textures verlagen heeft ook weinig effect bij die game... en ik wil niet weten wat er over 3/4 jaar uit gaat komen.
De link die je deelt laat allocatie op een 24GB model zien, dat zegt helemaal niks over de speelbaarheid op 8GB VRAM. Hoe meer (v)ram je hebt, des te sneller het wordt gebruikt. Zie bijvoorbeeld deze video waarin een RTX 4060 8GB wordt getest in dezelfde game op ultra en daar 5600 MB VRAM verbruikt.

Tevens is ook die benchmark weer Ultra en was nu juist het hele punt dat niemand je verplicht Ultra textures te gebruiken. Los van dat het in dit voorbeeld alsnog op 8GB lukt is dat nu juist de kracht van pc gaming. Je kunt het zelf aanpassen. Daarmee is het automatisch niet iets om je druk om te maken.

De prijs/prestatie van dit specifiek model is weer een hele andere discussie. Deze discussie gaat over het doemdenken in combinatie met 8GB VRAM. Dat is nergens voor nodig en gebaseerd op misverstanden. Of eigenlijk ook een paar paniek video's op youtube op basis van een aantal console ports waar het één en ander mis ging. The Last of Us heeft letterlijk nieuwe textures gekregen die op elke instelling er beter uitzien dan de launch versie en tegelijkertijd is high icm 8GB geen probleem meer.

[Reactie gewijzigd door sdk1985 op 16 april 2025 11:44]

nog eentje YouTube: RTX 4060 vs 4060 Ti 8GB vs 4060 Ti 16GB in 2024!!! The Ultimate Comp...
YouTube: RTX 4060 Ti 8GB vs 4060 Ti 16GB - Test in 8 Games (Worst-Case Scenar...
en je ook daar zie je dat in 1% low en 0.1% low de problemen ontstaan....
en tuurlijk kan je het 1 en ander aanpassen om de low's iets op te krikken maar dat is in mijn ogen de omgekeerde wereld.

en de devs van TLOU moeten compressie toepassen omdat GPU bakkers te lui zijn om 8 extra te doen op een kaart die het makkelijk aan kan.
en het heeft niets met doom denken te maken. 8gb is gewoon te weinig aan het worden en totaal niet future proof en dan gaan we een nog wat snellere kaart met ook 8gb "uitbrengen" en een rtx 3060 kwam zelfs met 12 gb.....

[Reactie gewijzigd door loki504 op 16 april 2025 12:23]

Op very highin Forbidden west, vervolgens op high zie je dat er niks aan de hand is, ook op 1440P niet. Daarna weer een sloot games zonder verschil tot het bij RE4 weer mis gaat op "Max", pakt hij een andere preset dan verdwijnt ook hier weer het probleem volledig.

Ik snap eerlijk gezegd niet zo goed waar het idee vandaan komt dat je het recht hebt op alle instellingen maximaal te draaien op een 6 series kaart. Voor mij is dat juist de omgekeerde wereld. Wellicht dat dit met de tijdsgeest te maken heeft. Vroeger ging het véél harder met hadware. Het verschil tussen een Voodoo kaart en de eerste Geforce kaarten was dag en nacht. Daarna kregen we de periode van Radeon en Geforce. Kocht je toen een midrange kaart dan kon je ultra en high vergeten op je midrange kaart. Je kon blij zijn als de duurste kaart een game lekker kon draaien op ultra (Can it run Crysis effect).

Op enig moment hebben we een lange periode van stagnatie gekend waarbij de hardware wel sneller werd, maar de games niet persé zwaarder werden. Toen kon je ineens op je midrange kaart very high tot aan ultra instellen.

Echter dat is wat mij betreft helemaal geen wenselijke situatie. Het gaat veel sneller wanneer ontwikkelaars de grenzen opzoeken van wat mogelijk is en ultra een setting is die eigenlijk niemand nu op normale frame rate kan draaien.

Volgens mij is het allemaal niet zo ingewikkeld. Voor 285 euro (prijs van de 4060) kun je Forbidden West Horizon niet op very high spelen, voor 500 euro wel (prijs van de 4060 ti 16gb). Is het verschil tussen very high en high zoveel meer geld waard? Dat is de keuze die gemaakt wordt. Dat zal per persoon verschillen. Maar er ontstaat geen probleem wanneer je voor de goedkopere optie gaat.

[Reactie gewijzigd door sdk1985 op 16 april 2025 12:45]

Ik ben ook van de oude garde hoor en hey heeft niets met de verkoop prijs tussen 2 kaarten te maken. Want dat is gewoon nvidia teveel vraag voor de extra vram.(hier is de duurdere vram prijs ineens maar 55 euro) en er was een tijd dat fabrikanten 8 gb vram konden inkopen voor 38 dollar....
En als je met de rekenkracht op very high/max/ultra rond de 60 fps zit maar met de vram niet uit komt zit er dus in je kaart een bottleneck. En dat neem ik fabrikanten kwalijk.
Ik ben ook van de oude garde hoor en hey heeft niets met de verkoop prijs tussen 2 kaarten te maken. Want dat is gewoon nvidia teveel vraag voor de extra vram.(hier is de duurdere vram prijs ineens maar 55 euro) en er was een tijd dat fabrikanten 8 gb vram konden inkopen voor 38 dollar....
En als je met de rekenkracht op very high/max/ultra rond de 60 fps zit maar met de vram niet uit komt zit er dus in je kaart een bottleneck. En dat neem ik fabrikanten kwalijk.
We hebben het toch heel lang andersom gehad? Dat je qua rekenkracht terug naar medium moest maar textures wel op high kon zetten. Ik heb dat jaren gedaan, standaard textures 1 of 2 levels hoger dan de rest van de instellingen. Pas bij mijn RTX 4070 kon ik daar mee stoppen omdat alles op ultra draait. Maar de kaarten daarvoor hielden eigenlijk nooit voldoende performance over (2070, 1070, 660ti, 460, 260, 8800gts 640mb). In The Division 2 ging dat meer over high vs ultra maar moest ik letterlijk resolution scaling op 85% staan om op 3440x1440 voldoende fps te behalen.

[Reactie gewijzigd door sdk1985 op 16 april 2025 13:27]

Klopt het is ook een tijdje anders geweest. Maar toen waren de chips niet toe reikend genoeg. Maar als we de prijzen van nu met toen vergeleken had je een gtx 980 kunnen kopen.
Klopt het is ook een tijdje anders geweest. Maar toen waren de chips niet toe reikend genoeg. Maar als we de prijzen van nu met toen vergeleken had je een gtx 980 kunnen kopen.
Het is dan ook onmogelijk om het exact op elkaar af te stemmen omdat Nvidia niet zelf aan de geheugen knoppen draait. Zouden ze dat wel kunnen dan hadden we wellicht chips met hele andere hoeveelheden gezien. In mijn nieuwe dekstop zit nu ook 2x24=48GB, bijzonder getal.

Eindstand vind ik het persoonlijk vooral positief dat de lat qua textures met de tijd is opgeschoven. Eigenlijk is er jaren lang niks mee gedaan met al dat geheugen. Stiekem zie je dat ook nu, want welke game heeft nu die 24GB van het top model nodig?
Waarom vraagt iedereen continu AAA games op 1440p/High kwaliteit van budgetkaarten? Een budgetkaart is nooit voldoende geweest voor de nieuwste AAA games.

Zie Rise of The Tomb Raider uit 2016. Deze weet mijn RX9070 nog steeds flink te belasten op maximale instellingen met een framerate van 60.

Daarnaast speel ik sinds April 2023 op een 4060 met 8GB op 1440p High/Ultra @ 75FPS. Zo ver is Cyberpunk 2077 de grootste verbruiker van geheugen met 6,7GB max. Ik zie het probleem zelf echt niet, tenzij je eisen/dromen te groot zijn voor je portemonnee. Ik speel zelf geen allernieuwste (en daarbij vaak erg slecht geoptimaliseerde) AAA games, en 8GB voldoet voor mij. Zou dit niet zo zijn, dan moet ik niet huilen en geld neerleggen voor iets beters. Simpel :P
Maar wanneer je zelf lokaal aan AI beeldgeneratie doet dan is die 16GB natuurlijk wel weer een voordeel omdat de AI modellen steeds groter worden en dan in zijn geheel in de GPU geladen kunnen worden wat weer snelheidswinst oplevert bij het genereren zelf.
Als je AI wilt doen dan moet je even de andere review kijken en dan zie je dat een 5070 zelfs niet snel genoeg is zelfs met veel geheugen en dat je dan beter voor een AMD of een 5080 of sneller kan gaan.
Kijk even rond in dit topic en dan zie je dat hetgeen je beweert niet altijd op gaat.
Lokaal AI afbeeldingen genereren gaat (onder Windows) met een Nvidia kaart prima.
Eigenlijk is het pas sinds kort dat het ook mogelijk is met een AMD GPU
Zoals ik al zij en ook in de review staat waar ik naar verwijs wil je seriues AI lokaal doen dan kies je je kaart bij je model of gewoon iets uit de high end Nvidia range.

Of nog beter de komende dedicated AI kaarten .

[Reactie gewijzigd door Scriptkid op 15 april 2025 16:31]

Lokaal draaien is de limiet alleen de VRAM. Hoe minder snel de kaart is, hoe langer de beeldgeneratie zal duren. Maar het werkt prima. Je hoeft daar echt geen 5080 of 5090 voor aan te schaffen.
Ow daarom staat in de review van tweakers.net dat het onwerkbaar traag is nu snap ik hem 🤣
Helemaal niet. Ik speel bijvoorbeeld Forza Horizon 5 op 1080p, en die loopt best vaak te miepen dat de 8Gb van mijn 3060 Ti niet genoeg is. Mijn volgende kaart moet dus zeker meer hebben, want ik denk niet dat ik op 1080p blijf hangen bij de volgende upgrade. Dan is 8Gb zeker niet genoeg.
Maar dan heb je dus waarschijnlijk textures op high staan
Ik speel hem op 4GB vram op 1080p op high zonder frame drops en krijg die melding niet. De resolutie voegt overigens in de meeste games +- 600MB toe, het zijn echt de textures.

[Reactie gewijzigd door sdk1985 op 16 april 2025 11:47]

Goed om te weten. Ik heb al e.e.a. met instellingen gespeeld, maar bleef die melding houden. Ik zal nog eens kijken en vooral textures naar beneden schroeven.
Huh.. ik speel hier FH4 op 2560x1440 met de hoogste instellingen @ 75FPS met een 8GB 4060 op een lage power limit. Is 5 zo slecht geoptimaliseerd of gaat er bij jou toevallig iets fout?
FH4 loopt bij mij zonder problemen op de hoogste settings (wel op 1080p), FH5 is altijd al een probleem geweest. Klapt er soms zonder reden uit, vaak geheugenmeldingen, oververhitting van de GPU. Kan alsnog aan mijn systeem liggen, maar het is wel het enige spel waar ik problemen mee heb qua stabiliteit.
Als je GPU oververhit raakt tijdens het gamen zou ik eerst daar wat aan doen, dat kan voor een hoop problemen zorgen. Er zijn online veel programma's om wat meer controle over de ventilatoren van je systeem te krijgen zoals MSI Afterburner of FanControl. Misschien dat je je systeem d.m.v. dat soort tools wat beter kunt laten koelen.
In veruit de meeste games wel inderdaad, maar ik vraag me af of 1080x1920 en 1200x1920 hun langste tijd niet gehad hebben inmiddels. Steeds meer mensen die ik ken gamen in 1440p of 4k.
Dan heb je het over 24 inch plus en high end gaming en dan moet dus ook high end vidkaart nemen 5070ti en hoger.

Anders gaat ie het niet trekken.

Ik blijf zelf nog jaren op 1900 en dat zie je ook in steam stats. Geen behoefte aan groter dan 24 inch
Ik game 1440p, zat genoeg aan 8GB. Ik loop tegen men GPU rekenkracht aan, niet de 8GB vram. Dat ga je met een 5060(ti) ook hebben.
Half Life 2 rtx edititie tikt op 1440p al de 12 GB aan.
Ray tracing op een 5060 met 1440??? En dan performance verwachte.

Daarnaast pakken en nodig hebben zijn ook andere dingen.

Mijn 64gb ram wordt ook 14 GB door windows gepakt terwijl Een 8gb systeem ook gewoon werkt.
Simple garbage collect uitstellen want is niet nodig

[Reactie gewijzigd door Scriptkid op 15 april 2025 17:22]

Nou ja, ik draai het ook op mijn 4060 TI met DLSS draait het op 60 fps, goed genoeg voor mij.
VRAM monitoring altijd met een korrel zout nemen, geen enkele tool kan het werkelijke verbruik tonen.
dat is dan ook een tech demo
Wat nou tech demo. Met die mod is het spel gewoon volledig te draaien met RTX.
nee gedeelte en is een tech demo om een nvidia techniek te demonstreren.
Als je stable diffusion xl wil draaien in 12GB of meer nodig op lekker te draaien. Kun je lokaal onbeperkt plaatjes maken met AI.
Die kun je ook wel met 8gb draaien. Maar flux heb je wel meer vram nodig. 16gb
Dat 8GB niet genoeg is voor sommige games is dan ook helemaal niet het hoofd probleem imo

Het is gewoon van de zotte dat we deze prijzen betalen en dan alsnog maar 8GB krijgen
8GB kaarten zouden max 200 euro mogen kosten wat mij betreft
8GB is gewoon absurd om dezer dagen nog te kopen, en al zeker voor die prijsverschil.

YouTube: This is what happens when you run out of VRAM... Say NO to 8GB GPUs!
AMD zet ook een 8GB en een 16GB variant van de 9060 op de markt.
Ze hadden gewoon beter een kaart met alleen 12gb uit moeten brengen. Snap niet waarom je nu 16gb nodig heb voor 1080p. En lijkt me niet dat je deze kaart gaat gebruiken voor 1440p.
Omdat je dan ook een leuke llm er bij kunt draaien in d game of wat AI-interacties.
De 3GB-modules die ze gebruiken om tot 12GB te komen, zijn blijkbaar schaars of duur, als ik Hardware Unboxed mag geloven. Dat is waarschijnlijk de hoofdreden dat ze voor 8GB kiezen in plaats van 12GB.
Ik denk dat je antwoord in je vraag zit. Door een prijsanker van 450€ op die 8GB variant te zetten, lijkt 500€ voor het 16GB model ineens heel redelijk ('goede deal!)'. Als je alleen de 16GB variant lanceert voor 500€ denk je 'he, dat is wel erg duur voor een xx60 videokaart'.

Het prijzen van produkten is mega-belangrijk. Je beinvloedt er actief het gedrag van consumenten mee en iedere euro die je naar boven kan aanpassen is pure winst.
meeste gamers zitten op 1080p waar 8gb genoeg is voor zowat alle games hoor.
Ik snap dus niet waarom we geen 128Gb, 256Gb en 512Gb modellen hebben!
Nvidia weet dondersgoed dat hun kaarten ook veel gebruikt worden voor AI, maar vertikken het om ze met meer geheugen uit te brengen. Hierop zijn alleen maar kaarten te koop met belachelijke prijs modellen wat niet voor iedereen betaalbaar is.

Edit: Ik bedoel dus voor particulier. Steeds meer mensen zijn bezig met AI, maar het is bijna onbetaalbaar. Terwijl geheugen helemaal niet zo duur is. Mensen kunnen me dan direct wel op ongewenst modereren, maar dit is wel degelijk een dingetje wat speelt. Ik ben ook bezig met AI, maar ik heb niet het geld op dit moment voor zo`n dure kaart met zo weinig geheugen. En de industriële oplossingen zijn helemaal niet te betalen. Terwijl het juist met name om de grote van het geheugen gaat. Het stagneert juist de vooruitgang.

[Reactie gewijzigd door Passkes op 16 april 2025 08:19]

NVidia heeft natuurlijk andere (nog duurdere....) hardware te koop voor AI.
Ze zouden zichzelf in de voet schieten als ze hun gaming kaarten te goed zouden maken voor AI toepassingen.
Voor dat soort zwaar AI werk moet je naar de Workstation en Data Center GPUs kijken.

Bijvoorbeeld de RTX PRO 6000 Blackwell heeft 96 GB geheugen (denk iets snellere variant van de RTX 5090).

De data center GPUs hebben nog meer geheugen, de B100 bijvoorbeeld heeft 2x 96GB geheugen. Maar die kaarten zijn alleen bruikbaar in een server systeem aangezien ze geen actieve koeling hebben.
Productsegmentatie. Zoals je zelf zegt zijn die professionele modellen bijna niet te betalen, daar verdienen ze bakken met geld aan.

Als ze nu Geforce kaarten met 64GB maken dan kopen bedrijven die gelijk op ipv €2000 extra te betalen voor de dure pro kaarten en maken ze een stuk minder winst.
Omdat het primair gamingkaarten zijn, en dan is sowieso op dit moment alles boven 32GB zware overkill. Wil je meer, dan moet je de voor AI bedoelde kaarten/modules kopen.
Er zijn mensen waarbij 50 euro hun budget een aanzienlijk verschil maakt.
Jammer dat het waarschijnlijk zal op gaan aan kermis lampen e.d. maar dat is hun keus.
€459 klinkt niet zo verkeerd
Maar even afwachten hoeveel marge een megekko er de eerste dagen opgooit. Bijzondere vind ik altijd bij grafische kaarten dat die boven de adviesprijs de deur uitgaan. Terwijl andere producten toch vaker onder de adviesprijs worden verkocht.
Denk dat dit 2 factoren heeft.
1 ze zitten met de 5070 die op voorraad is en blijft, de 5060ti duurder maken kan die verkoop mss op gang helpen.
2 aangezien die 5070 momenteel te krijgen is vanaf 615,- is de ruimte om de 5060ti 16GB duurder te maken heel beperkt.

De 5070 is hierin wel een hele hap vooruit maar de 9070 zit dan weer vooral in de weg.
Maar even afwachten hoeveel marge een megekko er de eerste dagen opgooit. Bijzondere vind ik altijd bij grafische kaarten dat die boven de adviesprijs de deur uitgaan. Terwijl andere producten toch vaker onder de adviesprijs worden verkocht.
Het heeft heel simpel met vraag en aanbod te maken. In het begin bij een nieuwe kaart zijn de beschikbare aantallen schaars en worden verdeeld over de hele wereld. De vraag er naar is hoog, dan kunnen de shops er meer voor vragen omdat het bijna onmogelijk is om een kaart te pakken te krijgen en de rijkere doelgroep ook een kaart voor een hogere prijs zal kopen.

Als je over een half jaar gaat kijken dan hebben de meeste gamers die zo'n kaart willen er wel eentje te pakken gekregen, de kaart is weer meer op voorraad leverbaar en dan zullen de prijzen weer gaan zakken. Gelukkig zijn er nog steeds twee partijen op de markt (als intel beter word zelfs drie) anders zouden de prijzen stelselmatig te hoog blijven.
Terwijl andere producten toch vaker onder de adviesprijs worden verkocht.
Nvidia verkoop zijn eigen kaarten voor zijn adviesprijs. Dat wil niet zeggen dat de andere fabrikanten dat ook doen of moeten doen. Die bieden hogere snelheden en betere/stillere koeling.

Die meerwaarde en dus meerprijs vind je bij maar weinig producten.
Het is geen advies prijs, het zijn vanaf prijzen aangezien het partners zijn die allemaal hun eigen varianten verkopen en niet eenzelfde met een vaste prijs.
kocht je niet zo lang geleden een deftige videokaart voor, hoezo niet verkeerd? belachelijke prijzen voor deze perfomance.

[Reactie gewijzigd door Farabi op 15 april 2025 15:20]

Maar tegenwoordig gaan ze langer mee, en games schalen beter waardoor je hogere framerates kunt halen op lagere instellingen die er niet eens slecht uitzien.
Bedenk wel dat 459 euro in, bijvoorbeeld, 2015 hetzelfde is als 601 euro in 2025. Bovendien gaat een moderne GPU veel langer mee dan vroeger.
Ik vraag me af met de huidige AI-trent waar je vram is king hebt, lijkt me 16GB binnenkort wat klein worden.
In mei krijg je 128GB GPU met 1000 TOPS (fl4) en 20 core CPU kastjes voor de prijs van een gaming laptop.

De 5060 TI heeft 614 TOPS (fl4).

[Reactie gewijzigd door djwice op 15 april 2025 17:59]

Een 4060 draait cyberpunk op 1440p , wat is er mis met die performance?
Maar niet met alle opties aan, en zeker niet zonder DLSS.
met zo goed als alle opties en dlss lukt dat hoor en dat voor 300 euro.
Wat maakt dat uit? Zie je niet/amper en je kan zo een spel spelen in die settings voor 300 euro.
Echt niet "belachelijk" hoor.
Nee, dat klopt, maar juist dus als men hier oude kaarten met nieuwe kaarten gaat vergelijken doet men dat op de pure raw kracht omdat ze vinden dat al die opties maar fake zijn.... En ik ben het helemaal met je eens, je ziet het echt amper tot niet, tenzij je echt gaat zitten zoeken of vaak alleen als er side-by-side images zijn, maar als je gewoon met de game zelf echt bezig bent dan zie je die paar artifacts niet echt, en met de nieuwste kaarten is dat dus nog verder verbeterd.
Idd bedenk ook : is anti-aliasing dan fake? bedoel dat is de gpu die het "echte" beeld aanpast om er beter uit te laten zien.
testen zonder AA of gelijk welke van de andere "trucje" die gpu's toepassen?
Raar die mensen die dat denken.
Geen fatsoenlijke raytracing performance
Je kan zelfs pathtracing aanzetten , en ongetwijfeld zal een 5060 daar beter in zijn.
Je mag nog 1 nachtje dagdromen over dat dat de prijs wordt (maar ook: over 24 uur weet je wat je echt zou moeten betalen).

Wat ik begrijp is dat die prijzen die NVidia noemt sowieso zonder BTW zijn.

En tot nu toe liggen volgens mij alle 50xx prijzen fiks hoger dan waarvoor ze zijn aangekondigd.

Dus ik neem dat morgen alle 5060 TI's (ook 8GB) meer dan 600 euro kosten, en dan moeten we maar gaan zien wat er in het komende jaar met de prijzen gebeurd.
Even een reminder: RTX 5070 kost nu €610 en niemand koopt ze.
Dus dan vind ik het wel een heel gek verhaal als RTX 5060 ti meer gaat kosten.
Ik zat er inderdaad helemaal naast.
Ik zie nu dag later dat ik bij Megekko op dit moment voor 459 euro een inno3d 5060ti 16GB in mijn winkelwagentje zou kunnen doen.

(Wat ik niet ga kopen, maar in mijn ogen wel een goede deal is als ik het vergelijk met dat ik begin 2023 voor 429 euro een 3060ti 8GB heb gekocht)

[Reactie gewijzigd door SanderBos op 16 april 2025 15:15]

Nee hoor, op de nl site staat gewoon "vanaf €405” bij de 5060-ti.. das dus gewoon inc btw.
Het is weer eens wat anders dan 900+ euro voor een grafische kaart.
Je bedoelt 5000 euro?
* MrMonkE checkt pricewatch
Oh nee 'slechts' vanaf 2600 zijn er nu 5090's :)
Begint vanaf 900 euro (AMD) tot een kleine 4000+ euro voor de 5090 (Nvidia).
Voor games wel.
Maar zoveel AI is op CUDA gericht -hoewel ik ook ROCM wel eens voorbij zie komen- en is nu al vaak een gevecht het werkend te krijgen dus met AMD zie ik het lijk al drijven. Wel veel VRAM voor wineig, zeer aantrekkelijk.
En daarmee hebben ze dus hun doel bereikt. Een relatief laag modelnummer voor dat bedrag is nog altijd duur te noemen in vergelijking met nog niet zo lang geleden, maar dankzij de absurde prijzen van de vorige generatie vinden we dit ineens een goede deal, zeker wanneer we die kaart voor dat bedrag zouden kunnen kopen.
Tja heel eerlijk, Nvidia zwemt hier wel tegen de stroom in. Ten opzichte van de launch van de RTX 4 serie hebben we behoorlijk wat inflatie gehad en bij de 5 serie zie je structureel dat ze de MSRP verlagen. Dat in combinatie met 10-20% meer performance. Blijkbaar lag de focus deze keer op het verlagen van de prijzen. De focus van de 4 serie was overduidelijk performance per watt (letterlijk +50%). De focus van de 3 serie was ook het verlagen van de MSRP, echter door crypto hebben niet veel mensen daarvan kunnen profiteren.
Nee, maar tot op heden zijn aangekondigde prijzen van Nvidia vooral een reclame stunt, en zijn de daadwerkelijke winkelprijzen minimaal 20% hoger.
Ook wel waard om op te merken: de 5060 Ti is met 16 GB dus maar 10 euro duurder dan de 4060 Ti met 8 GB destijds. Dat is ruim minder dan de inflatie (2.5%) en dan heb je dus dubbel zoveel geheugen wat ook nog eens sneller is.
De 16GB 4060Ti was dan ook pure oplichting voor wat je ervoor kreeg. Te traag om de volle 16GB te benutten maar wel een dikke meerprijs terwijl de 8GB het net niet was met een te hoge basisprijs.
't Lijkt er inderdaad op dat GDDR7 het wel zinnig maakt om 16 GB op een 128 bits bus te plaatsen.
De 16GB 4060Ti was dan ook pure oplichting voor wat je ervoor kreeg. Te traag om de volle 16GB te benutten maar wel een dikke meerprijs terwijl de 8GB het net niet was met een te hoge basisprijs.
Texture details verhogen kost vrijwel geen performance, je moet echt denken aan 1-3 fps. Dus je bewering klopt niet. Het extra vram kun je in sommige games prima gebruiken. Al dan niet via een HD texture pack die sommige games aanbieden. Diablo4 ga je ultra niet redden met 8GB, met 16GB wel.
Antwoord op de aankomende grafische kaart van AMD.
Exact, alsof er serieus de mogelijkheid was om de 110 euro verschil tussen 8GB en 16GB 'gewoon' te handhaven! :+
Met 54 euro is het nog steeds 'ruim betaald'.
199€ voor de 5060
249€ voor de 5060TI
279€ voor de 5060TI 16gb

Zou het in mijn ogen moeten kosten. Als je naar de specs kijkt, dan is dit eerder een 5050 instapkaart.

Heb enige wat ik kan zeggen: stem met je portemonnee :)
Ik vind 19.9euro meer dan genoeg voor alles, alles daarboven-> boycotten
Dat zijn fantastiche prijsen, maar waar baseer je dat op? Zelfs de GTX 760 (non ti) was in 2013 ongeveer 230 euro. 230 euro in 2013 is 320 euro waard in 2025
Gaat de goede kant op met de prijzen - tenminste, als je ze ook daadwerkelijk voor die prijs zou kunnen krijgen 8)7
In werkelijkheid zal er wel weer 50% bovenop komen.
Geduld is een schone zaak bij het aanschaffen van een GPU tegenwoordig. Tenzij je écht NU een nieuwe nodig hebt zou ik een maand of 3 wachten om de scalpers en hype wat tijd te geven om af te koelen.
De RTX 5070 en 5070Ti kan je nu al voor adviesprijs kopen.. Denk niet dat het over 3 maanden veel goedkoper dan adviesprijs zal zijn, al zit de goedkoopste 5070 (in de Pricewatch hier) er nu wel al een tientje onder.. Tenzij Trump & co de Amerikaanse markt nagenoeg onmogelijk maakt voor o.a. videokaarten uit Taiwan en China etc en al die fabrikanten massal op o.a. de Europese markt gaan dumpen ofzo.. Maar dat is pure speculatie, voor hetzelfde geld raakt de wereldmarkt zo in de war dat overal de prijzen gaan stijgen..
Ik weet het niet hoor qua prijs. Dit is beetje de entry kaart van Nvidia samen met de 5060. De tijd dat je een entry kaart voor rond de 300 euro kon kopen komt waarschijnlijk niet terug, Tenzij AMD hier 50-100 euro onder gaat zitten.

En ja ik verwacht ook wel wat kaarten die boven de 500 gaan zitten met bepaalde modellen.
4060 op zijn laagste was 250 euro, nu is die een 320 euro.
Gewoon een week of twee wachten. Zij die €100+ meer willen betalen hebben nu al wel hun kaarten
Voor de groep die op 1440p gamed is 8Gb toch niet meer voldoende.
Ik heb nog een RTX 3080 met maar 10GB en speel daarmee op 3840x1600 wat ongeveer 2x zoveel pixels is als 1440p (2560x1440).. Geen idee hoe ik dat nog steeds redt afgaande op het commentaar van sommige GPU VRAM experts..

Dat is het mooie aan PC gaming, dat je zelf van alles kan instellen.. Je hoeft niet alle games in de hoogste "ultra" presets te spelen.. Sterker nog, het is sterk af te raden dat te doen, zelfs als je PC snel genoeg is.. Er is meestal enorm veel prestaties (fps) te winnen door slechts een paar instellingen aan te passen zonder dat je het verschil echt ziet.. Sommige games hebben nu ook een speciale texture pool instelling voor VRAM.. Op b.v. Youtube heb je allerlei tweakguides voor geoptimaliseerde instellingen in games.. Zie b.v.: YouTube: Assassin's Creed Shadows | OPTIMIZATION GUIDE | Every Setting Tested...

Met de juiste tweaking redt je het voorlopig dus ook nog wel even met 8GB VRAM op 1080p of 1440p.. Voor hogere resoluties zoals b.v. een 3440x1440 widescreen of 4K monitor zou ik inderdaad wel meer VRAM nemen nu.. Dus een 5060Ti met 16GB of doorsparen voor een 5070 met 12GB of AMD 9070 met 16GB..

[Reactie gewijzigd door Inflatable op 15 april 2025 17:10]

Meeste games wel, sommige games idd niet zeker als je graag hogere settings zet.
Nevermind, verkeerd gelezen

[Reactie gewijzigd door Defspace op 15 april 2025 18:13]

Hmm ben benieuwd voor wat voor prijzen ze op korte termijn gekocht kunnen worden. Net een 5070 gekocht in de gedachte dat de 16 GB 5060ti boven de 500 zou zijn op MSRP, en naar alle waarschijnijkheid significant daar boven in de praktijk.

Zou de 5070 een miskoop zijn geweest? Nee denk zeker niet. Tegen die tijd al paar weken lol van gehad (ook wat waard) en al bij paar games gezien dat dit performance niveau (met RT en top settings op 1080P) voor mij goed is.
Een 5070 is op basis van Cuda cores en geheugenbandbreedte denk ik wel 33% sneller dan een 5060Ti. Zolang de spellen op jouw instellingen+resolutie genoeg hebben aan 12GB heb je daar immers nog steeds veel meer aan dan extra geheugen.

Persoonlijk was ik voor het geld wat een 5070 kost voor een 9070 non XT gegaan puur vanwege 16GB, maar uitgaande dat je niet veel meer dan MSRP hebt betaald gewoon lekker van je 5070 genieten voorlopig en niet teveel met 'wat als ik gewacht had' bezig zijn.
Sterker nog, ik heb letterlijk MSRP betaald! :) Maar idd ik verwacht er niet veel door beperkt te worden. De 9070 was evt een optie maar is minstens €50 duurder. Bovendien gebruik(te) ik af en toe CUDA, het houden van die optie is me ook wat waard.
Eh. dat dat zijn prijzen, terwijl er geen FE edition bestaat? Die we dus van andere merken kopen? Hoe kan dan de prijs ervan door Nvidia aangekondigd worden? Nvidia kan wel vinden dat b.v. de 16 GB versie €459 gaat kosten, maar zou b.v. ASUS daarover niets te zeggen hebben?
Nou ja, maar afwachten waar de marktprijzen belanden.
Het zijn en blijven adviesprijzen, die worden altijd door de fabrikant bepaald?
OK, maar wat ASUS & Co. ervan maken is weer heel wat anders. Ik heb het niet over deluxe versies met watercoolers e.d. maar is er enige garantie dat er meteen al modellen > 500 € zijn voor de versie die €459 als adviesprijs gekregen heeft?
Ze kondigen ook geen vaste prijzen aan, ze kondigen aan dat ze VANAF die prijs te krijgen zouden moeten zijn, maar dat hangt dus af van welke fabrikant de kaart komt. Mensen interpreteren dat hier als een MSRP, wat nvidia dus niet zegt. Een asus die bv een bepaald type kaart uitbrengt die stelt voor die kaart een MSRP voor.


Om te kunnen reageren moet je ingelogd zijn