Eerste benchmarkresultaten van Nvidia RTX 4060 verschijnen in Geekbench-database

De komende Nvidia RTX 4060 is voor het eerst opgedoken in de Geekbench-database. De videokaart presteert in de Vulkan-benchmark zo'n 17 procent beter dan de RTX 3060 en in OpenCL zo'n 18 procent. Dat is vergelijkbaar met de prestatiesprong tussen de RTX 2060 en 3060.

De GeForce RTX 4060 behaalde 99.419 punten in de Geekbench 6 Vulkan-benchmark en 105.630 punten in OpenCL. Ter vergelijking: AMD's soortgelijke Radeon RX 7600-videokaart scoort gemiddeld 95.147 punten in de Vulkan-test en 80.209 in OpenCL, merkt Videocardz op. Vooral in de laatstgenoemde test behaalt Nvidia's kaart dus veel betere scores. De Ti-versie van de 4060 scoort bij de Vulkan- en OpenCL-benchmarks respectievelijk gemiddeld 21,6 en 25 procent beter. Ook de 3060 Ti scoort bij beide tests iets hoger dan de reguliere 4060.

Overigens moet hierbij wel opgemerkt worden dat de Geekbench-software geen rekening houdt met variabelen die invloed kunnen hebben op de prestaties, zoals de kloksnelheden of drivers die de videokaarten draaiden. Voor de twee tests is verder gebruikgemaakt van een Intel Core i5-13600K-cpu, 32GB aan DDR5-6000-geheugen en een ASUS ROG Z790 APEX-moederbord.

De Nvidia RTX 4060 krijgt een AD107-gpu met 3072 CUDA-cores en 24MB L2-cache. De gpu wordt standaard geleverd met 8GB geheugen en haalt een geheugenbandbreedte tot 272GB/s. De RTX 4060 moet volgens Nvidia 329 euro gaan kosten en is beschikbaar vanaf 29 juni.

Benchmarkresultaten Nvidia RTX 4060
Benchmarkresultaten van de Nvidia RTX 4060 vergeleken met die van andere middensegmentvideokaarten. Bron: VideoCardz

Door Kevin Krikhaar

Redacteur

21-06-2023 • 15:23

114

Reacties (114)

Sorteer op:

Weergave:

Ongeveer 17% sneller dan een 3060 voor een lagere prijs ($299 vs $329 bij introductie). Dat valt flink mee vergeleken met de rest van de 40-serie.
Eens, vergeleken met de andere kaarten is dit een "relatief" goedkope kaart.
De comments vallen me ook me ook mee :9

Zie nog geen "ja 300 euro is veel te duur voor een instapkaart" haha.
Bij deze: 300 euro is veel te duur voor een instapkaart!

Ik kom uit een tijdperk dat de meest high end GPU 500 of 550 euro kost.
Nu kost een e-penis GPU in NL minimaal € 1.669 (nieuw)

Update: The good old days
uitvoering: Asus Geforce 7950 GX2 1GB DDR3 (PCI-e, 2xDVI) EN7950GX2/2PHT
:'(

[Reactie gewijzigd door 7th op 22 juli 2024 21:01]

Aan de andere kant, hoe lang ging zoiets toen mee? Die 7950 was in die tijd goed voor 30FPS in Oblivion, met verlaagde instellingen. Ik kan helaas geen benchmarks vinden van latere games op die kaart maar denk dat ie drie jaar later flinke problemen had met de nieuwste games.

EDIT: 2 jaar later zat je gewoon met 20FPS op je kaart van €600 8)7
https://www.youtube.com/watch?v=JMzAbHTrqLw
Dat doen zelfs de xx50 kaarten momenteel beter.

[Reactie gewijzigd door Wolfos op 22 juli 2024 21:01]

Op zich wel een interessant punt dit. Mijn GTX 970 heeft het ook erg lang volgehouden. Cyberpunk ging net een stap te ver maar dat is dan ook vele jaren later.
~€600 Toen ik hem kocht... Was ook een redelijk top uitvoering.
https://tweakers.net/pric...80g1-gaming-4gd-rev2.html
Draaide als laatste Escape from Tarkov nog redelijk op 1440p. Nu 2060S.

Ik weiger om die reden dan ook meer dan ~€750 voor RTX**80 of *800XT(nu 7900XT want vieze spelletjes met namen) te betalen.
Ik wacht zo lang mogelijk, koop als het moet een lager model als ik toch moet upgraden. Kost ze gewoon potentiële winst; stemmen met portemonnee... ;(
Ja 300 euro is veel te duur voor een instapkaart
Hihi :+
En dat alles voor grofweg 2/3 van de power consumption (115W vs. 170W). Je kunt zeggen wat je wil over de 4000-series, maar de efficiëntie is prijzenswaardig.
Als je die scores ziet geloof ik er vrij weinig van dat we dit in games ook daadwerkelijk terugzien. Als je de reviews van de 406Ti vs de 3060 Ti ziet dan mag je nu weer hopen op 5-10%.
Zie ook de review van Hardware Unboxed:
https://www.youtube.com/watch?v=WLk8xzePDg8

Dus best triest voor deze prijs. Ben best benieuwd of de kaart nog steeds sneller zal zijn over 2 jaar als een 3060 met 12GB geheugen.
Het enige positieve wat ik van de kaart kan zeggen is dat de prijs beter bij het geheugen past.
De 4060 heeft maar 8GB! Er zijn games die niet zullen draaien op High of Ultra met een 4060, maar wel op een 3060 simpelweg omdat die 12GB heeft. Het verschil tussen 200 en 250 fps op 1080p low maakt een stuk minder uit als 1080p high niet werkt.

Dit prestatieniveau is hilarisch overkill voor een 8GB videokaart. De 4060 zal vast elke game op 1080p kunnen spelen voor vele jaren, maar ik ben benieuwd wat er van de pracht en praal overblijft met 8GB in next gen games.

Het is IMO wel jammer dat er geen 4060 16GB is. 8GB aan extra ram zou ongeveer 30 dollar kosten en dan ben je gelijk van het hele gezeik af. Maar ja, dan kan NVIDIA niet over 2-3 jaar weer cashen.
Wees maar zeker dat Nvidia €100 i.p.v. €30 zou vragen voor die extra 8GB. Dat kan je al zien bij de RTX 4060TI, 8GB is daar $399 MSRP en 16GB is $499 MSRP.

Ik wil het gewoon niet riskeren van een kaart met maar 8GB te kopen. Liefst zou ik zelfs voor 16GB VRAM kiezen omdat dit overeenkomt met de shared memory van de consoles. Echter véél opties zijn er dan niet of je moet je blauw betalen...
500-550eur en je hebt 16GB, 350-400 een 12GB kaart, definitie van blauw

En voor 1080p heb je helemaal geen 16GB nodig, 8Gb kom je met 99% van games gewoon ruim toe.
Veel te veel geloof in de youtubers en wilde verhalen en benchmark cijfertjes.

[Reactie gewijzigd door d3x op 22 juli 2024 21:01]

Sorry maar welke games op 1080p vragen dan effectief meer dan 8GB vram? Misschien MFS?
Als ik sommige youtube clips mag geloven eet RT en frame generation ook aardig wat geheugen?
Als ik benchmarks see pakt Cyberpunk op 1440p ultra met RT en DLSS een 8GB in met FG daar bovenop 9 gb.

Meeste games op 1080p zitten op 4-6GB vram in ultra dus RT en FG zouden daar wel nog inpassen.
9 Gb is dus iets wat je absoluut niet wilt op een 8 Gb videokaart.
Nouja eerst de game benchmarks van de 4060 maar eens afwachten en het lijkt me ook niet onmogelijk voor videokaart bouwers om meer geheugen op een 4060 kaart te kunnen zetten. Toen de adressering op de videokaart nog 32bit was maakte dat natuurlijk meer uit want dan moesten er boven de 4Gb ( maar in de praktijk dus 3.5Gb) vertragende technieken gebruikt worden (64bit adressering kan 128 Terrabyte adresseren, maar ik weet eerlijk gezegd niet hoe die adressering op videokaarten gaat)
dat is dus 1440p ultra RT + FG op een x060 kaart. Daarbij schroef bepaalde zaken iet of wat terug en je zal onder die 8Gb geraken. Als je dan tegen de 100fps krijgt op moderne games in 1440p kan je dat toch moeilijk een slechte kaart noemen.

Op 1080p gaat dat dus onder die 8GB blijven
Hmm ik heb nog wat verder gekeken naar wat 4060ti in game youtube filmpjes en de verschillen in Vram usage zijn groot tussen de verschillende filmpjes. Maar het meeste lijkt wel binnen de 8 Gb te blijven. Weinig verschil daar tussen 1080p of 1440p in ieder geval. Maar het idee bij DLSS3 is dat je dat juist niet wilt terugschroeven bij een wat langzamer kaart. Enfin als het minder dan 50 euro zou schelen heb ik graag een 4060 met 16 Gb ! Dat zou me in de toekomst een upgrade kunnen schelen. Ik heb sowieso geen haast!
(Ik bedoel als ik dan alsnog moet terugschroeven ;-) )

[Reactie gewijzigd door AtariXLfanboy op 22 juli 2024 21:01]

We spreken hier over een budget kaart, 8GB dan doet RT er geen reet toe, dan zit je in een budget markt.

Maarja onze NV marketing fanboy moet zich toch steeds laten horen, want je koopt enkel de marketing hypes natuurlijk, RT nodig en DLSS nodig....

als je denkt een 4060 16gb te kopen dan heb je idd geen haast, want dan koop je gewoon een brakke gpu die 1080 aankan. Dan kan je evengoed een vorige andere generatie kopen.

Energie consumptie zet je dan wat lager met wat settings, een hogere kaart kan je met gemak downclocken.

[Reactie gewijzigd door d3x op 22 juli 2024 21:01]

Eh flamert kijk eens goed in de spiegel. En moet ik nou weer alle argumenten herhalen waarom t AMD fanboy verhaal niet klopt? Tja vervolgens ga je klagen dat ik teveel reageer over dit onderwerp! Je probeert hier wel erg opzichtig mensen op de man af te zeiken die het op dit gebied niet met je eens zijn heh!

[Reactie gewijzigd door AtariXLfanboy op 22 juli 2024 21:01]

Sorry maar welke games op 1080p vragen dan effectief meer dan 8GB vram? Misschien MFS?
Veel nieuwe titels. Veel toekomstige titels.
Hardware Unboxed heeft er een aantal video's over gemaakt. Het gaat niet om een enkele game of zo. De trend is duidelijk: 8GB VRAM is niet langer genoeg. Ook niet op 1080p.
Youtube: 16GB vs. 8GB VRAM: Radeon RX 6800 vs. GeForce RTX 3070, 2023 Revisit

Wat Steve in dat filmpje ook aanhaald is dat het vreemd is dat veel gamers het niet eens zijn met de stelling dat 8GB VRAM niet langer genoeg is. Je zou denken dat iedereen het daar wel over eens is. Maar kennelijk is de drang om 8GB te verdedigen erg sterk. Bizar want 8GB VRAM kost slechts $27.

[Reactie gewijzigd door Blorgg op 22 juli 2024 21:01]

Maar kennelijk is de drang om 8GB te verdedigen erg sterk.
altijd zo bizar zo'n opmerkingen
altijd zo bizar zo'n opmerkingen
HWU heeft objectief aangetoond dat 8GB niet meer voldoende VRAM is voor recente games op 1080p. Daaruitvolgend is de trend duidelijk dat steeds meer developers meer dan 8GB VRAM willen gaan gebruiken voor hun games.

Reageer jij anders eens met feiten die weerleggen waarom 8GB op 1080p niet meer genoeg is voor recente en toekomstige games. Het enige argument wat je redelijkerwijs kunt maken is dat 8GB voldoende is voor low-budget en indie games. Maar daar ga je natuurlijk geen $400+ voor neerleggen. Of wel?

Ik wens je veel succes.
neen ze hebben aangetoond dat bepaalde settings in 1080p die boven de 8GB VRAM gaat.

Of dit "niet genoeg" is hangt af wat de gebruiker wil van zijn kaart en wat die ermee doet. Geen idee waarom je zo gefrustreerd of agressief reageert trouwens daar ging mijn opmerking over.
Het is jouw interpretatie dat ik gefrustreerd of aggressief reageer. Dat doe ik niet, ik weerleg slechts jouw slechte argumentatie. Jij blijft 8GB VRAM op dure kaarten verdedigen met zwakke argumenten en nou ga je het op de man spelen.

Als jij wilt beweren dat "niet genoeg" afhangt van wat je met een kaart gaat doen, dan kun je gewoon stoppen met de hele discussie. Natuurlijk hangt het af van wat je wilt doen. Als je genoegen neemt met gamen op een 486 dan prima. Doe dat lekker. Er zijn heel veel goede games die draaien op een 486.

Maar wanneer een gloednieuw product 329 euro kost dan is het redelijk om te stellen dat dit een kaart is waarmee je nieuwe games wilt kunnen spelen. En voor dat bedrag is het redelijk om te verwachten dat je dat kunt doen met hoge instellingen. En dat kan dus niet. En dat is waarom 8GB niet langer voldoende is. En dat is waarom jouw argumenten geen hout snijden.

Als jij dat een gefrustreerde of aggressieve reactie vindt, prima. Dat mag jij vinden.
Sorry maar ik vroeg gewoon welke games meer dan 8GB gebruiken in 1080p jouw reactie :
Maar kennelijk is de drang om 8GB te verdedigen erg sterk.
DAt is idd "op de man spelen" en imho bizar.
Maar wanneer een gloednieuw product 329 euro kost dan is het redelijk om te stellen dat dit een kaart is waarmee je nieuwe games wilt kunnen spelen.
En dat kan je 4060 ti (ook 8gb) geeft je 85 fps gemiddeld op huidige games op 1080p ultra en 60+fps op 1440p ultra.
https://www.tomshardware....orce-rtx-4060-ti-review/5

Dat jij van low/mid end graphische kaarten verwacht (300 euro is dat immers) dat ze de laatste games op 60+ fps op 1440p wil spelen is jouw eis , als ik de 1060 zie :

review: Nvidia GeForce GTX 1060 review: op scherp in het midrange-segment

Kwam die op ongeveer dezelfde fps uit in games en qua prijs (350 voor die versie) zal die niet veel verschillen als je inflatie ed meetelt. Dit is gewoon mijn mening, geen reden om daarover zo opgewonden te geraken ;-)
DAt is idd "op de man spelen" en imho bizar.
Dat was de reactie van Steve. Jij haalt hier dingen uit context.
En dat kan je 4060 ti (ook 8gb) geeft je 85 fps gemiddeld op huidige games op 1080p ultra en 60+fps op 1440p ultra.
https://www.tomshardware....orce-rtx-4060-ti-review/5
Weerleg even de objectieve meetingen van HWU waaruit blijkt dat nieuwe titels niet genoeg hebben aan 8GB VRAM met hoge instellingen. Jij vergelijkt nu appels met peren.
Dat jij van low/mid end graphische kaarten verwacht (300 euro is dat immers) dat ze de laatste games op 60+ fps op 1440p wil spelen is jouw eis , als ik de 1060 zie :

review: Nvidia GeForce GTX 1060 review: op scherp in het midrange-segment

Kwam die op ongeveer dezelfde fps uit in games en qua prijs (350 voor die versie) zal die niet veel verschillen als je inflatie ed meetelt. Dit is gewoon mijn mening, geen reden om daarover zo opgewonden te geraken ;-)
Yep, en wat is 1080p volgens jou? Je zult vast nog wel monitoren kunen kopen die lager gaan dan dat, maar daar zul je wel even voor moeten zoeken. De 1080p resolutie is dus gewoon laag te noemen. Entry level als je wilt.

Dus dat een mid-range kaart niet in staat is om op lage resolutie met hoge instellingen te kunnen spelen is dan gewoon niet acceptabel. Mijn mening is dat jouw mening slecht is, geen reden om daarover zo opgewonden te geraken ;-)
Dat was de reactie van Steve. Jij haalt hier dingen uit context.
Neen want jij haalt die aan op een reactie van mij. Buiten dat je zegt dat dit niks met de post te maken is heet dat "op de man spelen". FYI ik verdedig niks ik geef mijn mening, dat is alles.
Weerleg even de objectieve meetingen van HWU waaruit blijkt dat nieuwe titels niet genoeg hebben aan 8GB VRAM met hoge instellingen. Jij vergelijkt nu appels met peren.
Ik geef je een review met huidige games waarin dat een 8gb kaart geen problemen heeft om games te draaien tot 1440p . Ook niet ivm 1% lows. IK geef dus waar het over gaat: kan je hierop gamen en dat gaat zeer zeker.

https://www.techpowerup.c...-rtx-4060-ti-xlr8/42.html
While it would be nice of course to have more VRAM on the RTX 4060 Ti, for the vast majority of games, especially at resolutions like 1080p, having more VRAM will make exactly zero difference. In our test suite not a single game shows any performance penalty for RTX 4060 Ti vs cards with more VRAM (at 1080p). New games like Resident Evil, Hogwarts Legacy, The Last of Us and Jedi Survivor do allocate a lot of VRAM, which doesn't mean all that data actually gets used. No doubt, you can find edge cases where 8 GB will not be enough, but for thousands of games it will be a complete non-issue, and I think it's not unreasonable for buyers in this price-sensitive segment to to set textures to High instead of Ultra, for two or three titles. If you still want more memory, then NVIDIA has you covered. The RTX 4060 Ti 16 GB launches in July and gives people a chance to put their money where their mouth is. I'm definitely looking forward to test 16 GB, but I doubt the performance differences can justify spending an extra $100.
En dan heb ik het nog niet over frame generation waar zelfs een 4060 cyberpunk op 1440p of zelfs 4k kan spelen. En jij wil doen alsof je een 720p monitor voor deze kaart nodig hebt. Oh en 2/3e heeft een 1080p scherm wat dus de overgrote meerderheid is van gamers.
Mijn mening is dat jouw mening slecht is, geen reden om daarover zo opgewonden te geraken ;-)
lol doet me denken aan de meme waar jij staat te roepen tegen iemand die rustig aan het gamen is op zijn 4060 dat dit niet mogelijk is en dat die ogenblikkelijk moet stoppen.
Neen want jij haalt die aan op een reactie van mij. Buiten dat je zegt dat dit niks met de post te maken is heet dat "op de man spelen". FYI ik verdedig niks ik geef mijn mening, dat is alles.
Wat jij doet met elke reactie hierop is aantonen dat Steve gewoon gelijk heeft. De drang, jouw drang, om 8GB te verdedigen is sterk.

Heb je de review die je linkte wel eens grondig gelezen? Waar zie jij dat Tomshardware dezelfde games heeft getest als Hardware Unboxed toen die aantoonden dat 8GB niet toereikend is in recente titels?

Je hebt niets weerlegt. Wat jij hebt gedaan is appels met peren vergelijken. Tuurlijk als je minder veeleisende games speelt zal het goed gaan. Maar daar hebben we het nu overduidelijk niet over.
Wat jij doet met elke reactie hierop is aantonen dat Steve gewoon gelijk heeft. De drang, jouw drang, om 8GB te verdedigen is sterk.
Nogmaals geen idee waarom je zo ogpewonden geraakt en waarom je iets wat iemand anders zegt zo wanhopig waar wil laten worden.

IK gaf wat andere reviews die dat tegenspreken. Je wil die niet aanvaarden ok maakt mij niet uit, nog een prettig weekend. :)
IK gaf wat andere reviews die dat tegenspreken. Je wil die niet aanvaarden ok maakt mij niet uit, nog een prettig weekend. :)
Nee, wat jij deed was benchmarks tonen van minder veeleisende games. Om dat in het extreme door te trekken: als je games van 10 jaar geleden wilt spelen kan dat inderdaad prima met 8GB VRAM.

Wat jij doet was appels met peren vergelijken en dat probeer jij dan als bewijs aan te dragen dat 8GB VRAM voldoende is. Dat terwijl er gewoon objectief bewijs is dat nieuwe en toekomstige games simpelweg niet genoeg hebben aan 8GB VRAM.

Jij bent degene hier die stug blijft volhouden. Moedwillige onwetenheid heet dat. Ook wel bekend als vingers in de oren en tralalala.

Jij ook een prettig weekend. Geniet van het mooie weer.
Nee, wat jij deed was benchmarks tonen van minder veeleisende games. Om dat in het extreme door te trekken: als je games van 10 jaar geleden wilt spelen kan dat inderdaad prima met 8GB VRAM.
Neen dat zijn 25 games die momenteel veel gespeeld worden en de meeste gereleased de laatste paar jaren, met verzinsels zal je er echt niet komen hoor. Erger nog een groot deel ervan komen ook in de video die jij als bron geeft voor je beweringen. Wat is het dus? Zijn games van 2020-2022 te oud of tellen die wel?
Wat jij doet was appels met peren vergelijken en dat probeer jij dan als bewijs aan te dragen dat 8GB VRAM voldoende is. Dat terwijl er gewoon objectief bewijs is dat nieuwe en toekomstige games simpelweg niet genoeg hebben aan 8GB VRAM.
Doe ik niet, ik toont gewoon aan met verschillende bronnen dat in huidige games tot 1440p (zonder dsll3 en/of FG) deze 8gb kaarten 60-100 fps halen EN dat die geen significante fps drops hebben. Op basis van dat zie ik dus geen enkele reden om zoals jou te doen en te beweren dat die kaarten momenteel zo goed als nutteloos zijn.
Jij bent degene hier die stug blijft volhouden. Moedwillige onwetenheid heet dat. Ook wel bekend als vingers in de oren en tralalala.
De enige die hier feiten ontkent ben jij, 60gps en 45-50 fps voor 1% gemiddeld is gelijkaardig aan de kaarten ervoor


Als afsluiter:

https://www.youtube.com/watch?v=KnB8dJQtI7w

Test zowat dezelfde games en wat zie je? Buiten "the last of us part I" is er eigenlijk geen enkele die grote verschillen toont tussen 8 en 12gb , tja wat baten kaars en bril ...
Neen dat zijn 25 games die momenteel veel gespeeld worden en de meeste gereleased de laatste paar jaren
Well there it is: "de laatste paar jaren".

Daar hebben we het toch helemaal niet over? Jij blijft maar appels met peren vergelijken. Je hele argument snijd geen hout want we hebben het niet over oude games van een jaar of meer geleden. We hebben het over nieuwe en toekomstige games.

En uit jouw filmpje blijkt gewoon dat jij fout zit. Even voor alle duidelijkheid. De GPU van een 4060Ti is ongeveer even snel als de GPU van een RX6750. Het hang een beetje van de game af welke sneller is. Maar over het algemeen zijn ze aan elkaar gewaagd. Dat gezegd hebbende is de 4060Ti over het algemeen sneller in raytracing.

Maar kijk naar de resultaten van wat recente titels:
  • Ray Tracing: Star Wars Jedi: Survivor, de 4060Ti laat lagere minimale framerates zien.
  • Last of Us: Part 1, de 4060Ti is dramatisch veel langzamer.
  • Ray Tracing: Resident Evil 4 Remake, de 4060Ti laat weer veel lagere minimale framerates zien.
  • Ray Tracing: Hogwarts Legacy, de 4060Ti laat weer lagere minimale framerates zien.
Als je zelf verder wilt kijken, ga je gang. Ik had even geen zin om verder te kijken naar een filmpje van iets wat eigenlijk een verzameling screenshots is.

Nogmaals. Het gaat hier niet om oude games. Je gaat redelijkerwijs geen 300~400 euro uitgeven om oude games te spelen. Met zo'n kaart wil je graag nieuwe games op hoge settings kunnen spelen, zelfs al doe je op een lage resolutie als 1080p. En de 4060Ti kan veel recente titels niet eens in 1080p met 60fps renderen met raytracing aan simpelweg omdat deze beperkt wordt door 8GB VRAM. Met 12GB VRAM zou de 4060Ti met raytracing aan absoluut gehakt maken van de RX6750. Maar nu is de RX6750 een geduchte concurrent en dat is zowel hilarisch als diep triest.

[Reactie gewijzigd door Blorgg op 22 juli 2024 21:01]

We hebben het over nieuwe en toekomstige games.
Omdat jij de absurde redenering wil doen dat mensen enkel games die later dan juni 2023 spelen?
https://steamdb.info/charts/

Tiens niks van 2023 , maar blijkbaar zijn
A Plague Tale: Requiem / spiderman remastered-miles morales /calisto protocol / Star Wars Jedi: Survivor / hogwarts legacy / ... nu al "oud" .
Ray Tracing: Star Wars Jedi: Survivor, de 4060Ti laat lagere minimale framerates zien.
Je quote was :
HWU heeft objectief aangetoond dat 8GB niet meer voldoende VRAM is voor recente games op 1080p.
3070 (8gb) doet die beter dan de 12gb kaart.
Last of Us: Part 1, de 4060Ti is dramatisch veel langzamer.
zoals ik zelf al zei
Ray Tracing: Resident Evil 4 Remake, de 4060Ti laat weer veel lagere minimale framerates zien.
95fps en 60fps 1% perfect speelbaar dus
Ray Tracing: Hogwarts Legacy, de 4060Ti laat weer lagere minimale framerates zien.
En is beter speelbaar dan de 12gb kaart.
Als je zelf verder wilt kijken, ga je gang. Ik had even geen zin om verder te kijken naar een filmpje van iets wat eigenlijk een verzameling screenshots is.
Er is gewoonweg niks anders, zelfs deze die je gaf is er maar 1 die effectif is zoals je bedoelde: de heel slecht gemaakte port van the last of us . Er zitten daar minstens 10 games die de laatste 6-7 maand uitgekomen zijn en buiten 1 zijn die allemaal perfect speelbaar op een 8gb kaart.

Jij mag dat dan "oude games" noemen maar dan maak je jezelf enkel belachelijk.
En de 4060Ti kan veel recente titels niet eens in 1080p met 60fps renderen met raytracing aan simpelweg omdat deze beperkt wordt door 8GB VRAM
De 12gb concurent kan dat ook niet dat is omdat dit een 4060 is en gewoonweg niet genoeg kracht heeft. Soit genoeg grafieken van huidige games die aantonen dat 8gb 1080p perfect speelbaar is en in de meeste gevallen 1440p ook, en nogmaals dat houd geen rekening met dlss3 en FG. Met dat aan kan je zelfs met ee 4060 ti cyberpunk op 4k spelen met 60+fps . een 6750 houd dan nog 25fps over.

Dat je blijft doen alsof je de toekomst kan voorspellen en hoe die kaarten gaan presteren in nog uit te komen games en dat de 8gb nu plots nutteloos zijn geworden is idd hilarisch. Toont nog maar eens aan hoe eenvoudig sommige zich laten beinvloeden, 1 youtube fillmpje en ze negeren alle feiten die dat tegenspreken
Mooi en lang verhaal weer. Maar je gaat er gewoon helemaal aan voorbij dat het erom gaat dat 8GB VRAM simpelweg niet genoeg is voor flink wat recente en toekomstige games. Dat is objectief aangetoond. Dat is geen mening. Dat is een feit. Zo simpel is dat. Dat er ook recente games zijn die nog wel passen binnen 8GB doet daar niets aan af, maar dat lijk jij niet te begrijpen.

Je kunt er lang over praten als je dat wilt, maar dat veranderd niets aan de situatie. Jij wilt de foute stelling blijven verdedigen dat 8GB voldoende is. Prima. Doe jij dat lekker.
Maar je gaat er gewoon helemaal aan voorbij dat het erom gaat dat 8GB VRAM simpelweg niet genoeg is voor flink wat recente en toekomstige games. Dat is objectief aangetoond.
En dat verzin je gewoon, je kan een handvol games vinden waar het effect heeft en bijna geen waar het ze effectief onspeelbaar" maarkt en die ene is een slechte port. En dat is het, meer heb je niet om te zeggen dat 8GB te weinig is.

Buiten een gamer die louter dat ene spel speelt is dat dus onzin, en ja ook voor de nieuwste games die uit zijn.
En dat verzin je gewoon, je kan een handvol games vinden waar het effect heeft en bijna geen waar het ze effectief onspeelbaar" maarkt en die ene is een slechte port. En dat is het, meer heb je niet om te zeggen dat 8GB te weinig is.

Buiten een gamer die louter dat ene spel speelt is dat dus onzin, en ja ook voor de nieuwste games die uit zijn.
Is objectief aangetoond in meerdere games. Dus niet 1 slechte port. Jij negeert bewijs. Prima, moet je zelf weten.

Je toont gewoon keer op keer aan dat Steve van HWU gelijk had. De drang om 8GB te verdedigen is klaarblijkelijk enorm sterk. Het lijkt haast wel of je een religie volgt of zo. De cult van de 8GB VRAM is genoeg.
Ik gaf je 3 sites die aantonen dat jij en steve onzin uitkramen, dat je dat niet wil geloven is omdat jij blijkbaar wanhopig wil meegaan op de hype van te bashen op bedrijven.

https://www.youtube.com/watch?v=KnB8dJQtI7w
https://www.techpowerup.c...-rtx-4060-ti-xlr8/42.html
https://www.tomshardware....orce-rtx-4060-ti-review/5

tonen allemaal aan dat je verkeerd zit.
Ik gaf je 3 sites die aantonen dat jij en steve onzin uitkramen, dat je dat niet wil geloven is omdat jij blijkbaar wanhopig wil meegaan op de hype van te bashen op bedrijven.

https://www.youtube.com/watch?v=KnB8dJQtI7w
https://www.techpowerup.c...-rtx-4060-ti-xlr8/42.html
https://www.tomshardware....orce-rtx-4060-ti-review/5

tonen allemaal aan dat je verkeerd zit.
  • Link 1, toont aan dat 8GB VRAM in recente titels een abnormale daling in fps laat zien met hoge instellingen terwijl de GPU tot meer in staat is.
  • Link 2, kijk nou toch naar al die oude spellen die ze getest hebben. We hebben het over een probleem met een aantal recenten en toekomstige spellen. Niet de tienduizenden spellen die er al zijn en die prima op oudere hardware van de vorige generatie draaien.
  • Link 3, kijk nou toch naar al die oude spellen die ze getest hebben. Oh, en hun conclusie: "8GB and 128-bit bus limit the long-term utility".
Wilde je het misschien nog eens proberen?
Hoef ik niet
8GB VRAM is niet langer genoeg./niet meer voldoende VRAM is voor recente games op 1080p.
Alledrie die links tonen aan dat dit onzin in tenzij je natuurlijk "recente" beperkt tot 1 game omdat voor de rest alle games wel speelbaar blijven. Die links bevatten 25+ games tot diegene die een maand geleden uitkwamen en wat zie je : hogwarts legacy, plague tale ea van 2023 halen tot 100+fps op 1080p, "onspeelbaar" volgens jou, grappig blijf je wel.
"onspeelbaar" volgens jou, grappig blijf je wel.
Als je argumenten zijn weerlegd en je niet je gelijk kunt krijgen begin je maar te liegen. Nergens heb ik het over "onspeelbaar".
niet meer voldoende VRAM is voor recente games op 1080p.

Het enige argument wat je redelijkerwijs kunt maken is dat 8GB voldoende is voor low-budget en indie games. Maar daar ga je natuurlijk geen $400+ voor neerleggen. Of wel?
Nogmaals recente AAA games 100+fps

[Reactie gewijzigd door k995 op 22 juli 2024 21:01]

Nogmaals recente AAA games 100+fps
Een reminder: jij begon te liegen in deze discussie.
LOL tuurlijk sites geven die aantonen dat je fout zit is idd "liegen".
LOL tuurlijk sites geven die aantonen dat je fout zit is idd "liegen".
Dat is jouw tweede leugen in deze discussie. Objectieve metingen zijn geen leugen. Ongeacht wat ze aantonen.

Jouw eerste leugen was dit:
"onspeelbaar" volgens jou, grappig blijf je wel.
8GB voldoende is voor low-budget en indie games.
Onvoldoende dus voor nieuwe AAA games, wat absoluut onzin is zoals aangetoond.

Grappig dat je je nu via semantiek er probeert van onderuit te lullen. Toont nogmaals dat je nu wel beseft compleet fout te zitten.
Heeft niets met semantiek te maken. Jij beweerd dat ik dingen heb gezegd die ik niet heb gezegd. Gebruik de zoekfunctie maar. Jij bent degende die het over onspeelbaar heeft, niet ik.

Jij doet de uitspraak dat websites die aantonen dat ik fout zou zitten liegen. Dat is ook niet waar.

Geen semantische discussie hier. Jij verkondigd onwaarheden. Jij bent daarmee van de inhoud van de discussie afgedwaald. Ik wijs je op jouw onwaarheden.

Kennelijk wil jij geen discussie meer voeren op de inhoud. Dat is jammer. Maar zodra je begon met onwaarheden is de discussie practisch ten einde.
De 3060 is onderhand al wel 2,5 jaar oud, dat vind ik verre van goed, 17% prestatie winst in 2,5 jaar tijd voor ongeveer dezelfde vraagprijs.

Vind het er vrij raar uitzien dat de 60ti serie van de vorige generatie sneller is dan de 60 serie van de nieuwe generatie, dat is volgens mij nog niet eerder voorgekomen.
Tja als je de behoorlijke energie consumptie verlaging negeert is het niet goed. Het doet met aan de 750ti denken die ook niet zoveel meer performance had dan de 650ti. Maar dus wel veel efficienter was en daarmee een van de meest succesvolle GPU's allertijden is geworden.
Ook al is die iets zuiniger, wat we ook wel mogen verwachten van een kaart die 2,5 jaar nieuwer is, 17% prestatiewinst in 2,5 jaar tijd is simpelweg slecht, zeker voor nagenoeg dezelfde vraagprijs, dat noemen we stagnatie.
Maar dat is naast de inflatie ook simpelweg veroorzaakt door de uitdagingen die het steeds kleiner worden van chips met zich meebrengt. Sophie Wilson (meegewerkt aan oa de ontwikkeling van Acorn BBC en de eerste Arm Chip) voorspelde lang geleden al dat kleinere chips ook betekent dat het steeds moeilijker wordt om warmte af te voeren van de chip omdat het koeloppervlakte steeds kleiner wordt. Moore's Law is al een tijdje ter ziele in veel chiptoepassingen. RAM en SSD's lijken nog enigszins wel er aan te voldoen.
Zeker bij GPU's en CPU's is het dus geen kwestie meer van de performance vrij eenvoudig te kunnen verhogen door meer schakelingen op hetzelfde oppervlakte te zetten. (zoals bij de 750ti?) De huidige performance winst komt daar dus van de in verhouding vrij de dure herontwerpen van de chip zelf. De constatering dat Nvidia dus steeds hoger bruto winstmarges draait op hun chips klopt, maar daar bij moet dus de steeds meer stijgende ontwikkelingskosten die daar mee terugverdiend moeten worden ook bij in beschouwing worden genomen.
Dat het teleurstellend is ben ik met je eens! Maar daarom heb ik dus ook al langer gewacht met een upgrade. De 1660 Super voldoet nog aardig na 3,5 jaar en ik geloof dat zonder nieuwe truukjes deze toch wel 30% langzamer is?
daar ben ik het niet mee eens. Een 750ti destijds kon maar net games of FHD draaien. Daar doen de huidige kaarten het toch wel fors beter bij:
https://be.hardware.info/...-benchmarks-battlefield-3
Waar ben je het niet mee eens? De 750ti is toch de best verkopende videokaart ooit? Miljoenen zijn in prebuild systeempjes gestopt iig. Terwijl deze dus nauwelijks meer fps gaf dan de 650ti oc/boost versie. Deze was dus een simpele dieshrink waardoor er flink stroom bezuinigd werd en verder slechts beperkt beter prestaties waren. Jouw benchmark voorbeeld mist de 650ti? Waarom is deze dan relevant?
Dat dus: Dat het een van de meest succesvolle videokaarten aller tijden was. Heb je hier bronnen van? Ik geloof er gewoon niets van. Als je kijkt haalt die kaart toen bij bf3 bijvoorbeeld 45fps op FHD. Dat is een prutkaart als je het mij vraagt. De 770 en 780 was in die tijd véél populairder en haalde 85fps op FHD ultra.

Ik draai al even lang als jou mee hier op tweakers, maar een 750ti build heb ik toentertijd toch niet vaak aangeraden gezien hoor. Een 760 was een leuke instapper en midrange werd de 770 en 780 toch echt wel vaak aangeraden, dat kan je ook alleen al aan de userreviews zien (of het aantal reviews).
Ten eerste : Ik raad mensen absoluut niet aan om nu nog een 750ti te gaan gebruiken. Dus discussies over hoe slecht deze wel niet draaide in een bepaald spelletje lijken me niet (meer) nuttig. Nogmaals : het ging me niet om de kwaliteit maar de populariteit van deze kaart die ik eigenlijk al jaren als een evergreen hit beschouw.
Videokaartproducenten geven helaas geen verkoopcijfers. Maar laten we eens een jaartje of 7 teruggaan in de tijd toen APU's nog niet populair waren in een standaard PCtje in de winkel en er bijna elk budgetgamepctje een 750ti terechtkwam. Vergeet niet dat de prebuild markt een stuk groter is dan de zelfbouw markt of de preconfigure (als door de besteller bepaald) markt. Dat heb iig van geen enkele andere GPU zo lang en zo wijdverspreid gezien.
Maar als je dus de iGPU/GPU on mainboards meetelt zal het denk ik een ander verhaal worden. Ik dacht dat het vrij geaccepteerd feit was dat de 750ti heel lang het minimum was voor een gamer en deze is gemiddeld ongeveer vergelijkbaar met 5700G en dus sneller was dan de GT1030. Was BF3 niet de uitzondering op de regel en een game die vooral goed draaide op AMD GPU's?
Ah en wat gevonden ... hoewel een Steam Hardware Survey niet hetzelde is als verkoop cijfers natuurlijk
Eind 2017 was het even de meest gebruikte videokaart
https://www.youtube.com/watch?v=iVtsDEFdFH4
(En ik moet toegeven dat mijn kennis ook wat verouderd is. Maar populair is deze kaart zeker geweest)

P.S. Als je in het grafiekje kijkt dan is wel meer (bv 960,970,1060) erg succesvol geweest waar een aantal fanatieke tweakers ontzettend negatief over deden.

[Reactie gewijzigd door AtariXLfanboy op 22 juli 2024 21:01]

Ten eerste : Ik raad mensen absoluut niet aan om nu nog een 750ti te gaan gebruiken. Dus discussies over hoe slecht deze wel niet draaide in een bepaald spelletje lijken me niet (meer) nuttig.
Lees je mijn reactie wel uberhaupt? Ik zal jouw antwoord eens omdraaien: discussie voeren over hoe goed deze kaart TOEN was zonder eender welke bron te tonen is nutteloos. Als je verder had gekeken dan je neus lang was en naar mijn bron had gekeken van HWI, had je gezien dat hij in andere games in die tijd nog veel lagere fps haalde op FHD.

Ook je steamlink vind ik erg twijfelachtig, alleen al omdat steamgebruikers geen goede maatstaf zijn voor algemeen videokaartverkopen (meeste gebruikers hebben hele lage instellingen). Daarnaast klimt jouw kaart pas na 3j naar de top (release 750ti is in 2014). In 2017 kon je er dus gewoon geen AAA titels mee spelen, zelfs niet op de laagste instellingen.

Conclusie: Jouw definitie van 'een van de meest succesvolste gpu's aller tijden' is dus duidelijk niet hetzelfde als mijn definitie van 'een van de meest succesvolste gpu's aller tijden'. Voor mij (en ook andere tweakers als ik hier zo de reacties lees) is prijsprestatie zeer belangrijk. De 750ti was een flutkaart, is dat ook altijd geweest. Je zag ze ook nooit in de koopadviezen hier terugkomen, kijk zelf maar als je me niet gelooft. Ik denk dat ik er zo wel klaar mee ben, voor wie ben ik eigenlijk iets aan het bewijzen?
Jij reageerde op mijn reactie met een irrelevant verhaal over BF3 op FHD. Lees nog eens terug wat ik gezegd heb. Dat je je eigen puntje er door wilt drammen is duidelijk. Het was een groot succes voor Nvidia en met de volgende generatie Maxwell kaarten is AMD tot een kleine speler gereduceerd. Dat jij de 750ti een flutkaart vind was me dus al lang duidelijk. En gelukkig ben je er dus klaar mee :)

"Tja als je de behoorlijke energie consumptie verlaging negeert is het niet goed. Het doet met aan de 750ti denken die ook niet zoveel meer performance had dan de 650ti. Maar dus wel veel efficienter was en daarmee een van de meest succesvolle GPU's allertijden is geworden."

Dat ontkracht je dus in weze alleen maar met een rare definitie van 'succesvol' Veel mensen hebben deze kaart gekocht en lang gebruikt. Dat is geen geheim hoor en wordt ook nergens door jou ontkracht. Ik kom tenminste nog met een indicatie hoe populair deze kaart was.

P.S. Mijn computergebruik is veel langer nog dan ik op tweakers zit en godenzijdank is de meeste kennis die ik over computers heb niet gebaseerd op de zwaar biassed reaguurders hier.

[Reactie gewijzigd door AtariXLfanboy op 22 juli 2024 21:01]

Veel mensen hebben deze kaart gekocht en lang gebruikt.
(Extra)ordinary claims require (extra)ordinary evidence. Nog steeds zie ik niets terug buiten een vaag filmpje. :O
Jij bestrijdt het dus kom maar met iets beters dan waaruit zou blijkt dat de 750ti niet ontzettend veel verkocht is dan. De 'flutkaart' maakte nog een comeback tijdens de GPU shortage en is dan ook nieuw nergens meer verkrijgbaar terwijl veel andere GPU's uit die tijd dat nog wel zijn. Blijkbaar is jouw 'waarheid' onaantastbaar? Op basis van AMD frusts op verschillende fora?

P.S. Verschillende online reviewers komen ivm de 750ti met termen als 'smash hit', 'legendary' en 'bestseller'. Maar jij weet het uiteraard beter. Die 10 jaar dat ik aangehoord heb dat deze kaart zo succesvol was in het budgetsegment. Allemaal onzin natuurlijk!

[Reactie gewijzigd door AtariXLfanboy op 22 juli 2024 21:01]

Nog maar een indicatie hoe succesvol de 750 ti die in februari 2014 op de markt kwam voor Nvidia was :
https://www.macrotrends.n...harts/NVDA/nvidia/revenue
Meer dan 4 jaar dat de omzet continu groeit daarna
In NL €329 dus ja.. Geen €273,53 voor ons hoor.
En zo zijn de mensen geconditioneerd naar een new pricepoint. Achterlijk duur is het nieuwe normaal
Zeker een goede "bang-for-buck" kaart. Was toevallig op zoek naar een 3060 maar nu ik dit zie lijkt het de betere optie, vooral gezien de prijs/prestatieverhouding van andere kaarten binnen het segment.
Ik zit precies in hetzelfde schuitje. Ook de 3060 in de gaten aan het houden, maar dan wel de 12GB versie. Voor m'n gevoel is 8GB niet heel toekomstbestendig. Met het VRAM artikel van laatst in het achterhoofd...
Als het puur om gamen gaat zou ik ook voor de 3060 Ti gaan gezien de additionele VRAM.
Maar om in Unity remote via VDI te 3D-modellen en e.e.a. te renderen vind ik de 4060 echt super met dat lage power consumptie, gamen kun je er dan ook op met 8GB VRAM maar indd minder toekomstbestendig

[Reactie gewijzigd door Hama900 op 22 juli 2024 21:01]

Uit dat artikel voor 1080p:
Minstens zo belangrijk voor hoe vloeiend een game aanvoelt, zijn de frametimes. De waarden voor het 99e percentiel laten nog wat beter dan de framerate zien dat 4 en 6GB vram inmiddels te krap zijn om in moderne games hoge kwaliteit textures te gebruiken, met respectievelijk 30 en 11 procent lagere prestaties. Hier laten ook de gpu's met 8GB vram zien dat ze met 7 procent terugval net iets meer last ondervinden dan de modellen met 10GB of meer.
Een 3060 niet nog 6GB snap ik, maar voor € 300 zou ik een 4060 met 8GB niet afschrijven. 7% performance verlies is prima te doen tegenover prijsverschillen. € 330 in verhouding voor een 3060TI met eveneens 8GB VRAM is al 10% duurder.
Al het andere gelijk bij de keuze zeker 10GB VRAM of meer kopen ja inmiddels, zoveel lijkt duidelijk. Maar hoe lager in prijs, hoe meer druk er vaak zit op keuzes in componenten, elke euro bespaard op het een kan ook weer naar het ander. Niet blindstaren dan op VRAM, het is ook slechts één van de factoren. HDD ipv SSD moet je beter ook niet meer doen, te weinig RAM is ook niet goed, te trage CPU is ook een bottleneck, en ga maar door. Het totaalplaatje voor het totaalbedrag moet zo goed als optimaal zijn.
Beste bang for buck is toch nog echt wel de 6700XT kaart van AMD. €350,- voor een kaart waar je fatsoenlijk op 1440p mee kan gamen.
Ligt nogal aan de use case zou ik zeggen, de 6700XT heeft een power consumption van 220W, en de 4060 meer richting de 115W.

In mijn geval gebruik ik het voor GPU Passthrough in een VDI omgeving (kleine homeserver) dus dat lage verbruik komt zeker goed van pas met de 4060.

In het algemeen vind ik de 4060 zeker een goed product als ik de cijfers zo mag geloven, wil niet zeggen dat de 6700XT niet zijn eigen plekje heeft uiteraard.
Zijn de Nvidia kaarten juist niet de betere keuze als het gaat om raytracing? Misschien iets om mee te nemen in de overweging.
Dat zou ik op low-midend kaarten persoonlijk niet laten meewegen. Dan zou ik eerder DLSS pakken.
Of Intel Arc, als je enkel recente games speelt. DF heeft afgelopen week in een video vooral de 3060, RX 7600 en Arc 750 met elkaar vergeleken, en die Arc 750 is een verrassende kaart en slechts 260 euro. XeSS is vergelijkbaar met DLSS en ook de raytracing performance is beter dan AMD.

[Reactie gewijzigd door QErikNL op 22 juli 2024 21:01]

Ik heb er eentje liggen om mee te testen; mijn spel moet op alle 3 de vendors goed draaien uiteindelijk. Hij moet nog worden ingebouwd :+.

Er is iets mee nuance in wat je zegt over XeSS, op Intel kaarten is het qua performance net tussen FSR2 en DLSS in. Op niet Intel kaarten ziet het er slecht en geeft het in verhouding met bijv. FSR2 weinig performance winst. Dit komt omdat ze niet de dedicated hardware (XMX) gebruiken in AMD en volgens mij ook bij Nvidia kaarten maar DP4A gebruiken.
Zie ook de volgende analyse van Hardware Unboxed:
https://www.youtube.com/watch?v=8pFCd76eV0U&t=2s
Ik heb even door de video geklikt, maar maken ze niet hier de fout om XeSS op Nvidia en AMD te draaien in plaats van Arc? Arc heeft speciale XMX cores toegewezen voor de XeSS upsampeling. Wellicht dat dit dus ook de performance tegoed doet.
Ik kan het zelf verder niet vergelijken, maar volgens Digital Foundry is XeSS superieur wat scherpte betreft vs FSR2 die goed zijn werk doet voor een stilstaand beeld, maar zodra er veel beweging is er veel artifacts zijn. Ik was in ieder geval wel verrast door de performance van Arc 750 in moderne titels vergeleken met andere instap kaarten: https://www.youtube.com/w...ab_channel=DigitalFoundry
Je zegt hier precies wat ik zeg :P.

Alleen de fout ligt bij Intel dat ze marketen dat ook Nvidia en AMD het kunnen gebruiken; wat in zijn huidige vorm gewoon niet waar is. Intel had het of een andere naam moeten geven of gewoon FSR2 moeten gebruiken voor hardware met maar DP4A.
Ah shit haha sorry, niet goed gelezen :P.
Ja, ik denk inderdaad dat dit vrij verwarrend is voor de eindgebruiker, al juich ik wel toe dat ze hun upscaling tech ook op andere hardware supporten.
En bij AMD GPU's kan je Steam Proton gebruiken voor gamen op Linux.
Dat klopt AMD drivers zijn veel beter in Linux; dat tik ik van een 3070m met PopOS. Bepaalde features heb ik maar uitgeschakeld... als hij werkt dan is hij best snel.
Mijn werkstation met Arch Linux en een 7900XTX speelt Final Fantasy 15 prima :P.
Raytracing op een 4060 is vooral aan te raden als je liefhebber bent van dia shows... Raytracing kan op 1440 resolutie een 4090 op de knien krijgen b.v. Cyberpunk 2077 gaat op 86 fps gemiddeld tot een minimum van 71 fps - een 4060 zou ik alleen voor de lol eens laten raytracen.
Raytracing staat op high in Control bij mij op 1440p/uw op een 3060ti, dlss staat ook aan, ziet er mooi en vloeiend uit. Fps schommelt tussen de 70 en 95 fps maar het belangrijkste, je voelt het niet dat het schommelt.
Hangt ervan af wat je speelt: ik heb het over de Cyberpunk numbers van Tweakers:
review: Videokaart Best Buy Guide - De beste gpu's in februari 2023
Daar is gemeten zonder dlss.
Een tweede voetnoot kwa mogelijke usecase; wat je ook ziet is dat bij de klasse 200W+ kaarten, zoals de 6700XT (en 3060ti), veel gebruikers dan een betere PSU nodig hebben als ze overstappen. Dat is in je budget nog eens 100,- euro extra. Reken ook nog eens 50-100,- euro extra per jaar voor stroom.
???? tegenwoordig kan je amper een PSU vinden onder de 500W dat is nog geen tientje verschil. Mijn beide systemen draaien hier met een 6800XT op 650W voedingen! Dus je prijs indicatie is er ver over en totaal niet op basis van realiteit.

50-100eur stroom extra ? dat is 5-10h 365dagen 100W meer verstoken.... succes met je gaming fobie

[Reactie gewijzigd door d3x op 22 juli 2024 21:01]

Ik baal en heb een gaming fobie. Je mag het natuurlijk niet met me eens zijn maar let een beetje op je retoriek. Je zit niet op dumpert.
nou dan kom je al toe met een APU (5600g-5700g), hoef je niet eens een gpu voor te hebben.
Niet mee eens, kijk hier eens naar. Er zijn nog meer dan genoeg kaarten die het beter doen, maar ook die het slechter doen. Het is een prima kaart, maar beste bang for buck is ook weer niet waar.
https://www.techpowerup.c...-4060-ti-ex-white/32.html
Mee eens, het is wel verreweg de kaart met het meeste geheugen voor de prijsklasse rond de €350,- (Intel ARC niet megerekend, maar die drivers zijn nog niet echt uitontwikkeld). Opvallend dat de 5700XT bovenaan die grafiek staat, een kaart van eind 2019.
Omdat oudere kaarten vaak fors in prijs zakken :). Ik heb een 5700xt en ja, dat is gewoon een prima kaart om nog steeds op FHD te gamen met huidige titels.

Nu is die grafiek niet helemaal 1 op 1 vergelijkbaar omdat vele kaarten hier alsnog duurder zijn dan in de VS, maar het geeft wel een vrij goede indicatie. Ik kijk er zeer vaak om te kijken hoeveel geld je moet betalen voor hoeveel frames. Want daar doen de meeste gamers het wel voor denk ik. Je wil niet de goedkoopste kaart want dan moet je voortdurend upgraden, maar ook niet te dure kaart want die verliest zijn waarde dan weer te snel. Ik vind het jammer dat tweakers zo geen prijs per frame/prestaties afzet. De prestatiescore zegt iets, maar een prijs/performancegrafiek vind ik veel interessanter.

Ik heb ook nog de moeilijkheid van ITX, waardoor niet alle videokaarten passen (max 2-slots). Als ik nu zou kopen, zou het toch een 4060ti worden, dan kan ik weer even verder. Hopelijk zal de prijs nog wat zakken bij de release van AMD andere videokaarten dit jaar. :)

[Reactie gewijzigd door Flipking94 op 22 juli 2024 21:01]

Je levert wel 4 gb vram in met die keuze. Zeker iets om mee te nemen in je overweging.
Zeker waar, echter maakt het voor mijn use case niet heel erg veel uit.
Maar inderdaad iets om op te letten!
Ben ik te pietluttig als ik vind dat de 4060 ook tenminste boven de 3060TI had moeten zitten?
De 3060 Ti is al ruim 2 jaar oud, dan zou je echt wel mogen verwachten dat de 4060 die er maar een 'halve tier' onder zit hem tenminste evenaart. Gezien de efficiëntie van de 4060 is het duidelijk dat de chip echt een stuk geavanceerder is, maar dus expres maar minimale verbeteringen levert
Vraag is wel of het een 'oude' 3060 Ti is, of die nieuwere (ongeveer 7 maand oude) met GDDR6X?
Dat zie ik zo snel ff niet in der artikelen.
Gezien het opgenomen vermogen acht ik die kans zeer klein.
Ik dacht stiekem hetzelfde, maar vind het alsnog prima haha :9
Bedenken ze vast de 4060 TI voor.
Volgens mij staat de 4060Ti gewoon in het artikeltje hoor :)
Ik zit te slapen zo te zien :+
Nee, daar heb je helemaal gelijk in. De 4080 is toch ook in games krachtiger dan een 3090, dus het was normaal geweest als de 4060 een 3070 inhaalde.
Lagere prijs voor meer performance. Dat is better dan ik had verwacht.

Zeker met meer dan 20% inflatie sinds de introductie van de 3060 in het achterhoofd 🤔

(Maar goed, mijn verwachtingen waren wel erg laag, mede door alle commotie)

[Reactie gewijzigd door DLSS op 22 juli 2024 21:01]

De eerste verhalen die al lang rong gingen over de 4060 gingen over de mobiele variant van de 4060. Maar dit zijn natuurlijk ook nog maar geruchten!
Ik kan nog heel veel games goed draaien met de 3060 Ti, dat de 4060 in de buurt komt voor $299 maakt gamen weer een stuk leuker voor velen dan toen de 3060 Ti nog 750 euro kostte in 2021.
70 euro extra, of toch gewoon voor de 6650 XT gaan?
Hangt straks van de benchmarks af. Ik zou persoonlijk de 7600 niet afschrijven, en afhankelijk van je keuze in games ook Arc 750 overwegen. Hier een mooie vergelijking: https://www.youtube.com/w...ab_channel=DigitalFoundry
ipv al die brakke youtubes, neem er een degelijke review site bij waar je meteen kan scrollen naar de feiten...

https://www.techradar.com...s-card-with-major-caveats

wat is dat met die youtube linken tegenwoordig, moet je 10-20min naar wat bla zitten luisteren en kijken en zitten zoeken in fragmenten om content te vinden.. een review effe scrollen naar relevante data en klaar.

[Reactie gewijzigd door d3x op 22 juli 2024 21:01]

Blijkbaar niet bekend met Digital Foundry (onderdeel van Eurogamer) ?
Het zou een acceptabele variant voor mijn 1660 Super (nog gekocht in de goeie tijd) , maar de 8 Gb zit me nog niet lekker als ik naar de geheugen stats van benches op youtube van sw 1660ti kijk als RT en DLSS3 wel zijn ingeschakeld.Maar wie weet valt dat mee omdat je toch zelfs in 1080p wel van ultra naar high gaat in nieuwe spellen?
En bij de vergelijkende ingame scenario's tussen bv de 4060ti en RX7600 zie ik wel erg grote verschillen in performance tussen games.
en hoeveel keer ga je dat in elk tweakers reactie blijven herhalen? moeten iedereen het 5 keer overal gelezen hebben dat je kijkt naar het verbruik, dat je all in voor de NV marketing van DLSS en RT gaat etc? ... en dat zelfde plaatje van die 8GB...

Admin-edit:*knip* op de man reactie verwijderd

[Reactie gewijzigd door AlphaRomeo op 22 juli 2024 21:01]

Jemig je neemt dit wel persoonlijk zeg. En ja ik blijf dit herhalen omdat ik het relevant vind en er graag meer feitelijke informatie over wil. En ga ergens anders loeien zeg ... Je moedigt me zo alleen maar aan om dit nog vaker te doen :D Je eigen bitter negatieve 6 reacties op deze Tweakerspost (terwijl ik dit tiep) waar in je eigenlijk je eigen stront alleen maar herhaald terwijl die veelvuldig al debunked is neem ik maar niet al te serieus :D

Ben je nou zo sneu omdat de 4060 op basis van deze Tweakerspost mogelijk wel een RX7600 killer is of zit je meer in de "ik moet nog wat ouwe miningkaartjes slijten" ?

[Reactie gewijzigd door AtariXLfanboy op 22 juli 2024 21:01]

ga dan wat vraagjes stellen in het aankoop forum, daar is menig tweaker willend om info te geven.

mining kaartjes? voor zover ben jij diegene die met een budget probleem zit, op een ei zit met de 1660ti en amper een budget kaart kan kopen of (wil spenderen) want ja dat zeggen ze allemaal... hier wat tijd zitten spenderen met wat copy paste dat is geen ding natuurlijk...

wat maakt het nou uit wat een 4060-7600-4060ti doet, dat is een bepaling voor ieder zichzelf... je eigen verhaal wederom copy/paste in elke nieuwe thread...dan ben je pas zielig. Ik draai op meerdere 6800XT MB builds sinds Mei 2021 dus al deze releases zijn gewoon brak en niet relevant. :) en de nieuwe high end met opgefokte prijs zijn ook geen toegevoegde waarde.

1 en 2 heb ik al aangegeven... marketing, je gaat er vlot in mee. je koopt iets en je smijt er wat tools op omdat je eigenljik gewoon geen budget hebt. 3 is dan een eigen probleem omdat je 1 en 2 hebt. ik heb geen enkel van bovenstaande. 1 ik downclock en betere perf/power ratio dan al de andere 2 shit niet nodig, RT is een gimmick en draai alles native performant 3 heb native 16GB al nu meer dan 2j en kom nog enkele jaren toe kwa ram en performance... dus wie heeft er dan een deftige aankoop gedaan lange termijn?

[Reactie gewijzigd door d3x op 22 juli 2024 21:01]

Aangezien de 4060 nog niet uit is kan dat nog niet. Dat is een punt dat ik al verscheidende keren heb gemaakt. Ik wil zien wat de 4060 werkelijk kan voor dat ik een beslissing neem.
Waarom denk jij het recht te hebben om als een soort moderator te bepalen wie hier wat mag posten? En daar val je ook nog compleet door de mand door zelf te overreageren en keer op keer je eigen biassed nonsens te verkondigen. Op het onderwerp 'Videokaarten' valt me het op dat je dat juist nog vaker doet dan ik
En of je het er nou mee eens bent of niet of, maar in mijn ogen en van velen meer :
1. Energieverbruik en dus warmteproductie doet er toe.
2. DLSS3 en RT is niet alleen maar marketing bullshit.
3. Vanwege extra geheugengebruik door DLSS3 is geheugen mogelijk wel een issue in de toekomst.

Hoewel ik wel degelijk ook de reacties hierover hier dus meeneem in mijn beslissing. Ik vind dit geen 'aankoopbeslissing' maar meer een algemeen topic dat wel, maar mogelijk ook niet in mijn aankoop mee kan gaan spelen. De irritatie bij mij hier is dat hier door een stel figuren een soort 'waarheid' op wordt gedrongen die enkel door een stel frusten op youtube als een soort conspiracy wordt rondverspreid.
Niet iedereen kan het bv schelen wat de winstmarge van een bedrijf is of dat drivers niet open source waren voor Linux. De meeste mensen kijken als ik op de verkoopcijfers afga toch vooral welke kaart het beste voor hun is. Marketing heeft ook niet echt zin als het niet aansluit bij de wensen van de klant.

Kortom kijk eens goed in de spiegel voordat je anderen meent te kunnen censureren met je eigen bekrompen waarheid.

P.S. Kleine aanvulling : Ik ga niet mee doen aan de sillicon lottery die het undervolten van videokaarten is. Het kan net als overclocken grote gevolgen voor die stabilliteit van je systeem hebben. De fabrikant garandeerd nergens dat het dan stabiel loopt en het kan wel je hele OS installatie vernachelen (Ja ook Linux) Ik besef dat dit mijn persoonlijke voorkeur op basis van langdurig computergebruik is. Zeker toen ik nog armlastig was had ik die keuze ook eerder voor OC of UC gemaakt.

[Reactie gewijzigd door AtariXLfanboy op 22 juli 2024 21:01]

Misschien toch maar team rood overwegen? :)

Op dit item kan niet meer gereageerd worden.