Nvidia brengt met de RTX 4060 een nieuwe generatie videokaart uit voor het nog altijd erg populaire 1080p-gamingsegment. Eind vorig jaar begon de fabrikant zijn uitrol van de RTX 40-serie met de snelste modellen, waarna stapsgewijs de lagere segmenten werden bijgewerkt. Nu komen we dus aan bij de RTX 4060, een videokaart die vol op 1080p-gaming is gericht en vanaf 329 euro verkrijgbaar moet zijn.
De kleine AD107-gpu voor het grote mainstreamsegment
Wie bekend is met de codes op Nvidia's chips, weet dat een lager laatste cijfer een grotere en luxere chip betekent, en een hoger getal juist een kleinere gpu. De AD107 is de kleinste gpu op basis van de Ada Lovelace-architectuur en wordt gebruikt voor de laptopversies van de RTX 4050 en 4060. Voor de desktopversie van de RTX 4060 haalt Nvidia nu dus ook de AD107 van stal, terwijl de fabrikant al generaties lang een 106-chip voor zijn x60-klassevideokaarten gebruikt. Tegenover de GTX 1060, RTX 2060 en RTX 3060 is er met de RTX 4060 dus sprake van krimpflatie.
Welke chip er onder het koelblok van je videokaart zit, zal de meeste gamers een stuk minder boeien dan de prijs-prestatieverhouding van de kaart. De grootste groep pc-gamers speelt volgens cijfers van de Steam Hardware Survey nog altijd op 1080p en als we afgaan op de populariteit van voorgaande GeForce-kaarten uit de x60-reeks, speelt de aanschafprijs een erg belangrijke rol voor deze meerderheid.
Toch is het de moeite waard om de specificaties van de RTX 4060 af te zetten tegen die van zijn voorgangers, die voorzien werden van een 106-gpu. Zelfs de RTX 3050 werd met een GA106-gpu uitgebracht, zij het met een derde van de rekenkernen uitgeschakeld. De AD107-chip is kleiner dan de AD106-gpu van de RTX 4060 Ti, en daardoor goedkoper om te produceren.
Dat we deze generatie maar in beperkte vorm videokaarten met deels uitgeschakelde, grotere chips zien, is een teken dat het wat yields betreft bij producent TSMC wel goed zit. Dat betekent dat fabrikanten als Nvidia keuzes moeten maken die afwijken van hoe ze bij de vorige generaties hun portfolio inrichtten. Zo kreeg de RTX 4080 al zijn 'eigen' AD103-gpu in plaats van een AD102-chip die niet goed genoeg was voor een RTX 4090. Waarschijnlijk omdat er simpelweg te weinig afgekeurde chips van de band rollen. En nu gebruikt Nvidia dus voor het eerst een 107-chip voor een x60-klassevideokaart, terwijl deze codenaam in het verleden aan lager gepositioneerde instapkaarten voorbehouden was.
De desktopversie van de RTX 4060 krijgt wel de volledig ingeschakelde AD107 mee en telt daarmee 3072 actieve rekenkernen. Dat is minder dan op de RTX 3060, maar meer dan op de RTX 2060, al is Nvidia sinds de RTX 30-serie zijn CUDA-cores op een andere manier gaan tellen. Ook het aantal Tensor-cores, rt-cores, texture-units en render-outputprocessors is lager dan bij zijn voorgangers. De nieuwere en efficiëntere architectuur moet dit verschil ruim gaan compenseren en de flink toegenomen hoeveelheid cachegeheugen moet de klappen van de stap naar de smallere 128bit-geheugenbus opvangen. Onder de streep moet de RTX 4060 dus efficiënter werken, wat geheel aansluit bij een van de belangrijkste eigenschappen van een laptop-gpu.
Zoals gezegd gaat het er natuurlijk vooral om of de RTX 4060 zijn verwachtingen waar kan maken. Deze nieuwe GeForce-kaart valt precies in het prijssegment waar de meeste kopers zijn te vinden en Nvidia wijst er dan ook graag op hoe populair voorgaande x60-reeksvideokaarten in de Steam Hardware Survey zijn. Tegenover zijn voorgangers is de RTX 4060 bovendien voorzien van een iets gunstigere adviesprijs. Daarnaast biedt de RTX 4060 ondersteuning voor features als DLSS 3 en AV1-encoding dankzij de Ada Lovelace-architectuur. Hoe het met de prestaties zit, lees je in deze review.
De GeForce RTX 4060 is vanaf vandaag beschikbaar met modellen die de adviesprijs volgen, morgenmiddag volgen de custom modellen van de boardpartners. Van de RTX 4060 brengt Nvidia geen Founders Edition uit. Voor deze review hebben wij onze tests gedraaid met de Gigabyte GeForce RTX 4060 Windforce OC.
Videokaart
RTX 4060 Ti
RTX 4060
RTX 3060
RTX 2060
Gpu
AD106
AD107
GA106
TU106
Architectuur
Ada Lovelace
Ada Lovelace
Ampere
Turing
Procedé
TSMC '4N' 5nm
TSMC '4N' 5nm
Samsung 8nm
TSMC 12nm
Diesize
190mm²
158,7mm²
276mm²
445mm²
Transistors
22,9 miljard
18,9 miljard
13,25 miljard
10,8 miljard
CUDA-cores
4352
3072
3584
1920
Tensor-cores
136
96
112
240
RT-cores
34
24
28
30
Texture-units
136
96
112
120
Rops
48
32
48
48
Baseclock
2310MHz
1830MHz
1320MHz
1365MHz
Boostclock
2535MHz
2460MHz
1777MHz
1680MHz
L2-cache
32MB
24MB
3MB
3MB
Vram
8GB GDDR6
8GB GDDR6
12GB GDDR6
6GB GDDR6
Geheugensnelheid
18Gbit/s
17Gbit/s
15Gbit/s
14Gbit/s
Geheugenbus
128bit
128bit
192bit
192bit
Bandbreedte
288GB/s
272GB/s
360GB/s
336GB/s
Tgp
160W
115W
170W
160W
Adviesprijs (bij introductie)
449 euro (8GB-versie)
329 euro
349 euro
369 euro
Uitgebracht
23 mei 2023
28 juni 2023
25 februari 2021
7 januari 2019
Nvidia AD107 diagram
Testverantwoording
Ons uitgangspunt bij gpu-tests is altijd dat we de rest van het systeem een zo klein mogelijke bottleneck willen laten vormen. Daarom hebben we ons testsysteem in de afgelopen weken van een upgrade voorzien, na lange tijd gebruik te hebben gemaakt van een overgeklokte AMD Ryzen 9 5950X. Ons nieuwe gpu-testsysteem bestaat uit een watergekoelde Intel Core i9-13900K-processor, overgeklokt naar 5,5GHz-allcore. Omdat de e-cores van deze processor in een aantal van onze tests tot prestatieverlies leiden, hebben we de e-cores op ons platform geheel uitgeschakeld. Daarmee blijven dus enkel alle acht performancecores met zestien threads actief. Als werkgeheugen gebruiken we 32GB aan snel DDR5-7200 met relatief strakke timings, zodat de cpu en het ram zo min mogelijk de beperkende factor vormen voor het meten van gpu-prestaties.
De exacte specificaties van het testsysteem zijn in de tabel hieronder te vinden.
Voor onze gpu-tests gebruiken we altijd referentiekaarten of Founders Editions, tenzij de desbetreffende gpu niet als een dergelijk model is uitgebracht of wij er geen beschikbaar hebben. In dat geval gebruiken we een custommodel dat wat kloksnelheden betreft zo dicht mogelijk bij de referentiespecificatie zit.
Drivers en meetmethode
We hebben alle videokaarten voor deze review getest met de nieuwste driver die beschikbaar was toen we begonnen. Voor alle Nvidia GeForce-kaarten was dat GeForce 531.79, behalve de RTX 4060 Ti, die met 531.93 is getest, en de RTX 4060, die met driver 536.20 is getest. Voor de AMD Radeon-kaarten hebben we Adrenalin 23.4.3 gebruikt. De Intel-videokaarten in deze review zijn met driver 31.0.101.4335 getest.
Met behulp van PresentMon meten we in elke geteste game de prestaties, waaruit we zowel de gemiddelde framerates, of fps, als de frametimes van het 99e en 99,9e percentiel berekenen en die laatste twee in milliseconden rapporteren.
In de grafieken op de volgende pagina's vind je telkens grafieken met samengestelde balkjes, bestaande uit het 99e percentiel, omgerekend naar frames per seconde, genoteerd als minimumframerate, gevolgd door de gemiddelde framerate per seconde. Op die tweede score, het gemiddelde aantal beelden per seconde dat een videokaart kan berekenen, wordt primair gesorteerd. De frametimes geven geen beeld van de gemiddelde framerate, maar van de uitschieters in negatieve zin. Die kunnen immers tot gevolg hebben dat een game ondanks een goed gemiddelde niet vloeiend aanvoelt.
De tijd die het kost om beelden binnen een 3d-game en dus binnen onze benchmark te renderen, varieert van frame tot frame. Bij onze frametimemeting worden de rendertijden van alle individuele frames opgeslagen. Daarna gooien we de 1 procent langzaamste frames weg. De hoogste rendertijd van de resterende 99 procent van de frames, oftewel het langzaamste frame, is het 99e percentiel frametime.
Op verzoek van enkele lezers hebben we ook de 99,9e-percentielwaarden toegevoegd. Hiervoor laten we dus slechts de 0,1 procent langzaamste frames buiten beschouwing. In theorie is dit nog preciezer, maar in de praktijk gooien incidentele oorzaken en meetfouten soms roet in het eten. Voor nu hebben we ze vermeld in de review, maar houd dat dus in het achterhoofd bij het bekijken van deze resultaten.
Gameselectie
Regelmatig houden we de reeks games tegen het licht en bij deze keuze houden we rekening met de api, de engine, het genre, de AMD/Nvidia-verhouding, de leeftijd en de technische benchmarkdetails van elke game, om op een zo representatief mogelijke suite uit te komen.
Voor deze review hebben we Forza Horizon 5 helaas moeten weglaten. Dit spel start sinds een recente patch niet meer goed op en valt vanuit het ingame menu momenteel niet meer goed te bedienen. Zodra dit met een toekomstige update weer is verholpen, zullen we het spel weer onderdeel maken van onze testsuite.
Game
Verschijningsdatum
Api
Engine
Assassin's Creed: Valhalla
November 2020
DX12
Anvil Next 2.0
Call of Duty: Modern Warfare II
Oktober 2022
DX12
IW 9.0
Cyberpunk 2077
December 2020
DX12
REDengine 4
Doom Eternal
Maart 2020
Vulkan
Id Tech 7
F1 2022
Juli 2022
DX12
EGO Engine 4.0
Forza Horizon 5
November 2021
DX12
ForzaTech
The Callisto Protocol
December 2022
DX12
Unreal Engine 4
Metro Exodus (+Enhanced)
Februari 2019
DX12
4A Engine
Assetto Corsa Competizione
September 2018
DX12
Unreal Engine 4
Total War: Warhammer III
Februari 2022
DX11
TW Engine 3
Stroommeting
Naast de prestaties meten we het stroomverbruik van videokaarten. De stroommeting voeren we uit met een riserkaart van fabrikant Adex, die we tussen het PCIe-slot en de videokaart in plaatsen. Op die manier kunnen we niet alleen de stroom meten die door de losse stroomkabels loopt, maar ook het vermogen dat de videokaart rechtstreeks uit het PCIe-slot betrekt. Voor de meting gebruiken we verschillende exemplaren van de Tinkerforge Voltage/Current Bricklet 2.0. Voor de slotmeting is de riserkaart met zo’n bricklet uitgerust. Om de stroom van de PEG-kabel te meten, is de bricklet samen met de benodigde connectors op een speciaal voor onze test ontworpen printplaat geplaatst. Afhankelijk van het aantal stroomkabels dat een videokaart vereist, gebruiken we uiteraard diverse meters.
3DMark en Unigine Superposition
3DMark heeft een hele suite benchmarks, waarvan we Time Spy en Time Spy Extreme, Port Royal en Speedway draaien. Deze benchmarks berekenen een totaalscore op basis van de gpu- en cpu-prestaties, waarbij de grafische score het zwaarst meeweegt. De Graphics-scores staan zoveel mogelijk los van de prestaties van de andere componenten en deze scores kun je dus ook het best gebruiken als indicatie voor gpu-prestaties onafhankelijk van de rest van het systeem.
In de Time Spy-benchmarks is de RTX 4060 vrijwel even snel als de Radeon RX 7600. In Port Royal en Speed Way ligt de nadruk veel meer op raytracing en dan is de RTX 4060 nog wel wat sneller.
Superposition is een benchmark van Unigine en is in zowel OpenGL als DirectX 11 te draaien. Voor onze tests maken we gebruik van DX11 en twee van de aanwezige grafische presets.
Assassin's Creed: Valhalla is een thirdpersonadventuregame en draait op DirectX 12 in de Anvil Next 2.0-engine. Valhalla is een game die verhoudingsgewijs goed draait op AMD-hardware.
In Valhalla is de RTX 4060 Ti bijna even snel als de RTX 3060 Ti en loopt de kaart een paar procent voor op de RX 7600. De RTX 4060 is 27 procent sneller dan de RTX 3060 en 57 procent sneller dan de RTX 2060. Op 1440p zijn die verschillen grofweg hetzelfde.
1080p
1080p Ultra
1080p Ultra (99p)
1080p Ultra (99.9p)
1080p Medium
1080p Medium (99p)
1080p Medium (99.9p)
Assassin's Creed Valhalla - 1920x1080 - Ultra
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
Call of Duty: Modern Warfare II is een firstpersonshooter uit 2022 van de bekende Call of Duty-reeks. Modern Warfare II maakt gebruik van de IW 9.0-engine, waar Infinity Ward aanzienlijke upgrades aan heeft toegevoegd, waaronder volumetric lighting, spectral rendering en verbeterde raytracing. Hoewel de engine dus ondersteuning heeft voor raytracing, is deze grafische feature in Modern Warfare II vooralsnog niet beschikbaar. Op AMD-hardware draait het spel bovengemiddeld goed.
In Modern Warfare komt op 1080p de RTX 4060 opnieuw op vrijwel hetzelfde niveau als de RTX 3060 Ti en RX 7600 uit. Bij 1440p lukt dat niet helemaal, dan is er een paar procent achterstand ten opzichte van deze twee videokaarten. De RTX 4060 is 17 procent sneller dan de RTX 3060 en loopt bijna 50 procent voor op de RTX 2060, met iets kleinere verschillen op 1440p.
1080p
1080p Extreme
1080p Extreme (99p)
1080p Extreme (99.9p)
1080p Balanced
1080p Balanced (99p)
1080p Balanced (99.9p)
CoD: MWII - 1920x1080 - Extreme
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
Cyberpunk 2077 is een actie-rpg die in december 2020 is uitgebracht door CD Projekt. Het spel maakt gebruik van de REDengine 4 en draait op DirectX 12. De game is extreem veeleisend; enkel de snelste hardware produceert speelbare framerates op 4k-ultra.
In Cyberpunk is de RTX 4060 op 1080p wat langzamer dan de RTX 3060 Ti en RX 7600. Met raytracing ingeschakeld wordt de Radeon-kaart wel ruimschoots verslagen, maar lekker speelbare framerates levert het nog niet op. Op 1440p kan de RTX 4060 vervolgens niet goed de A770, RX 7600 en RTX 3060 Ti bijbenen, en zit hij dichter tegen het niveau van de RTX 2070 aan. Met medium-instellingen gaat het de nieuwe GeForce relatief wel iets beter af.
De RTX 4060 is hier 13 procent sneller dan de RTX 3060 en 34 procent sneller dan de RTX 2060. Met raytracing is vooral het verschil ten opzichte van de RTX 2060 groot, op 1440p is het tegenover de RTX 3060 juist klein.
1080p
1080p Ultra
1080p Ultra (99p)
1080p Ultra (99.9p)
1080p Medium
1080p Medium (99p)
1080p Medium (99.9p)
Cyberpunk 2077 - 1920x1080 - Ultra
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
Doom Eternal, onderdeel van de zeer bekende serie firstpersonshooters, draait in de Vulkan-api op de relatief nieuwe id Tech 7-engine en is in maart 2020 uitgekomen. De benchmark bestaat uit een zestig seconden durende vaste route door de Hell on Earth-map van het spel.
In Doom Eternal is de RTX 4060 een paar procent langzamer dan de RTX 3060 Ti. De nieuwe GeForce is wel 18 procent sneller dan de RTX 3060 en loopt ruim 60 procent voor op de RTX 2060. Ook is de RTX 4060 in prestaties bij rasterization erg vergelijkbaar met de RTX 2080, maar in raytracing is er iets meer voorsprong.
1080p
1080p Ultra
1080p Ultra (99p)
1080p Ultra (99.9p)
1080p Medium
1080p Medium (99p)
1080p Medium (99.9p)
Doom Eternal - 1920x1080 - Ultra
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
F1 2022 is als een van de bekendste racegames onderdeel van ons testprotocol. De serie draait al de nodige jaren op de EGO-engine, waarvan we inmiddels de vierde iteratie gebruiken. We maken gebruik van de DirectX 12-api en de ingebouwde benchmark van het spel, waarbij we raytracing zowel in- als uitgeschakeld testen.
In F1 2022 is de RTX 4060 enkele procenten sneller dan de RTX 3060, maar de RX 7600 en RTX 3060 Ti moet hij duidelijk voor zich laten gaan. Ten opzichte van de RTX 2060 is de vooruitgang met 25 tot 30 procent ook iets kleiner dan we in de games tot nu toe hebben gezien. Met raytracing ingeschakeld is de voorsprong van de nieuwe GeForce op zijn voorgangers wel iets groter.
1080p
1080p Ultra
1080p Ultra (99p)
1080p Ultra (99.9p)
1080p Medium
1080p Medium (99p)
1080p Medium (99.9p)
F1 22 - 1920x1080 - Ultra
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
Metro Exodus is een firstpersonshooter die draait op de 4A Engine. Voor onze tests in deze game maken we gebruik van de DirectX 12-api en de vrij zware, ingebouwde benchmark. We testen Metro Exodus zonder raytracing en de Exodus Enhanced-uitvoering met raytracing.
In Metro Exodus zit de RTX 4060 zonder raytracing de RX 7600 op de hielen en gaat hij er net voorbij als we het inschakelen. De RTX 4060 is hier zo'n 17 procent sneller dan de RTX 3060 en in het verlengde daarvan 35 procent sneller dan de RTX 2060.
1080p
1080p Ultra
1080p Ultra (99p)
1080p Ultra (99.9p)
1080p Medium
1080p Medium (99p)
1080p Medium (99.9p)
Metro Exodus - 1920x1080 - Ultra
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
Assetto Corsa Competizione is een simracer uit 2018 die in de Unreal Engine 4 draait met gebruik van DX12.
De RTX 4060 is in Assetto Corsa samen met de andere GeForces vrij sterk tegenover de Radeon-concurrentie. De voorsprong op de RTX 3060 bedraagt ondertussen 12 tot 14 procent en de kaart loopt ruim 40 procent voor op de RTX 2060.
1080p
1080p Epic
1080p Epic (99p)
1080p Epic (99.9p)
1080p Medium
1080p Medium (99p)
1080p Medium (99.9p)
Assetto Corsa Competizione - 1920x1080 - Epic
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
The Callisto Protocol is een survival-horrorgame gemaakt door Striking Distance en draait op de Unreal 4-engine. Het spel draait op zowel DirectX 11 als DirectX 12. Voor onze test maken we gebruik van DX12 zonder raytracing.
In The Callisto Protocol is de RTX 4060 even snel als de RTX 2080 en A770. De kaart is, afhankelijk van de resolutie, rond de 25 procent sneller dan de RTX 3060 en de voorsprong op de RTX 2060 bedraagt hier ongeveer 45 procent. Ook in deze game blijft de RTX 3060 Ti in alle gevallen sneller dan de RTX 4060.
1080p
1080p Ultra
1080p Ultra (99p)
1080p Ultra (99.9p)
1080p Medium
1080p Medium (99p)
1080p Medium (99.9p)
The Callisto Protocol - 1920x1080 - Ultra
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
Total War: Warhammer III is een recente realtimestrategygame die draait op de TW Engine en gebruikmaakt van DirectX 11. Het spel draait doorgaans erg goed op Nvidia-hardware.
In Warhammer komt de RTX 4060 weer rond het niveau van de RX 7600, A770 en RTX 2080 uit. De voorsprong is ten opzichte van zijn voorgangers wat kleiner, vooral tegenover de RTX 3060 is de winst met zo'n 12 tot 14 procent beperkt. Wel is de nieuwe GeForce in Warhammer 40 procent sneller dan de RTX 2060.
1080p
1080p Ultra
1080p Ultra (99p)
1080p Ultra (99.9p)
1080p Medium
1080p Medium (99p)
1080p Medium (99.9p)
Total War: Warhammer III - 1920x1080 - Ultra
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
Om in één oogopslag te zien hoe de verschillende gpu's zich tot elkaar verhouden, berekenen we gewogen gemiddelden vanuit de gebruikte en hiervoor besproken games op basis van de resultaten. Deze prestatiescores berekenen we met de geteste resoluties en kwaliteitsinstellingen.
Prestatiescores met rasterization
In de prestatiescores is de RTX 4060 op 1080p met ultra-settings 17 procent sneller dan de RTX 3060 en 10 procent langzamer dan de RTX 3060 Ti. De RTX 4060 presteert gemiddeld 4 procent beter dan de RX 7600 van AMD en is vrijwel even snel als een RTX 2080. Wie vanaf een RTX 2060 de upgrade overweegt, kan rekenen op ruim 40 procent betere prestaties. Wie vanaf een RTX 2070 komt, gaat er gemiddeld 22 procent op vooruit.
Dankzij de verbeterde raytracingcores van de Ada Lovelace-architectuur is de RTX 4060 gemiddeld een fractie sneller dan de A770 van Intel en de RTX 2080. Het niveau van de RTX 3060 Ti en RX 6800 evenaren lukt de RTX 4060 dan weer niet, maar de RX 6700 XT is hij wel te snel af.
Het stroomverbruik meten we tijdens belasting in de benchmark van Metro Exodus op 1440p met de ultra-preset. Ook zetten we het stroomverbruik in deze tests af tegen de behaalde framerates, om zo een beeld te krijgen van de prestaties per watt.
Het opgenomen vermogen van de RTX 4060 is in onze test onder volle belasting 125W. De RTX 4060 is daarmee samen met de Radeon RX 6600 de zuinigste videokaart in onze vergelijking, al wordt Nvidia's referentiespecificatie voor de tgp met 10W overschreden. De prestaties per watt komen op de RTX 4060 duidelijk hoog uit, maar de RTX 4060 Ti en RTX 4070 doen dat toch nog net iets beter.
Het idle-verbruik is ondertussen aan de hoge kant voor een instapkaart, al heeft Nvidia aangegeven dit in een toekomstige driverupdate te zullen verbeteren.
Vermogen ingame
Fps per watt
Prestaties
Vermogen idle
Opgenomen vermogen ingame - Metro Exodus - 2560x1440 - Ultra
Nvidia weet met de RTX 4060 uit een kleine gpu relatief veel prestaties te persen zonder het energiegebruik daarbij ver te laten oplopen. De RTX 4060 is volgens moderne standaarden zelfs een erg zuinige videokaart. De prestaties van de RTX 4060 zijn dus vrij goed te noemen, maar alleen zolang je ze afzet tegen het formaat van de chip.
Onder de streep is er namelijk het nodige aan te merken op de RTX 4060. De featureset mag dan compleet zijn, met ondersteuning voor DLSS 3 en AV1-codering, de nieuwe GeForce brengt zeker geen betere prijs-prestatieverhouding dan het bestaande aanbod van videokaarten. Tegenover de eveneens weinig indrukwekkende Radeon RX 7600 liggen de gemiddelde prestaties slechts 4 procent hoger, terwijl de vanaf-adviesprijs met 329 euro 10 procent hoger ligt. De raytracingprestaties zijn er met RTX 4060 op vooruitgegaan ten opzichte van zijn voorgangers, maar in absolute zin zijn speelbare framerates in elke game nog allesbehalve een vast gegeven.
Wat de RTX 4060 mist
Dat de RTX 4060 gemiddeld een RTX 2080 kan evenaren, klinkt wellicht indrukwekkend, maar verbleekt bij de prestatiewinsten die we bij eerdere generaties hebben gezien. Zo kon de GTX 1060 zich bij introductie meten met de GTX 980, de RTX 2060 komt gemiddeld gelijk uit met de GTX 1080 en de RTX 3060 weet in ieder geval nog de RTX 2070 te verslaan. Bij dat laatste voorbeeld is al te zien dat de vaart er voor x60-reeksvideokaarten tegenover de vorige generatie uit begint te raken. Bij de RTX 4060 is dit nog erger, met prestaties die gelijk zijn aan een x80-kaart van niet een, maar twee generaties terug. Omdat de RTX 4060 zelfs de RTX 3060 Ti niet evenaart wat prestaties betreft, mag duidelijk zijn dat de kleine AD107-gpu van de nieuwe GeForce eigenlijk niet capabel genoeg is om het x60-label te dragen.
Uiteraard is er het argument dat dit label niet meer dan een gegeven modelnummer betreft en dat het de prijs-prestatieverhoudingen zijn waar het om draait. Maar juist de x60-reeks was voorheen traditiegetrouw het segment vanaf waar degelijke gamingprestaties begonnen. Aan de RTX 4060 zitten te veel haken en ogen om hem in dit straatje te laten passen. Alle marketing van Nvidia richt zich met deze kaart op de vooruitgang ínclusief DLSS3-frame generation, wat ook wel moet, omdat de beperkingen van deze instap-gpu zich zonder deze feature te veel tonen.
Vorige generatie momenteel interessanter
Net als AMD heeft ook Nvidia's nieuwste lid bij introductie de meeste last van concurrentie uit de vorige generatie. Heb je geen behoefte aan de features van de RTX 40-serie, dan kun je voor ongeveer hetzelfde bedrag momenteel ook de snellere RTX 3060 Ti kiezen. Is DLSS-ondersteuning in het geheel niet belangrijk voor je en zoek je vooral een goedkope 1080p-gamingkaart, dan zijn de RX 6600 XT en RX 6650 XT voor 250 euro een stuk interessanter, omdat ze weliswaar 7 procent langzamer zijn dan de RTX 4060, maar ook 25 procent goedkoper.
Zat je daarentegen te wachten op een zuinige videokaart van specifiek de nieuwste generatie, dan is de RTX 4060 wel goed nieuws. Deze introductie brengt eindelijk DLSS 3 naar de massa, voor de games die het tenminste ondersteunen. De nieuwe GeForce-instapkaart doet een aantal trucjes die zijn voorgangers niet kunnen, maar de markt voor betaalbare videokaarten op zijn kop zetten zit er met de huidige adviesprijs voor de RTX 4060 echt niet in. En voor dit prijssegment kunnen dergelijke features een erg leuke en zelfs onderscheidende extra zijn, maar de extra euro's wegen voor velen ongetwijfeld toch zwaarder.
In alle opzichten: chipgrootte, memory bus, VRAM size, prestaties en stroomverbruik, is dit gewoon een RTX 4050 maar dan voor de prijs van een RTX 4060. In dat kader is de positie van deze kaart ten opzichte van de vorige generaties goed te verklaren. Maar Nvidia heeft besloten om alle kaarten deze generatie één plaats op te schuiven in prijssegment, en hoopt met DLSS 3 Frame Generation een panacea te hebben om dat goed te kunnen praten. Erg schimmige praktijken als je het mij vraagt, en het valt me tegen dat AMD niet vol in het gat in de markt springt dat Nvidia op dit moment openlaat.
Om maar even op chipgrootte in te gaan: je hebt 100% gelijk. de cijfer tonen aan dat dit zowel absoluut als relatief gezien een GPU is die eerder altijd een xx50 kaart genoemd werd. hier een overzicht van chipoppervlaktes, met een percentage, dit is de relatieve oppervlakte tov het topmodel van die generatie, bvb de GTX Titan, de RTX Titan, de 3090 ti, etc.
50 serie kaarten:
GTX 750: 148 mm2 (26%)
GTX 950: 228 mm2 (38%)
GTX 1050: 132 mm2 (28%)
GTX 1650: 200 mm2 (26%)
RTX 3050: 200 mm2 (32%)
Op de 950 na, die een uitschieter naar boven was omdat de chip identiek was aan de 960, zitten al deze kaarten rond de 25-30% chipoppervlakte van het vlaggenschip.
60 serie kaarten:
GTX 760: 294 mm2 (44%)
GTX 960: 228 mm2 (38%)
GTX 1060: 200 mm2 (42%)
RTX 2060: 445 mm2 (59%)
RTX 3060: 276 mm2 (44%)
Hier zien we dat de 2060 een uitschieter naar boven was, met 59% oppervlakte, maar verder zitten 60 kaarten altijd rond de 40-45% chipoppervlakte van het vlaggenschip.
En dan heb je dus de 4060:
RTX 4060: 146 mm2 (23%)
Deze past totaal niet in het rijtje van de 60 klasse kaarten, zowel in absolute als in relatieve oppervlakte. Sterker nog: relatief gezien is de 4060 kleiner dan alle andere xx50 kaarten, in absolute termen is enkel de GTX 1050 kleiner!
Dit om maar even met cijfers te staven dat jij 100% gelijk hebt!
[Reactie gewijzigd door kiang op 22 juli 2024 13:20]
Maar hoe is afmeting een relevante eigenschap? Ik zou misschien kleiner = beter verwachten. Maar ik vind eigenlijk alleen prestatie, stroomverbruik en prijs belangrijk. En misschien nog toekomstbestendigheid, al is dat met computerhardware nauwelijks vooraf te bepalen.
[Reactie gewijzigd door blissard op 22 juli 2024 13:20]
Meer oppervlakte = meer cuda cores = meer performance.
De oppervlakte staat daarnaast direct in relatie tot de productiekosten: een grotere chip is duurder, een kleinere chip is (exponentieel) goedkoper. Ook daarom is het dus relevant om de oppervlakte te weten: deze gou kost evenveel als een xx60 normaal kost, maar nvidia bespaart een hoop door hem zo klein als een xx50 te maken.
Als je enkel prestaties belangrijk vindt: deze 4060 is amper 10% sneller dan de 3060, en laat de 3060 ti voor zich gaan met ook weer 10% voorsprong. Vroeger was dat anders, en was een xx60 kaart ongeveer even snel als de xx80, of als het een "slechte" generatie was, was de xx60 ongeveer even snel als de xx70. Nu is de 4060 dus niet eens sneller dan de 3060ti, laat staan de 3070. (Dit staat overigens gewoon in de review vermeld...)
Je kan excuses blijven verzinnen, maar de feiten stapelen zich wel enorm op: de 4060 past niet in de rij van vorige xx60 kaarten.
[Reactie gewijzigd door kiang op 22 juli 2024 13:20]
"Rekenkracht" is afhankelijk van kloksnelheid, maar ook van het aantal transistors (meer cores, meer cache). Meer transistors = meer logic gates = meer berekeningen per kloktik. Een fabrikant kan meer transistors inzetten door een grotere die (meer mm voor transistors/mm^2) of een beter process (hoger transistors/mm^2) te gebruiken.
Nu zal de keuze voor hoe groot zo'n die mag zijn meer een economische keuze zijn. De grootste high-end chips worden op den duur begrensd door te lage yields, dus dat zet een grens op de grootste chip area's die economisch te verantwoorden zijn. Procentueel terugrekenen tussen mainstream en high-end zegt dan wel iets waar zo'n die staat in het product segment, omdat de top redelijk dan vastgelegd blijft. En architectureel heeft de 40xx serie wel stappen gemaakt in high-end, dus er is nog genoeg rek om betere kaarten te maken.
Voor mainstream is meer chips uit wafer goedkoper, vooral als de wafer prijzen stijgen, waardoor de kosten per transistor niet veel lager meer zouden worden (de NVIDIA ceo doelt daar op als hij zegt dat "Moore's law dood is"). Een kleinere die in een hogere klasse product zet dat wel kracht bij, maar het kan ook een smoes zijn om meer marge te vangen. Alle mid-end GPUs van NVIDIA lijken bijna perfect ge-engineered te zijn om net geen regressie te vormen. De stap waarbij je verwacht dat de 4070 de plek ineemt van de 3080, zien we niet opgaan voor de 4060(Ti). Dat terwijl de gebruikte chips een stap opzij hebben gezet voor datzelfde prijskaartje.
Oorzaak gevolg vind ik lastig om te constanteren, hoewel ik wel het wel verdenkelijke beschrijf. Ik weet niet hoeveel ze betalen voor hun wafers, en of die kosten daadwerkelijk hoger zijn. Daarintegen bestaat een GPU uit meer dan alleen die GPU die, en is geheugen aardig goedkoop op dit moment.
[Reactie gewijzigd door Hans1990 op 22 juli 2024 13:20]
Ze gingen toch ook al een 4080 lite aankondigen , waar veel gedoe om kwam dus dat hebben ze een 4070ti gemaakt.
Maar elke launch daarna is er geen uproar geweest van te voren , dus doen ze het originele plannetje: inderdaad alle modellen schuiven een plekje .
Niet dat schreeuwen altijd helpt , verre van . Maar dat ze dit gingen doen was al duidelijk met de launch van de twee 4080s. Dus alles daarna zou geen verrassing moeten zijn.
Het is niet alleen de 4060. De hele nvidia lineup is 1 tier opgeschoven op de 4090 na natuurlijk.
4090 = 4090 en 4080
4080 = 4070
4070ti = 4060ti
4070 = 4060
De 4080 had eigenlijk een cut down die van de 4090 moeten zijn.
Het hele "4080 12gb" fiasco had eigenlijk al een alarmbel moeten doen afgaan bij nvidia.
Prijzen zullen wel gaan zakken als er genoeg stof is opgewaaid en ze met hun inventaris blijven zitten. Die 4050 (ik noem die rommel nooit 4060) moet eigenlijk tussen de 170 en 250 euro zitten. Dus nog even wachten...
en dan te bedenken dat ik wel een gen4 mobo heb,
maar door niet goed op te letten een 5700G erin gestoken...ik dacht echt dat alle 5xxx gen 4 zouden zijn.
en dat zou betekenen dat ik dus vastzit op PCI-E 3x8 met zo'n 4060 en dan ook nog 128 bit en slechts 8GB.
Kan ik net zo goed mijn HD6850 uit 2012 monteren, die heeft PCI-E 2x16 en dat is bijna net zo snel
betekend dat ik in ieder geval voorlopig dus geen nieuwe videokaart hoef te kopen,
bedankt Nvidea voor deze kaart! perfecte keuze, bespaart me geld en minder afval is goed voor het millieu.
[Reactie gewijzigd door meathome op 22 juli 2024 13:20]
Kan ik net zo goed mijn HD6850 uit 2012 monteren, die heeft PCI-E 2x16 en dat is bijna net zo snel
Dat is echt niet waar. Ja, die kaart heeft dan net zo veel bandbreedte over PCI-e maar die bandbreedte is zelden de bottleneck, en doorgaans juist overkill. Die HD6850 zal die bandbreedte dus niet volledig benutten, deze 4060 wel, en daarmee zullen de prestaties van de 4060 vele malen hoger liggen. En dan schalen prestaties ook nog eens niet lineair in gebruikte bandbreedte, de 4060 heeft bijvoorbeeld flink meer cache, dat zal wat compenseren.
Na even wat PCI-e 3 benchmarks zoeken voor de 4060 vindt ik dan ook dat het prestatieverlies enkele procenten is t.o.v. PCI-e 4.
Pas vanaf 4 lanes moet je je zorgen gaan maken (*kuch* RX6500).
[Reactie gewijzigd door bwerg op 22 juli 2024 13:20]
en ga ervan uit dat die 4060 in alle opzichten de vloer aanveegt met een 10 jaar oude dx11 kaart.
die 256bit/1GB legacy kaart wordt waarschijnlijk heel blij van snel ddr4 en zal dus nog best wat van die bandbreedte nodig hebben terwijl er behoorlijk wat frames per seconden uit gepompt worden.
maar verwacht dat terug naar de beperkingen van pci-e 2 de rest van mijn systeem kreupel zou maken.
ik heb met mijn huidige processor gelukkig al een eenvoudige GPU voor de dingen die mijn Nvidea niet (zo snel) kan, dus die RX6500 hoef ik ook niet
.
[Reactie gewijzigd door meathome op 22 juli 2024 13:20]
En de kosten voor Nvidia inderdaad een stuk lager, uit een wafer van 300mm haal je je 224 keer een 3060 maar 410 keer een 4060. Dan heb je altijd nog dat van alle exemplaren die je uit een wafer haalt uitval doordat er iets niet goed is gegaan op een x aantal spots op de wafer. Per wafer is dat gemiddeld gelijk, wat resulteerd dat hoe kleiner de de chip maakt hoe hoger percentage goed is. Je gooit per chip immers een kleiner aantal vierkant mm weg. Dus de winst verschil per chip voor Nvidia tussen 3060 en 4060 is nog groter. Dus als consument meer betalen voor minder oppervlakte betekend dat je dubbel wordt genaait. Tuurlijk als prijzen stijgen met bijvoorbeeld 25% wat al best veel is dan zou je kunnen verwachten dat een product of 25% duurder wordt of 25% minder bevat. Maar Nvidia doet dus momenteel beide minder geven voor meer geld.
Mja, wat dat betreft vind ik Nvidia überhaupt wel vaker smerige praktijken uithalen. Ik vind het een soort van kapitalistische strategieën die Nvidia uithaalt, soortgelijk met wat Apple en andere monopoliebedrijven doen. Walgelijk.
Maar welk gat bedoel je precies dat Nvidia openlaat voor AMD?
Simpel: een kaart die kan concurreren met de RTX 4070 en/of 4070 Ti, voor de prijs die die kaarten eigenlijk zouden moeten kosten. Dat zou een instant winnaar moeten zijn. Maar om de een of andere reden laat de RX 7800 (XT) al heel lang op zich wachten en ik betwijfel of die gunstig geprijsd gaat zijn. Dit is dé kans voor AMD om marktaandeel op te snoepen, en in plaats daarvan komen ze met een RX 7600 uit...
Simpel: een kaart die kan concurreren met de RTX 4070 en/of 4070 Ti, voor de prijs die die kaarten eigenlijk zouden moeten kosten.
Ik weet niet waarom, maar meer mensen lijken hierop te rekenen. De RX 7900XT en XTX zijn ook niet schokkend veel betere value dan de high end van Nvidia en de RX 7600 is ook maar net iets beter qua fps/euro dan de 4060.
Waarom zou dit anders zijn met de 4070?
Ik verwacht eerder dat de RX 7800XT dicht tegenover de 4070Ti komt te staan voor misschien 10% minder geld. Dit zelfde voor de 7700XT en de 4070
Hopelijk krijgen ze wel allebei minimaal 16GB VRAM. Dat is dan nog iets.
[Reactie gewijzigd door youridv1 op 22 juli 2024 13:20]
Dat is wel ongeveer wat ik verwacht, ja. Iets goedkoper dan de 4070 kaarten en dan met 16 GB VRAM. Zelfs in dat scenario zou het nog steeds een aantrekkelijke aankoop zijn.
En waarom mensen op iets beters hopen dan dat: omdat het niet meer dan logisch zou zijn voor AMD om een dergelijk product uit te brengen, als ze serieus met Nvidia willen concurreren. Het is immers de taak van AMD om Nvidia op het rechte pad te houden, en dat gebeurt nu niet. Met iedere week dat AMD geen concurrerende kaarten uitbrengt, blijven mensen overprijsde Nvidia kaarten kopen inclusief deze RTX 4060.
Het is immers de taak van AMD om Nvidia op het rechte pad te houden,
Hier laat je meteen het grootste probleem van AMD zien
Mensen denken dat dus werkelijk, en zijn dus ook nooit echt van plan AMD te kopen, ze hopen alleen dat AMD wat uitbrengt zodat nVidia ze prijs dropt zodat je die nVidia kaart kan kopen voor een betere prijs
Zelf als AMD een kaart uitbrengt die stuk sneller en goedkoper is, zal nVidia als nog veel meer verkopen, dit is al meerdere malen bewezen
Met dat in het achterhoofd snap ik ook wel dat AMD niet veel goedkopere kaarten gaat uitbrengen, zorgt alleen maar voor winst daling
"Het is immers de taak van AMD om Nvidia op het rechte pad te houden" - bijzondere redenatie, volgens mij is het de taak van AMD om winst te maken voor de aandeelhouders.
Dat is het hele idee achter concurrentie en de vrije markt in kapitalisme: zodat bedrijven elkaar eerlijk houden en er geen ongezonde situaties bestaan omtrent prijzen. Is dat niet het geval, dan is er sprake van monopolie. Of als concurrenten in het geheim afspraken maken om alsnog de markt te verzieken, dan is er sprake van kartelvorming.
En laten we eerlijk zijn: het is dat er anti-trust wetten zijn die bepalen dat Intel en Nvidia geen monopolie mogen hebben, anders hadden die twee allang AMD opgebroken en opgeslokt. Dus ja, AMD's hele bestaansrecht is berust op het feit dat ze Nvidia concurrentie moeten bieden.
Hoewel dat misschien is hoe wetmakers er naar kijken, uiteindelijk is dat niet het bedrijfsdoel van AMD. Als je in het jaarverslag van AMD gaat kijken zul je dit nergens terug zien.
En als je met z'n tweeën of drieën tegenwoordig (duo- of triopoly) de hele markt beheerst heb je geen gezonde concurrentie meer en is het maken van prijsafspraken ook niet meer nodig, want het is vrij makkelijk om de prijs hoog te houden zonder prijsafspraken te maken. Geen van de partijen heeft er immers op dit moment baat bij de prijs/prestatieverhouding veel beter te maken (behalve intel, want die wil de markt penetreren en dat zie je aan de prijzen van hun videokaarten ook terug), want ze verkopen alles wat ze kunnen produceren toch wel. Als het niet aan gamers is, dan aan AI bedrijven of aan miners..
& dan komen we dus terug op het punt aan het begin, het doel van AMD is winst maken voor de aandeelhouders, en dat gaat beter met de huidige prijzen dan met een betere prijs/prestatieverhouding, dus ze doen het precies zoals het bedoeld is.
Ik wacht op de 7700XT zodat de 6700XT in prijs zal verlagen, maar volgens mij waren er toch productieproblemen oid waardoor de chip voor de 7800 XT en 7700 XT vertraging opliepen qua releasedate?
Erg schimmige praktijken als je het mij vraagt, en het valt me tegen dat AMD niet vol in het gat in de markt springt dat Nvidia op dit moment openlaat.
Al heel lang kijkt AMD alleen naar Nvidia: Ze gaan eens een ~10% beter qua prijs/performance zitten als Nvidia, en vinden het wel goed. Dat het resultaat is dat met de huidige prijsstellingen uberhaupt er minder wordt gekocht lijkt ze niet veel uit te maken.
Daarnaast hoewel zoals verwacht de prijs/performance van deze kaart ook gewoon niet indrukwekkend is, is iig de performance/watt wel een hele nette stap gemaakt door Nvidia (ik zou dan ook niet snel gaan klagen dat de kaart niet genoeg stroomverbruik heeft voor een xx60 model), terwijl AMD een stap van precies nul lijkt te hebben gemaakt met hun nieuwe generatie.
Ik ben geen fanboy van een merk maar probeer wel meer richting AMD te gaan vanwege de ongelijke marktverdeling. Maar de laatste tijd doet AMD ook niet echt hun best om marktaandeel te winnen. Met als omslagpunt voor mij de RX7600 met 8GB voor 300 euro. Dan heb ik ook zoiets van als ze zelf al geen moeite doen wie ben ik om zorgen te maken over hun concurrentie positie. Boeit me niet meer als Nvidia een monopolie kriigt, ik denk eerst aan mn portemonnee.
AMD probeert helemaal niet te concurreren net als in de cpu sector. Ze zitten elke keer net iets onder de prijs(want Nvidia heeft meer features) van Nvidia en gewoon lekker cashen. Ze vinden het wel prima zo.
[Reactie gewijzigd door Von Helm op 22 juli 2024 13:20]
AMD is geen concurrent meer te noemen.
Meeste mensen zullen het liever niet heb ben, maar de enige echte concurrentie die kan verwachten is van Intel......
Dus wil je concurrentie koop dan een Intel gpu ja echt Intel!
Helaas is de A770 ongeveer net zo snel als deze 4060 en een stuk duurder. Wellicht als de winkelprijs van de 4060 nog veel stijgt, maar zoals het er nu voor staat verwacht ik er weinig van.
Net zo snel in die ene game waar hij goed presteert, in de rest van de games kan hij totaal niet bijbenen
Ik zie Intel ook nog lang geen echte concurrent worden, hebben nog een lange weg te gaan
dat AMD geen concurrent is zoals @Raro007 zegt is natuurlijk de grootste onzin
Een groot probleem is inderdaad dat AMD geen echte concurrentie biedt.. Daardoor kan Nvidia dit soort praktijken uithalen..
Ik beschouw deze 4000-serie generatie gewoon als een verloren generatie.. Ik zou er alleen wat uit kopen als je echt geen andere keuze heb en niet kan wachten.. Anders gewoon wachten op de 5000-serie die hopelijk weer een soort van compensatie generatie wordt met veel meer waar voor je geld.. Beetje vergelijkbaar met de 3000-serie na de eveneens veel te dure 2000-serie.. Helaas werd die daarna door alle Covid19 en crypto hysterie ook omzeep geholpen.. Ik heb gelukkig op tijd een RTX 3080 kunnen kopen in 2020 voor een "normale" prijs, waardoor ik nu kan wachten..
[Reactie gewijzigd door Inflatable op 22 juli 2024 13:20]
De oude prijzen komen echt niet meer terug, lagere prijzen=lagere winst. Dat is verlies voor de aandeelhouders.
Spijtig, de toekomst voor pc gaming ziet er niet zo mooi uit, het is gewoon veel te duur geworden.
Bizar hoe het zich ontwikkeld heeft. Mijn huidige systeem heb ik najaar 2019 gekocht. Kon ik een jaar geleden voor de nieuwprijs op marktplaats nog kwijt. Nu begint de waarde pas wat te zakken. Vroeger was je pc na 3 jaar aan vervanging toe. Dat je hardware langer mee gaat is een logisch gevolg van het einde de wet van Moore, maar dat hardware ondanks dat ook nog relatief duurder is geworden is echt een hele slechte ontwikkeling, wie gaat er nu nog een game pc kopen?
De nVidia GeForce GTX 680 is gebaseerd op de GK104 GPU uit de Kepler generatie. Deze GPU is, net als AMD's nieuwste generatie GPU's, geproduceerd op basis van 28nm transistors. Wie de geruchten over nVidia's toekomstige videokaarten de afgelopen maanden op de voet gevolgd heeft, zal weten dat de GK104 eigenlijk was bedoeld voor nieuwe mid-range videokaarten. Een chip met codenaam GK110 stond op de planning als nieuwe high-end chip en als directe opvolger van de GF110 van de GeForce GTX 580. Wat er exact met die GK110 aan de hand is, is onduidelijk, maar één ding is zeker: het is nVidia niet gelukt om de chip goed werkend geproduceerd te krijgen en dus is de GK110 tot nader order uitgesteld. Misschien dat we een doorontwikkelde variant ervan ooit nog gaan tegenkomen als GeForce GTX 780, wie zal het zeggen.
Een geluk bij een ongeluk: de mid-range GK104, die oorspronkelijk dus voor een 'GeForce GTX 660 Ti'-achtige videokaart bestemd was, bleek veel beter te presteren dan vermoedelijk oorspronkelijk bedoeld. Zo goed zelfs dat nVidia zelfs met deze minder complexe GPU de prestaties van AMD's Radeon HD 7970 kan evenaren.
Eind van de dag gaat het dus precies daarom; Nvidia zorgt ervoor dat ze net genoeg verbeteren zodat het leuk blijft om na 2/3 generaties te upgraden. Alles wat overblijft gaat in de zakken van Nvidia doordat ze een kleinere chip gebruiken dan strikt noodzakelijk. En geef ze eens ongelijk. Wil je iemand daar op aankijken dan is het AMD die het destijds succesvolle Ati Radeon hebben overgenomen en vervolgens dat jaren lang hebben verwaarloosd door in het R&D budget (lees personeel ) te snijden.
Daarom is het in de basis goed nieuws dat Intel mee is gaan doen. Laten we hopen dat die dit blijven doen.
Het is inderdaad de RTX 4050Ti.
Na het zien van alle reviews van Tweakers en alle reviews die gisteren en vandaag van youtubers naar buiten zijn gekomen... De conclusie is duidelijk. Het is een RTX4050Ti, met de prijs van een RTX4060.
En Nvidia doet "heel trots" alsof de 300 dollar/euro lage prijs een wonder is en een 'geste' terug naar gamers.
Het lijkt erop dat Nvidia heeft geluisterd naar de verzoeken die ik regelmatig in de comments voorbij zag komen; een stap vooruit in stroomverbruik. En hoe! Een verbetering van +75% ten opzichtte van de RTX 2060. Dat is best indrukwekkend te noemen!
Persoonlijk zie ik liever een dergelijke stap in ruwe performance, dan kun je altijd nog gebruik maken van een fps limiet. Maar goed, ieder zo zijn voorkeuren...
Ik vraag me alleen af hoe liniair het verbruik is van zo'n kaart. Exodus neemt dus tegen een 6800 125 tegen 241watt, maar met 65 tegen 93 fps. Maar wat doet een 6800 als je deze locked op 65fps?
Natuurlijk kan je zeggen dat ze op 100% gebruik zuiniger zijn geworden, maar geld dat enkel op kaarten in dezelfde range, of is dat relatief tot een hogere kaart dus eigenlijk helemaal niet zo groot?
v-sync test is eigenlijk niet de goede manier, de kaart gaat dan nog altijd zo snel mogelijk een frame proberen aanmaken en eventueel een aantal weggooien, het vermogen gaat evengoed pieken. Je zou eigenlijk de klok en spanning moeten verlagen bij de 6800xt tot je dezelfde framerate hebt en dan het verbruik vergelijken.
Ik denk dat ze bij Techpowerup de AMD kaarten testen met de v-sync optie van de driver zelf.
Om de een of andere reden verbruikt dat veel meer, dan wanneer je de v-sync vanuit een spel zou aan zetten. Tenminste dat is mijn ervaring met een AMD RX6900XT.
In de regel heeft de kaart met de beste FPS/watt, ook het laagste 60Hz/FPS v-sync verbruik.
In de regel heeft de kaart met de beste FPS/watt, ook het laagste 60Hz/FPS v-sync verbruik.
Dat zou je verwachten maar als ik naar verschillende testen kijk dan lijkt dit niet het geval te zijn. Volgens mij heeft het boosting algoritme een veel grotere impact hierin. Een voorbeeld. Rechts is stock en links is met een manipulatie van de curve. Het verschil is enorm waarbij er bijna 2x zo veel stroom wordt gebruikt om hetzelfde te bereiken.
Het zal uiteraard van meerdere factoren afhangen. O.a. hoe (in)efficiënt de kaart is afgesteld, of een kaart al dicht bij zijn limiet zit bij een bepaalde v-sync/fps cap en hoe zwaar de stroomvoorziening is uitgevoerd (een zware kaart met een relatief hoog idle verbruik op een relatief lage FPS afknijpen kan dito toch meer verbruiken).
Een kanttekening is ook dat op 1080p een cpu limiet een rol kan spelen (hardware FPS limitering), wat dus dan een vertekend beeld geeft van de performance/watt van een aantal kaarten. Die winnen dan niet zo veel met een (extra) software limitering.
Het boosting algoritme heeft ook zeker invloed, maar dat geldt voor alle kaarten?
Het voorbeeld dat je hebt gegeven van een RX3090 is voor mij een vergelijking tussen een UV + klok limiet vs. stock. En meer bewijs wat een handmatige tuning kan opleveren.
Ik denk overigens wel dat via de v-sync optie van de Adrenaline software/driver, een AMD kaart onnodig hard loopt te boosten en uiteindelijk frames bij wijze van spreken weggooit. Zoals ik eerder aangaf kan het gebruik van een ingame v-sync optie flink schelen.
De 2080 valt mij wel heel erg op in positieve zin met slechts 88W voor een kaart van 5 jaar oud.
Interessante data in ieder geval welke best van toepassing is op mij gezien ik 75Hz voldoende vind en voornamelijk spellen speel zodra ze 2-3 jaar op de markt zijn. Zit met een 3060Ti zelf ook nog wel even goed dan
Ben wel benieuwd hoeveel marge er gemiddeld nog is om 40 series kaarten te undervolten voor nog minder verbruik, bij mijn huidige 3060Ti is het zonder problelem mogelijk het maximum stroomverbruik op ~140-150W te krijgen i.p.v. ~200-210W op dezelfde klokfrequentie als dat ie uit de doos komt
[Reactie gewijzigd door !mark op 22 juli 2024 13:20]
Dat verbeterd verbruik heeft niets te maken met "luisteren naar de vraag van". Voor de 30-reeks is Nvidia in zee gegaan met Samsung als productiepartner. Omdat dat veel goedkoper was dan bij TSMC blijven. Maar ze zaten daardoor wel op het 8N proces (pakweg 10nm). Wat niet de beste eigenschappen had qua energie-efficiëntie in vergelijking met TSMC's 7nm proces.
Voor de 40-reeks zijn ze toch terug naar TSMC gegaan en gebruiken ze een kleiner 5nm proces dat veel zuiniger is.
De 40 reeks heeft een goede performance per watt. Alsnog had Nvidia had prima een 4060 kunnen leveren met een hoger stroomverbruik en dus hogere prestaties. Zie bijvoorbeeld de andere beschikbare kaarten zoals de 4070 (200W) review: Nvidia GeForce RTX 4070 - Lekker zuinig... voor een moderne videokaart. Uiteindelijk kiest Nvidia er deze keer blijkbaar voor om geen grote stappen te zetten in extra performance, maar dus wel in verlagen van het TDP. Ze hadden immers ook een 170W (RTX 3060) variant kunnen bouwen die een klap sneller was.
[Reactie gewijzigd door sdk1985 op 22 juli 2024 13:20]
Uiteindelijk kiest Nvidia er deze keer blijkbaar voor om geen grote stappen te zetten in extra performance, maar dus wel in verlagen van het TDP
Puur omdat dit voor hun geen drol kost om te produceren en ze er toch mee wegkomen deze massaal te verkopen, en ondertussen kunnen ze zeggen hij is alsnog sneller want DLSS 3.0 (wat ik de grootste onzin vind)
Als mensen denken dat ze dit voor de consument doen..
Wellicht zijn we erg semantisch bezig. Maar in de basis creëert Nvidia een performance target en bouwen ze vervolgens een enorme virtuele gpu waarbij bijvoorbeeld een core een computer is. Daarna gaan ze net zo lang snijden tot ze met een zo klein mogelijke chip het target halen. Hoe zuinig die vervolgen is hangt af van de nieuwe architectuur samen met het procedé.
Dit betekent automatisch dat het Nvidia is die bepaalt hoe groot de performance sprong is. Dat is waar ik op doelde. Nvidia had er ook voor kunnen kiezen om een RTX 4060 te maken die 50% sneller was dan de 3060 en dus een hoger TDP mee krijgt. De performance per watt staat immers vast voor deze architectuur. De 4070 hadden ze dus ook prima een 4060 kunnen noemen, die is wel 50% sneller (en verbruikt 10% meer stroom ingame dan de 3060).
Blijkbaar heeft Nvidia er deze keer voor gekozen om niet te focussen om een grote prestatie sprong, maar vrijwel alle 'winst' van de nieuwe architectuur/procede om te zetten in een lager stroomverbruik. Dit door het performance target simpelweg lager te zetten.
[Reactie gewijzigd door sdk1985 op 22 juli 2024 13:20]
Nvidia heeft deze keer gekozen om kosten te besparen door een lagere/kleinere chip te gebruiken voor alles onder de 4090. Met als gevolg een kleinere prestatiesprong en een lager verbruik.
De kostenbesparing komt evenwel niet ten goede van de consument. Die mag juist méér betalen dan voorheen, onder het mom van duurdere productiekosten. Want Nvidia heeft door mining/corona woerkerwinsten gemaakt en wil dat graag zo houden.
(En door de AI hype hebben ze bovendien de kans om nog meer van de chipproductiecapaciteit te gebruiken voor de business-markt, waar ze chips voor hogere prijzen kunnen verkopen. Dit ten koste van productie voor de consumentenmarkt, waar ze het credo gebruiken: wie iets wil, moet moet maar dokken. Of naar Geforce Now overstappen. Waarschijnlijk ook al met het vooruitzicht dat de low-end markt langzamerhand zal opgeslokt worden door APU's.)
[Reactie gewijzigd door Jack77 op 22 juli 2024 13:20]
Dat is best heel goed te noemen. Ik ben erg benieuwd wat de winkelprijs wordt. Kan ik eindelijk mijn 2060 vervangen. Die kostte in 2019 al €349 dus ik vind de iets lagere prijs van de 4060 heel netjes.
[Reactie gewijzigd door blissard op 22 juli 2024 13:20]
Het lijkt erop dat Nvidia heeft geluisterd naar de verzoeken die ik regelmatig in de comments voorbij zag komen; een stap vooruit in stroomverbruik. En hoe! Een verbetering van +75% ten opzichtte van de RTX 2060. Dat is best indrukwekkend te noemen!
Is zo'n verbetering niet gewoon wat je mag verwachten in de 4 jaar tijd tussen de release datums? Het is niet heel gek dat iets dat efficiënter en daarbij krachtiger is, minder energie hoeft te verbruiken om dezelfde resultaten te krijgen als een minder efficiënt en krachtig ding dat al paar jaar oud is.
Op basis van het verleden kun je dit niet verwachten nee. Zo was een 10 serie een stuk zuiniger dan een 9 serie. Maar dat ging dan over een procent of 30-40%. Dit gaat twee keer harder.
[Reactie gewijzigd door sdk1985 op 22 juli 2024 13:20]
Maar ook 2x zoveel generaties. Kijk ik snap ook wel dat je niet uit kan gaan van het verleden, maar er zit/zat in dit geval al gewoon nog een generatie tussen. Dat vind ik toch anders dan als het een directe opvolger is.
Om even een ander voorbeeld erbij te nemen, als ik nu de laatste generatie Intel Mac's ga vergelijken met de M2 generatie Mac's zie ik ook een hele grote vooruitgang. Maar als ik de Intel met de M1 generatie vergelijk is er ook vooruitgang maar niet zo groot als met de M2 vs Intel.
Ten aanzien van de 3060 is de sprong +68%. De 3 serie was nauwelijks efficiënter, praten we over +4,5%. De 2 serie was efficiënter dan de 1 serie; 22% voor het x6 model en +14.5 voor het x7 model. Het is echt deze 4 serie die ineens een abnormaal grote sprong maakt.
Ik hamer er ook altijd op - vooral bij Amerikaanse reviews - dat de efficiëntie van rtx 4000 echt geweldig is .
En daarom voor mij echt wel iets wat duurder mag zijn dan een kaart met dezelfde performance maar die meer watt vreet.
Geen reden om te upgraden , maar voor mensen die van meerdere generaties terug komen is het zeker de moeite om 4xxx te overwegen voor wat meer euros.
De grote 'ja maar' is dat je 1) gewoon meer performance improvement verwacht ten opzichte van de vorige generatie en 2) er (te) weinig videoram op zit voor het geld .
Zeg maar, voor de 4070/4060ti/4060 is efficiëntie ook het ENIGE wat ze goed doen - voor de prijs.
Helaas heeft nog niemand getest op PCI-E gen 3. Want eerlijk is eerlijk als je kijkt welke doelgroep deze kaart heeft zijn dat voornamelijk mensen met een laag budget die dus nog niet een gen4 zitten. En dan gaat de kaart waarschijnlijk helemaal op zijn gat. Gewoon niet kopen deze meuk maar helaas men zal het toch wel weer doen en zo komen de GPU boeren er weer mee weg.
Deze kaart heeft PCIE4 x8, geen PCIE4 x16, wat betekent dat als je deze in een PCIE3 PC steekt, deze kaart slechts op PCIE3 x8 zal werken, niet op PCIE3 x16, waardoor je mogelijk dus wel een impact ziet.
Deze kaart heeft PCIE4 x8, geen PCIE4 x16, wat betekent dat als je deze in een PCIE3 PC steekt, deze kaart slechts op PCIE3 x8 zal werken, niet op PCIE3 x16, waardoor je mogelijk dus wel een impact ziet.
329 euro voor een halve eeuw grafische industry in 13,25 miljard transistors en 156mm² silicon.
Het summon van de mensheid op 128-bit, maar dan op PCI x8. Meer lanes om te hacken denkt die Jensen Huang
Ik zie dit wel als de geboorte van het twee-nalaatste succesnummer van Nvidia op x86, als opvolger van de MX550. Low-Profile, Low-heights cards en vooral chiplets voor in de laptops.
Een fat ultrabook met occasional gaming. Of een leuk m-itx bakkie als media systeempje. Een e-GPU over USB.
op 3nm en PCI5 zie ik Nvidia dit nog weleens doen, en dan naar x4 lanes, waarbij het aantal cores nogmaals geoptimaliseerd kan worden en de Chip nog kleiner is. Dan kan het TDP op pci6 zelfs nog verder teruggedrongen worden.
[Reactie gewijzigd door Bulkzooi op 22 juli 2024 13:20]
Houd er echter rekening mee dat de RTX 4060 een x8 connectie heeft en geen x16. Dit is dus een PCIe 4.0 X8 kaart! (Fysiek is de connector x16, maar als je naar de traces kijkt zie je dat het x8 data is)
Bij de link die je plaatst zie je dat er van PCIe 3.0 x16 (eigenlijk zelfde als PCIe 4.0 x8) naar PCIe 3.0 x8 juist wel sprake is van een significant verschil. Mensen met een mobo dat nog op gen 3 draait leveren dus zo 10% of meer in aan performance.
Junky heeft dus een goed punt, dit is geen optimale kaart voor mensen met een laag budget.
Ja maar hier ga je de fout in doordat je meegaat in de Nvidia stofwolk waarmee ze proberen te verbloemen dat deze kaart en de 4060TI een veel tragere Memory bus / bandwith hebben tov de 3000 series.
Voor PCI-E gen 3 gaat dat dus daadwerkelijk een impact hebben.
Wordt het niet eens tijd voor een nieuwe CPU en Mobo als je nog PCI-E gen 3 zit? De meeste platforms die dat nog hebben zullen zelfs al moeite hebben met het bijbenen van de GPU hebben dacht ik zo? Ik weet iig dat mijn vorige CPU... de i5 6600 al de 1660 Super bottleneckde,
Jij vind dus dat iedereen die een ryzen 2000-5000 maar met upgraden terwijl de cpu nog meer al snel genoeg voor kan zijn? Die kunnen namelijk op een 4xx series chipset zitten zonder gen4 support.
Nouja moet... Maar het is voor dit soort snelle kaarten wel aan te raden. Voor 80 euro heb je trouwens een nieuw AM4 Pci-e 4.0 x 16 moederbordje. Dat is wel een optie als je op een 5x00x3d oid zit. uitvoering: ASUS Prime B550M-K
(Maar ik kan me ergens iig voorstellen dat mensen die nu nog met een vrij oud AM4 bordje zitten dit haast als een erezaak zien om deze nog lang te gebruiken)
[Reactie gewijzigd door AtariXLfanboy op 22 juli 2024 13:20]
Dan kan je die 80 euro beter uitgeven aan een snellere kaart die wel 16 lanes heeft. Waarom zou je een perfect werkend moederbord vervangen om een low end GPU te kopen?
Dat is nu het hele absurde aan dit verhaal. Moest je voor een kaart van 800 euro een nieuw moederbord nodig hebben, dan is dat maar 10% van de prijs van de upgrade. Maar in dit segment is dit bijna een derde van de prijs, omdat NVIDIA niet een paar vierkante millimeter meer wou voorzien voor een bredere interface? Dat is gewoon geld graaien en de kost maar afschuiven op de consument.
Net in dit segment zouden ze ervoor moeten zorgen dat je een goede ervaring hebt op een ouder platform, want ze bieden juist geen performance aan dat een nieuw platform nodig maakt. AMD is trouwens even schuldig, die doen net hetzelfde. En reviewers testen toch altijd met de top CPU van de laatste generatie, dus de performance die je echt gaat zien is moeilijk te voorspellen...
Dit segment is eigenlijk gewoon dood in mijn ogen. Koop oude stock van de vorige generatie, koop tweedehands, of spaar wat verder. Maar koop niet nieuw. Het is zo'n verspilling van geld...
[Reactie gewijzigd door Niosus op 22 juli 2024 13:20]
Als je ook naar het stroomverbruik kijkt dan zou dat wel een optie kunnen zijn. En vergeet niet dat als je een oudere kaart koopt die dus eerder vervangen moeten worden en dat ook geld kost. Reken in dit segment met afschrijving van 6 jaar dan is dat ongeveer 50 euro pj. Dus 2 jaar langer met een GPU doen puur op basis van planned obsolescence scheelt je al gauw 100 euro. Daarbij : Neem je oude 3x16 kaart straks mee naar een nieuw systeem is die straks ook 4x8 of zelfs 5x4. Wil je dus nu dat beetje extra performance in benches of ook op de wat langere termijn?
Het gaat hier denk ik niet om oppervlakte, maar om diepte. Als je de helfr aan pcb lagen kunt besparen is het opeens wel aantrekkelijk en minder ingewikkeld te produceren.
De consument die langer met hun hardware doet is simpelweg minder interessant dan een consument die daar wat lichter over denkt. Vergeet niet ... de 4060 gaat in veel prebuilds terechtkomen. Jij en ik kunnen vies kijken naar de meeste van die PC's (na 20 jaar hebben die eindelijk Dual Channel Ram standaard), maar voor hen is die midrange prebuild markt uitermate belangrijk
De hele losse componenten desktop markt heeft het moeilijk. Maar het is wel te verwachten dat deze 4060 aardig goed gaat verkopen. "They cry because they care' is het devies. Reviewers die laagdunkend over Nvidia kaarten doen hebben het wel vaker mis omdat vele nog al gefocussed lijken te zijn op fps in fps. Een ander voorbeeld was daarvan was bv de 960.
[Reactie gewijzigd door AtariXLfanboy op 22 juli 2024 13:20]
Waarom zou die oudere kaart eerder vervangen moeten worden? Als je een tweedehands 3070 koopt, dan heb je meer performance voor minder geld. En die heeft ook 16 lanes, en meer geheugen bandbreedte en dus minder gevoelig voor games die dat nodig hebben. De kaart die nu sneller is, gaat op lange termijn gewoon ook sneller zijn.
Je praat over extra PCB lagen, maar daar heb ik mijn twijfels bij. Bron? Want anders is dit gewoon speculatie. Ik weet wel dat er zeker bij moederborden een trend is naar meer en meer lagen, maar ik heb nog niets opgevangen dat dit specifiek voor deze (of de andere kaarten die x8 waren) een reden was.
De losse desktop markt heeft het moeilijk omdat Nvidia die heeft doodgeknepen, in combinatie met crypto mining en supply chain issues. De gaming PC bouw markt was groter dan ooit, maar jarenlang aan absurd hoge prijzen gevolgd door Nvidia die dit soort teleurstellingen lanceert zorgen er gewoon voor dat mensen hun interesse verliezen. Het aantal mensen waar ik vroeger een PC voor gebouwd zou hebben, die ik de laatste paar jaar heb aangeraden van een PS5 te kopen voor hun budget... Voor de prijs van net een 4060 waarmee je op 1080p kan spelen (zie Nvidia marketing), heb je al een volledige PS5 die in veel gevallen 4K haalt. Ik weet het, appelen en peren vergelijken. Maar leg de nuance maar eens uit aan Jan-die-gewoon-COD-wil-spelen. Je draait oorzaak en gevolg om. En AMD is niet veel beter, want die volgen gewoon de hele gekte.
Omdat de driver updates eerder aflopen en niet elke videokaart de leeftijd haalt die je te horen krijgt van trotse eigenaars waarvan de kaart het nog wel doet. Tweedehands kaarten kunnen 24/7 gebruikt zijn en ook kan zo z'n slijtage op onderdelen veroorzaken. Laat staan als er een of andere kneus mee aan de slag is geweest om het te overclocken. Velen zullen het niet mee eens, maar ik vind dat extra risico afgeschreven moet worden op de waarde van een videokaart.
Dat is inderdaad speculatie, maar een betere reden dan ze hebben er een stukje van het bord afgesloopt hebben om kosten te besparen. Dat is al helemaal speculatie. Als ik zo naar de kaart kijk in beelden komt deze vrij dun en eenvoudig over.
Goed en ik maar denken dat veel meer mensen overgestapt zijn op laptops of consoles. En dat consoles de kennis en kunde van de jongere gamer flink heeft doen laten verdwijnen. De zelfbouwmarkt lijkt al wat langer te vergrijzen. De bitcoin mining is uiteraard ook een vervelende verstorende factor geweest maar daar heeft denk ik zelfs de PS5 last van heeft gehad. Ook zijn er nog veel meer andere verdienmodellen bijgekomen door oa de steeds krachtiger wordende hardware op de mobiele telefoons waardoor de concurrentie aan de inkoop kant ook groter is geworden. Handelaren springen ook handiger op schaarste en om dus slechts enkele partijen de schuld van de situatie te geven is zinloze conspiracy.
De ontwikkelingskosten van een nieuwe GPU liegen er ook niet om. AMD vangt dat meestal op door meerdere generaties op één archictectuur te baseren en is inmiddels hofleverancier voor de consoles. Nvidia is die ontwikkeling steeds meer gaan bekostigen uit oa hun AI technologie die zo winstgevend bleek te zijn dat ze nu het ook wel kunnen permitteren om wat achter uit te leunen op de GPU markt.
Het is bijna een hobby geworden voor hun en als we dan aan conspiracy doen kun je net zo goe beweren dat ze het rustig aan doen om geen anti trust rechtzaak aan hun broek te krijgen. Maar zo ver wil ik niet gaan. Dat dondert mij namelijk ook niet. Ik probeer te beoordelen welke kaart nu het beste voor mij is.
[Reactie gewijzigd door AtariXLfanboy op 22 juli 2024 13:20]
Driver updates zijn echt geen issue. Mijn oude GTX 970 uit 2014 heeft eerder deze maand nog een driver update gekregen. Dat is 9 jaar verder. Het gaat hier over kaarten van een generatie, max 2, geleden. Dat is kaliber 2018-2020. Die gaan nog vele jaren updates krijgen. Een non-issue voor iedereen buiten de absoluut meest budget-focused gamers. Maar spoiler alert, voor die gamer is er sowieso niets modern te krijgen.
Over die vierkante millimeters: je moet kijken naar wat Nividia daadwerkelijk maakt. Ze maken de chips, de AIB partners maken de kaarten (en dus de PCB). Nvidia betaalt voor de chips een vaste kost per wafer, en een min of meer vaste kost per chip (voor packaging). Hoe kleiner de chip, hoe meer chips er op de wafer passen en dus hoe groter hun winstmarge. En aangezien de chip in de 4060 al erg klein is, maakt dat beetje extra oppervlakte op de chip voor die extra lanes dus een merkbaar verschil.
Er zat natuurlijk meer in het spel tijdens de schaarste, maar het is uiteindelijk Nvidia en AMD die bepalen hoe de wafers verdeeld werden. Ze hebben ervoor gekozen om een veel groter aandeel van hun wafers voor high-end chips te gebruiken, want die zijn interessanter voor miners en daar hebben ze een hogere winstmarge op. Het is echt geen conspiracy. Het is gewoon winstmaximalisatie, en Nvidia's cijfers liegen er ook niet om. Ik begrijp volledig de keuze die ze gemaakt hebben, maar dat neemt niet weg dat ze de poten onder de tafel van de gaming markt aan het wegzagen zijn. Dankzij de nieuwe AI hype kan het hun duidelijk niet veel schelen, maar goed. Ze hebben beslissingen gemaakt, de gevolgen zullen ook voor hun zijn. Zij het positief of negatief...
Als je tweedehands niet durft, of voor eender welke reden toch echt deze kaart wil kopen, go right ahead. Neemt niet weg dat het een shitty deal is. Je betaalt steeds meer voor een xx60 kaart, die relatief gezien steeds minder capabel wordt ten opzichte van de rest van de lineup en de hedendaagse games. Het is gewoon wat het is...
De ondersteuning van Maxwell door Nvidia is lang niet meer dat van een nieuwe kaart. En het is geen garantie dat voor nieuwere generaties ook gaat gelden. Ik zeg dus ook niet dat een kaart van 2 jaar geleden niet volledig ondersteunt is. Maar dat deze korter ondersteunt zal worden dan een nieuwere generatie. Wie weet is 6 jaar dus de pessimistich : Laten we er dan 9 jaar van maken! Dan zit je nog op 30-40 euro per jaar dat je aan waardevermindering moet rekenen tov gloednieuwe kaart.
Goed punt... Nvidia maakt de PCBs niet, maar deze kosten zit uiteraard wel in de MSRP meegerekend.
Nee het gaat niet alleen om wafers. Er zit meer elektronica op zo'n bord. Al zou het alleen om de grondstoffen gaan dan is er de laatste tijd veel gebeurd aan de inkoop kant. En sinds Nvidia tegenwoordig ook extern produceert moeten ze ook wel degelijk concurreren met andere chipproducenten. Ik vrees dat inmiddels dus de grote producenten de selfbuild markt steeds meer als een kleine mindere belangrijke markt zien. En AI en andere complex vectorrekenopdrachten zijn voor hun absoluut geen hype als ik naar hun omzet cijfers kijk terwijl de markt in de videokaarten krimpt.
En dan kom ik op een vrij zielig puntje van enige reviewers. Zij denken door mensen thuis aan te moedigen om geen videokaarten van Nvidia op de knieën zouden kunnen brengen. Een slechte omzet zou juist bij Nvidia die markt nog minder belangrijk maken. Wie weet is dit dan wel de laatste gen die nog sneller is dan de vorige.
Het heeft niet iets met 'durfen' te maken. Ik gebruik wel vaker tweedehands hardware... vooral van mijzelf, want ik verkoop niet graag. Anderen op dit forum staan daar duidelijk anders in. Nogmaals : Het gaat mij er om dat een oudere model kaart ondanks enigszins vergelijkbare prestaties gewoon duidelijk goedkoper hoort te zijn. Dat is voor mij een principe kwestie. Als een nieuwe auto de garage uitrijd is deze ook al een deel van z'n waarde kwijt. En de 4060 is simpelweg veel beter dan de 3060. Hoe graag je het ook anders wil.
P.S. Dit terzijde : Grappige is dat ik in de tijd van de introductie van de 960 en 970 hier nog wel eens las dat deze niet future proof zouden zijn tov de toen sneller en energieslurpende AMD varianten. Dat argument bleek dus best wel nonsens te zijn, maar het blijkt lastig vooruit kijken. Als je snelheid van de ontwikkeling van de GPU op ARM devices ziet zitten we mogelijk over een jaar of 5~10 op het compleet verkeerde platform met x86
[Reactie gewijzigd door AtariXLfanboy op 22 juli 2024 13:20]
Dat afschrijven heeft echt geen impact op de realiteit. Midrange GPUs zijn obsolete lang voordat de driver support stopt. Je moet kijken naar de daadwerkelijke upgrade cyclus die je volgt, en zo uitrekenen. Je doet alsof drivers echt een issue zijn, maar dat is gewoon niet zo. Die GTX 970 draait alle spellen waar het krachtig genoeg voor is perfect. Dat die geen optimalisaties krijgt voor Cyberpunk is niet relevant want dat is toch niet vooruit te branden op die kaart.
Er zit inderdaad meer op een bord, maar dat is niet een kost voor Nvidia. Dat is ook niet noemenswaardig beïnvloed door het aantal lanes. De grootste kost voor PCIe lanes (en memory bus ook, nota bene) zit op de die. Kijk bijvoorbeeld naar de 3060 Ti met 8GB VRAM met een 256bit memory bus vs de 3060 met 12GB VRAM met een 192bit memory bus. Het is duidelijke die extra bus breedte dat de chip een hoger segment (en dus duurder) maakt, niet die paar extra VRAM chips en traces. Met PCIe lanes heb je exact hetzelfde verhaal.
Ik besef maar altijd goed dat Nvidia niet meer tegen te houden is door gamers. Het gaat er mij dan ook niet om om Nvidia te straffen. Ook al was de AI markt er niet, we waren met z'n allen voor 1300 euro 3070s aan het kopen een dik jaar geleden. Er zijn blijkbaar genoeg mensen die geld te veel hebben. Het gaat mij eerder om de mensen die wel een goede deal willen. Die hoeven echt niet te gaan smeken bij Nvidia als ze met een slechte deal komen. Nvidia mag vragen wat ze willen, maar ik ga mijn geld niet uitgeven als ik zelf de waarde van het product niet zie. Ik wil zeer zeker dat de 4060 een pak beter is, maar 15% sneller in de meeste gevallen dan de 3060 is echt niet zo spannend. Als je bijvoorbeeld verder kijkt in de grafieken, is de 3060 sneller dan de 2070, en de 3060 Ti zelfs sneller dan de 2080. En nog wat meer terug is de 2060 ongeveer gelijk aan een 1080. Tegenover de historische trend valt de stap dus dik tegen, zeker als je rekening houdt met de node shrink van 8nm Samsung naar 4nm TSMC. Zo "veel beter" vind ik dat toch niet hoor.
Je gaat mij nooit horen spreken over "future-proof". Koop met het geld dat je vandaag hebt, het product dat vandaag aan je eisen voldoet. Niemand kan de toekomst voorspellen, dus extra geld uitgeven in de hoop dat je er iets langer mee kunt is gewoon onzinnig. Toch in deze sector.
de 4060 gaat in veel prebuilds terechtkomen.....jaja voor mensen die er niks van begrijpen en erin stinken yup.
Deze 4060 is gewoon wat je niet in je PC wilt.
Daarom zeg ik ook altijd tegen familie of kennis....wacht met je aankoop { eerst checke }
Nee voor mensen die andere wensen hebben dan jij. lk zie eerlijk gezegd ook geen andere GPU die ik in deze prijsklasse wil. AMD en last gen Nvidia verbruiken mij teveel stroom. Daar ben ik al een jaartje of 10 consequent in. In prebuilds zal deze een kosten besparing voor prebuilders betekenen vanwege het stroomverbruik. Ook is NVIDIA een merk waar ze al lang vertrouwen in kunnen hebben. Brand loyality is voor veel wat minder technisch begaafden iets essentieels. Zo zitten er ook al heel volkstammen op verschillende generaties Xboxen en Playstations.
Inderdaad ik raad ook iedereen aan om eens rustig te kijken, maar het valt mij nu al mee in de reviews wat deze kaart brengt tov de eerdere geruchten die eerder van een laptop 4060 leken te komen. Laat je dus nu ook niet overhaast een NVIDIA 3060 (ti) of iets van AMD aansmeren. De magazijnen liggen daar gezien de reacties nog propvol mee. Een volgende molensteen voor de webwinkels.
Gen3 is nog gewoon Ryzen 5000, de vorige amd generatie . Die gaat bij mij voorlopig zeker nog niet een upgrade krijgen. Sterker nog , is net een nieuwe 5800x3d in gezet.
Mijn B450m laat in het bios niets anders dan gen3 zien.
Cpu-z laat weer gen4 zien.
Nvidia driver info window laat weer zien dat ie op x16 gen3 draait.
Als je een 500 series hebt heb je gen4. Maar als je videokaart gen4 zijn en je cpu gen4 maar het mainboard niet is het 'undefined' wat je gaat krijgen zover ik kan zien.
Was de introductie van B550 niet gelijk met de Ryzen 5000 serie ? Het scheelde toen ook niet veel in prijs iig (En dit is gewoon interesse, want ik ben pas terug op AMD sinds december)
[Reactie gewijzigd door AtariXLfanboy op 22 juli 2024 13:20]
hmm... maybe. Ik weet dat een 5000 serie wel in een 300 series / 400 series / 500 series kan, dus je vind mensen met een 5000 serie (en juist nu de 5800x3d sinds ie een goede price-drop heeft gehad, zie het artikel wat tweakers er over schreef) met al die chipsets bij elkaar.
PCI-E versies is 'vroegah' nooit een erg belangrijk ding geweest. Naar gen2 en gen3, er was toen niet iets wat de bus vol kon gooien.
In het midden segment - deze kaart bijvoorbeeld - is dat dus zeker ook van kracht.
Het is gewoon veel meer een 'opletten' momentje geworden sinds fabrikanten gaan bezuinigen op de hoeveelheid koper door een 8x of zelfs x4 interface op een kaart te zetten, met het idee 'gen4 / gen5 fixed dat wel'.
[Reactie gewijzigd door dipje2 op 22 juli 2024 13:20]
Nee hoor, ik ga deze helemaal niet kopen.
Deze kaart is blijkbaar in de markt gezet voor 1080p systemen, en aangezien ik daar 7 jaar geleden al een 1060 voor gekocht had, heb ik deze overpriced troep niet nodig.
Maar.. framegen doet niets met de latency, behalve het misschien nog wel slechter maken.
Dus je moet eerst de game performant zien te krijgen op een CONSISTENTE framerate met fijne latency (dus toch wel boven de 60fps), en dan kan framegen helpen om het vloeiender te maken voor 120hz schermen bijvoorbeeld .
Als je een 30fps game naar 60fps probeert te krijgen met framegen , speelt en voelt het nog steeds als 30fps , zo niet slechter. Dus geen nut ??
Een goede motion blur implementatie op een 30fps game gaat je een fijnere ervaring geven denk ik zelfs.
EN reflex doet wel latency dalen, idd die 60fps zal niet als 60 voelen (mijn opmerking was dat dit wel effectief 60 fps is en niet zoals sommige schijnen te denken nog steeds
30fps) . Deze kaart kan niet plots alles wat dat ondersteund op 4k ultra spelen he zegt niemand, maar in sommige gevallen word 1440p wel speelbaar of krijg je veel hogere 1080p frame rates.
DAt negeren is gewoon deel van de kaart negeren
[Reactie gewijzigd door k995 op 22 juli 2024 13:20]
punt van reflex is, is dat reflex ook werkt zonder framegen.
Dus als je latency gaat vergelijken, moet je niet 'framegen uit, reflex uit' gaan vergelijken met 'framegen aan, reflex aan'.
Nvidia heeft reflex 'verplicht' gesteld voor implementatie DLSS3, als een spel er dan ergens voor kiest om dat alleen met framegen aan toe te passen / mogelijk te maken, dan mag dat spel ergens op de stapel en vergeten worden.
Ik denk echt dat mensen 'frame rates' overschatten in wat het doet voor de speelervaring.
30fps, framegen aan naar 60fps... het gaat niet heel veel anders zijn dan 30fps met een hele goede motionblur implementatie. Think about that.
Mensen hadden het over 'fake frames' en zo, en dat is inderdaad onzin.
Maar.... _DE_ reden _WAAROM_ hogere framerates gewild zijn, is voor de lagere latency. En dat geeft framegen / DLSS3 je gewoon niet.
Als ik kan kiezen tussen 'very high, MET DLSS3 op 60fps' of op medium met dlss2 en 60fps, kies ik altijd zonder pardon voor het laatste.
Een ander verhaal wordt het voor CPU bound spellen die gewoon niet boven de 30fps zouden uitkomen ongeacht resolutie / gpu settings. Want daar kan framegen daadwerkelijk extra frames geven wat niet kan met andere settings. Maar... ik claim dus dat die frames de speelervaring NIET gaan verbeteren en dat het nog steeds ruk is.
Denk terug aan de SLI tijd dat iedereen zo geweldig naar z'n framerate counter zat te kijken hoe hoog die wel niet was... maar vervolgens er wel achter kwamen dat 'settings naar beneden, SLI uit' een veel fijnere ervaring gaf..
Het gaat gewoon NIET om een hoger getalletje in de FPS counter. En daar komen mensen achter met framegen met lage base framerates.
Ten eerste laten we wel dit in context plaatsen: buiten the last of us (een slechte port) vind je geen spel in 1440p waarop deze kaart 30fps heeft wat het onspeelbaar maakt.
Echter heb je daar een 6800 nodig om dit spel speelbaar (+60fps) te maken op 1440p ultra wat al een heel andere prijs klasse is.
cyberpunk 1440p 4070 : native 36fps latency 60-65ms , als ze super resolution aanzetten gaat dit naar 60fps 40-45 ms (logisch ) met frame generation in SR op quality gaat dit naar 90fps en 50-55ms latency.
Bekijk gerust zelf of jij het verschil tussen de beide kan zien, ik alvast niet.
Qua latency is die 10ms erbij ook verwaarloosbaar . veel mensen zien ergens een youtube filmpje over latency soms van diegene die meesurfen op de "alle bedrijven zijn slecht" hype van tegenwoordig en vergeten te kijken naar de effectieve waardes. Echter zoals je duidelijk kan kan je met bijna geen verlies van beeld kwaliteit van 36fps->90fps met een betere latency dankzij dlss3 , en ja dat gaat echt wel een veel vloeiender spel geven.
vandaar dat ik zeg dat als tweakers echt wil reviewen ze dat moeten doen, wat ze nu doen zegt niks.
> Ten eerste laten we wel dit in context plaatsen: buiten the last of us (een slechte port) vind je geen spel in 1440p waarop deze kaart 30fps heeft wat het onspeelbaar maakt.
Daar heb ik me nog niet in verdiept, maar dat is zeker waard. Haalt mijn punt ook niet onderuit dat ik vind dat DLSS3 pas een ding is bij 60+ fps .
(en last of us is stukken beter geworden maar nog steeds een moeilijke en uitzondering-port die je inderdaad niet mee mag nemen in vraagstukken over 'hoeveel ram is genoeg' en 'wat heb je nodig om..'.
Ik heb _persoonlijk_ wel een beetje FOMO en angst dat er alleen maar slechte PC ports gaan komen. Dat is wat de historie altijd laat zien namelijk.).
> Bekijk gerust zelf of jij het verschil tussen de beide kan zien, ik alvast niet.
Het gaat dus ook niet om wat je ziet. Het gaat om de latency. Dus het gaat om wat je _doet_. Het effect van DLSS3 / framegen kan je alleen ervaren in real life, net zoals VRR.
Digital Foundry heeft dit zo uitvoerig getest en netjes tabelletjes mee gemaakt. Latency wordt er nooit beter door, ze adviseren het bij 80fps plus zelfs. Nvidia zelf zegt dat je er eigenlijk VRR voor nodig hebt, alhoewel ze wel iets gepoogd hebben om het met frameliimts netjes te cappen op 120fps (maar daarmee dus de latency te cappen op een native 60fps ervaring).
In dit voorbeeld heb je dus al 60fps zonder framegen, en dus precies het punt waar ik zeg dat het wel wat kan toevoegen om richting de 120fps te gaan. Native heb je dan al een goede speel ervaring, en framegen maakt het soepeler.
Zet de settings gewoon eens zo zodat je zonder framegen 60fps haalt, en speel eventjes.
Zet de settings nu zo dat je 30fps haalt, zet framegen aan, en speel dan eventjes. Zelfs de meest onervaren gamer voelt dat gelijk.
Reviews doen er goed aan om te zeggen dat DLSS3 supported is (wat tweakers nu ook doet), en ze kunnen best benches laten zien met het aan en uit.
Maar als die benches met framegen uit < 60fps zijn, ben je je bezoekers aan het verleiden door daarmee te laten lijken alsof er een fijne 60fps ervaring te krijgen is met DLSS3, wat niet het geval is (in dat geval dus).
In de steamdeck wereld zie je ook mensen die hopen dat 'FSR3' ooit een ding gaat worden om de games die daar nu de 30fps amper halen beter te maken. Daar probeer ik hetzelfde uit te leggen, dat het niets gaat toevoegen op een slechte ervaring.
Het maakt een goede game-ervaring beter, het maakt een slechte game-ervaring niet opeens een goede. Shit in is shit out blijft gewoon van kracht.
Dat is natuurlijk wel afhankelijk van wat je wil bereiken. frame generation is namelijk niet enkel positief. zo zie je bijvoorbeeld in diverse games (flinke) artifacts, iets waar veel mensen direct op afknappen. Daarnaast heeft het ook impact op de latency, wat het voor multiplayer titels niet ideaal maakt (en voor sommigen zelfs onspeelbaar)
Speel je echter vooral solo games, maakt latency je niet uit, en zijn het games waarbij je geen snelle bewegingen hoeft te maken, dan kan frame generation inderdaad wat bijdragen aan de ervaring.
Heb het zelf al aangezet en neen, je merkt het niet ook niet in snalle bewegingen als je er niet specefiek op let en/of het pauseert.
Latency is voor singleplayer games geen enkel issue en kan je beperken in nvidia kaarten.
Raar dat tweakers het zelf amper vemeld laat staan niet test.
Ik vind dat opzich vrij logisch, frame generation is op dit moment nog voornamelijk een marketing vehicel voor Nvidia om van deze generatie nog iets te proberen te maken van de meeste kaarten* doordat ze hun kaarten, net als AMD trouwens, zeer beroerd gepositioneerd hebben tot nu toe vergeleken met de vorige generatie. Tweakers (en ook de meeste andere tech reviewers zijn echter geen marketing spreekbuis voor Nvidia. Dat de review outlets hun test suites niet aanpassen voor FG en dat FG dus grotendeels een voetnoot is op het moment, is dan eigenlijk ook volkomen logisch (net als enkele jaren geleden RT een voetnoot was in de reviews), als over enkele jaren (en een paar generatie's verder) FG doorgebroken is ga je dit vanzelf in veel meer suites zien. Gebeurt dat niet, dan zij het zo.
*Immers alleen in de handvol games die FG support maken ze een flinke stap ten opzichte van de vorige generatie in de meeste gevallen met de 4060 tot en met 4080, alleen de 4090 maakt wat dat betreft ook zonder FG een mooie stap qua prijs / performance.
[Reactie gewijzigd door Dennism op 22 juli 2024 13:20]
Dat de review outlets hun test suites niet aanpassen voor FG en dat FG dus grotendeels een voetnoot is op het moment, is dan eigenlijk ook volkomen logisch (net als enkele jaren geleden RT een voetnoot was in de reviews),
Waarom is dat volkomen logisch?
Ik kan jouw stelling ook omdraaien: "Review outlets zijn de spreekbuis van nVidia, en omdat FG slecht werkt reviewen ze het niet."
Potentiele kopers van deze kaart willen graag weten of FG een (deel v/d) prijs kan rechtvaardigen. Of het echt iets toevoegt of dat het slecht marketing praat is.
Echter reviewers weten dat ook. De enige reden dat het niet gebeurt is "teveel werk", onkunde, en een kosten baten analyse.
Waarom dat logisch is, is omdat het aanbod aan games nog maar zo klein is, en de meeste reviewers hebben een grotendeels vaste suite aan games (en hetzelfde review systeem) voor langere tijd (sommigen per jaar of per half jaar, anderen per generatie gpu's bijvoorbeeld), zodat de data consistent blijft. Dan ga je niet omdat iemand een nieuwe techniek lanceert waar nog vrijwel geen adoptie een hele suite omgooien. maar maar zoveel mogelijk titels (die mogelijk niet eens populair of relevant zijn in de markt) in je suite te krijgen.
Wat ze dan over het algemeen doen is, net zoals het bij RT ging de eerste generaties is dat het of wel enkel genoemd wordt, of dat er een apart kopje waar je 1 of 2 extra games laat zien (of zelf aparte review) komt voor enkel die techniek, om zo toch wat duiding te geven, zonder dat je al je data uit eerdere reviews weg kan gooien.
Ik kan jouw stelling ook omdraaien: "Review outlets zijn de spreekbuis van nVidia, en omdat FG slecht werkt reviewen ze het niet."
Dat zou enkel zo zijn wanneer deze review outlets positief zouden zijn over deze kaarten, wat uiteraard niet zo is, iedere gerenommeerde reviewer brand ze zo'n beetje tot de grond af, en benoemd FG als vrij irrelevant op dit moment.
[Reactie gewijzigd door Dennism op 22 juli 2024 13:20]
Daar moet je code voor wijzigen als ik me niet vergis dus alles dat niet rendabel is zal nooit DSS3 krijgen denk ik. Dus welke studio's gaan hun oude games stream-linen voor DSS3 en welke games? Daar ben je afhankelijk van de ontwikkelaars.
Ook zonder FG biedt de RX7600 maar bar weinig meer met meer stroomverbruik voor wie niet wil undervolten... Wie weet komt er nu dan wel die prijsverlaging ?
Ik ben er bang voor, zelfs al zou die verlaging komen is de 7600 immers nog altijd een matig product. Ik vrees er een beetje voor dat in ieder geval deze generatie het nog heel lang gaat duren, als het al gebeurd, dat deze kaarten de prijs gaan krijgen die ze eigenlijk performance technisch gezien zouden moeten hebben. De 7600 was bij release bijna 100 euro te duur, en dit is ook gewoon zo'n beetje 100 euro te duur voor wat je krijgt.
Als het vermindere stroomverbruik compleet negeert wat in 3 jaar in de buurt van die 100 euro komt. Of je moet wel erg weinig gamen. Natuurlijk willen het allemaal goedkoper hebben als consument.
Jij merkt het niet, betekend niet dat niemand het merkt
Maar het grootste probleem met marketen met DLLS3 vind ik dat er maar iets van 50+ games zijn die het ondersteunen, moet maar precies de spellen tussen zitten die jij speelt
Als deze techiek op elke game werkte zonder aanpassingen zou ik het terecht vinden om er mee te marketen, maar nu vind ik het zwaar belachelijk en brengen ze gewoon een kaart uit die niet eens sneller is als de 3060ti en amper sneller als de 3060, wat de voorganger is
De wereld wordt mij te klein als mensen dit ook nog gaan goed praten
Als ik zie is het verschil ongeveer even groot tussen de 2060->3060 (een 15%) in 1080p ultra (waar de kaart voor dient eigenlijk) . Tel daarbij dlss3 , minder stroom en doen alsof dit de slechtste kaart is is absurd (maar past ind e tijden)
als je ze niet goed vind-> koop ze niet? Enige manier om nvdia iets te leren als dat je mening is.
Het is in mijn ervaring zelden de moeite waard om naar hetzelfde model van de volgende generatie te upgraden. Het is weleens nuttig, bijvoorbeeld de GTX 1070, maar meestal ga je het pas echt merken wanneer je tegelijkertijd een duurdere variant kiest. Deze keer is het overigens inderdaad wel héél erg mager met slechts enkele procenten prestatie winst.
1 generatie upgraden binnen dezelfde tier is bijna nooit een goed idee. Dat is niet nieuw.
Dit wordt iedere keer gecomment bij een RTX 4000 launch, maar dit is al zo ontzettend lang zo.
760 -> 960 was het niet waard
960 -> 1060 ook niet
1060 -> 1660 ook niet
1060 -> 2060 ook niet
2060 -> 3060 ook niet
en dus ook 3060 naar 4060 niet.
verwissel alle 6'en met 7'ens en het verhaal klopt nog, datzelfde voor 8.
[Reactie gewijzigd door youridv1 op 22 juli 2024 13:20]
9600GT -> 650ti OC wel
650ti OC -> 960 4Gb wel
960 4Gb -> 1660 Super wel (voor gpu shortage)
1660 Super -> 4060 Ik ben er nog niet uit... RX7600 valt definitief af. Ook als deze goedkoper wordt
Mijn budget is in de loop van de tijd wel wat gegroeid, maar niet zoveel dat ik dan maar vaker een GPU koop
[Reactie gewijzigd door AtariXLfanboy op 22 juli 2024 13:20]
Nee, die valt buiten mijn wensen wat energieverbruik (230W) betreft. Ook is deze kaart ook al wat ouder dus zal driversupport ed eerder stoppen. Zoals je als je al ziet koop ik niet al te vaak een videokaart en dan moet ie dus lang mee kunnen.
[Reactie gewijzigd door AtariXLfanboy op 22 juli 2024 13:20]
wattage kan vermindert worden met een uv/een slider naar beneden te halen. het is ouder maar qua driver support duurt het echt nog wel even voor het uit valt hoor. bovendien zou je echt minder perf krijgen met een 4060 en dat is pas iets wat sneller weg zal vallen dan de driver support. Daar moet je naar kijken als je wilt dat het langer mee gaat, en sws die 8gb vram is echt niet meer genoeg straks zelfs voor 1080p in aaa titles. dus wil je lang mee kunnen moet je toch echt even verder kijken dan de 4060 ookal kost het wat meer stroom.
bovendien snap ik niet waar je die 230w weg haalt.
in veel gevallen zal het eerder tussen de 150-200w zitten. met een goeie uv zit je dus ruim goed.
Je weet dat een systeem instabiel kan worden door undervolten? Dit valt dus mij in dezelfde 'sillicon lottery' categorie als overclocken. Tuurlijk ken ik de verhalen dat het allemaal zo mooi draait en nooit een probleem oplevert. Ook zo vaak gehoord bij overclockers. En soms later een compleet drama
Ik had de specs snel bekeken op tweakers.
Zelfs een kleine undervolt is meer dan genoeg. Bovendien halen gpus al geweldige perf met een 90% power target. Zoals ik al zei die gpu trekt echt geen 230 watts. En je zal echt langer mee gaan met een 6700xt dan een 4060.
Het blijft een Sillicon lottery wat jij hier beweert : De fabrikant kiest voor settings waarbij ook de wat minder succesvolle chips stabiel blijven draaien. Anekedotisch bewijs zegt me hier helemaal niks. En het is best curieus om te beweren dat een oudere generatie GPU langer mee zal gaan. Maar ik heb besloten om dus helemaal geen ander GPU te kopen. De 1660 Super ,waar ik bij de aanschaf net zo kritisch ben geweest en er dus destijds ook al AMD undervolt verhaaltjes rondgingen, blijft nog wel een tijdje goed genoeg.
Ik weet niet of andere oude tweakers dat ook hebben, maar de claims zijn niet zoveel veranderd de afgelopen 15 jaar. Ik krijg wel de indruk dat veel AMD en tweedehands eigenaren veel vaker van GPU wisselen en dus persé niet de betere keuze maken.
ik weet niet wat meer ik jou hierover kan vertellen. de meeste halen makkelijk de -50 - 100mV wel.
En qua minder powerusage kunnen de meeste gpu's op 90% draaien tegenwoordig zonder enige perf te verliezen. Een oudere gpu gaat idd langer mee als het meer vram bied (8 vs 12) en meer performance (10-15%) vanaf het begin. Driver support zal nog wel zo 6-10 jaar duren voor de 6000 series van amd. Ik zie geen reden om van mijn huidige gpu te wisselen voor nog zo'n 4-5jaar. Ik doe meestal iets van 3 jaar. had hiervoor een 2070s maar die runde niet meer zo goed op 1440p en ben overgestapt naar de 6950xt die van mij heb ik nu op een -50mV runnen met 90% powertarget. geen enkele problemen gehad zover.
Je moet natuurlijk zelf beslissen als je er langer op wilt blijven. Mocht het genoeg zijn voor je huidige games dan valt het idd mee.
Nogmaals net als bij overclocken is het niet gegarandeerd door de fabrikant dat dit voor elke videokaart geldt.Bij een 2e handsje kun je zelfs eerder vanuit gaan dat dit niet zo is aangezien deze anders ook minder snel verkocht wordt natuurlijk.
Anekdotisch bewijs zou mensen weinig moeten zeggen op dit gebied, want net als bij overclocken hebben sommige gebruikers soms niet eens door dat problemen aan deze settings liggen. Voor de echte kundige tweakers dus, maar de praktijk leert mij iig dat het juist mensen die maar half weten wat ze doen met dit soort dingen bezig gaan. (Ik ben wat oc-en betreft ook wel ooit zo iemand geweest)
[Reactie gewijzigd door AtariXLfanboy op 22 juli 2024 13:20]
Hoe is dit: De kleinste chip voor de grootste doelgroep ??? De RX7600 is in de index maar 4,5% trager en 14% goedkoper dan de RTX4060. En de 6700XT een last gen GPU presteert beter, de 6600 XT is 20% goedkoper maar presteert maar 7,5% slechter. Dit is wel apart advies, dat dit de chip zou zijn voor de grootste groep........heeft de grootste groep geld te veel ??? Ofzo.
De 4060 heeft DLSS en CUDA. Dat is zo'n beetje de enige reden om bij Nvidia te blijven op het moment, denk ik. Zelfs met die eisen is het goedkoper om een 3060 Ti te kopen, maar er zijn redenen om nog even bij AMD weg te blijven.
De 4060 heeft wel veel beter stroomverbruik. Misschien dat het in de toekomst in laptops een mooie uitkomst zal zijn.
[Reactie gewijzigd door GertMenkel op 22 juli 2024 13:20]
Omdat het verhaal creatief met de waarheid speelt. Ja, de xx60 kaarten waren altijd de kaarten voor het grote midden segment, alleen wordt er niet verteld dat dit eigenlijk een xx50 klasse kaart is. Kleinste chip voor de grootste doelgroep klopt technisch, maar het riekt wel naar misleiding van de consument als de 'die size' niet even groot meer is als voorgaande generaties in hetzelfde segment.
[Reactie gewijzigd door Anoniem: 407645 op 22 juli 2024 13:20]
Ze zeggen gewoon dat dit altijd de bang doe buck voor de mainstream is geweest. En gaan er vervolgens op in dat door de performance en prijs het nu dus niet meer is.
De kaarten die jij noemt worden juist as gehaald , bijvoorbeeld in de conclusie.
Voelt voor mij als 'openings zin verkeerd begrepen , niet verder gelezen'.
Wat de meeste reviewers al aangeven, een 4050 die Nvidia met software technieken wanhopig probeert te verkopen voor 4060TI / 4070 prijzen.
En dan hebben we het maar niet over de 8gb Vram. het enige positieve aan de nieuwe kaarten is er eindelijk eens wordt gewerkt aan het stroomverbruik tov de performance. Maar ja dat is alleen een ding voor de Europese consument het zal de gemiddelde Amerikaan worst wezen dat deze kaarten minder energie verbruiken....
Moet ik zeggen dat juist bij een laten we zeggen 4050 equivalente kaart, de 8GB VRAM imo prima verdedigd kan worden. Bij snellere kaarten zal je veel eerder tegen een probleem lopen, maar bij een 4050 kan je ook niet verwachten dat je de zwaarste spellen op 4k met hoogste texture settings kan spelen.
Dan ben ik heel benieuwd hoe een eventuele RTX 4050 er uit gaat zien. De 50-serie is doorgaans ook vrij populair voor budget builds, maar als ik dit zo zie wordt dat eerder een GT 1030 met DLSS of iets dergelijks.
De vraag is of deze überhaupt op de markt gaat komen. Het trucje met de 4000 serie is dat DLSS3 de framerates leuk op kan poetsen, maar daarvoor moet er in de basis wel genoeg power zijn voor een speelbare baseline. Als een 4050 dat niet kan bieden, wordt het een lastig te vermarkten product wat enkel z'n bestaansrecht ontleend aan het Nvidia logo.
Maar of marketingtechnisch een verstandige keuze is, wanneer je de mensen nu ook gewoon een 4060 kunt laten kopen als instapper, is de vraag.
Nvidia verkoopt met dit soort kaarten geen GPU performance, maar afhankelijkheid op hun DLSS software om nog IETS van acceptabele fps te halen. Dit is gewoon onderdeel van een groter plan.
Maar dan koopt de klant toch over een paar jaar dan toch alsnog een AMD kaart? Kunnen ze eerst een paar jaar genieten van een kaart die met minder stroomverbruik (zonder dubieus undervolten) veel meer functionaliteit geeft. Alleen in brute performance lijkt de 4060 in sommige spellen een paar % onder te doen,
Maar dat lage stroomverbruik is weer een resultaat van de krimpflatie die ze hebben toegepast bij deze gpu, wat tevens ook weer de reden is waardoor die niet zo snel is.
Wat voor tests moeten ze doen? Een vergelijking met een 3060 zonder fg en een 4060 met fg zou enorm misleidend zijn. Frame generation is geen wondermiddel, en de input lag die het toevoegt zullen niet naar voren komen in tests. In de grafieken LIJKT de 4060 dan idioot veel beter, maar dat is dus niet zo.
Want 60fps met frame generation voelt alsnog vergelijkbaar met 30fps, de beelden zijn wel soepeler, maar je hebt ook visuele artefacten, omdat het nep frames zijn. Boven de 120fps+ met frame generation is het vrij goed en merk je de extra input lag niet zozeer, maar dat is niet echt iets wat je veel zal halen met deze kaart.
Dat is nou juist het geniepige aan frame generation, en de reden dat Nvidia het heeft uitgebracht deze generatie. Door fg kunnen ze veel betere 'performance' claimen, terwijl deze generatie eigenlijk belabberde performance heeft tov. vorige generaties.
Ik gebruik frame generation zelf in cyberpunk met een 4080, en daar voegt het wel wat toe, maar dat is dus op framerates hoger dan 120fps. Het is een leuke bonus feature, maar zeker op lage framerates kun je beter dlss gebruiken zonder frame generation.
[Reactie gewijzigd door Raphire op 22 juli 2024 13:20]
Neen, 60fps via frame generation ziet eruit als 60fps niet 30fps die latency die erbij komt is minimaal.
EN latency kan je gewoon op testen hoor. het IS gewoon iets wat als ondersteund goed kan werken niet iets wat ze "geniepig" ertoe voegen "om de gamer in de loeren te leggen".
Daarbij van 2060fe->3060 +18%
3060->4060 +15%
1080p ultra ligt toch echt in lijn.
Het ziet er grotendeels uit als 60 fps, je hebt op dergelijke framerates wel merkbare visuele artefacten. Maar het grootste probleem is dat het voelt als 30fps als je beweegt of rondrijd. De input lag is gewoon veel hoger. Dat maakt het voor mij onbruikbaar voor bijna alle games op dergelijke framerates.
Edit: De 3060 was destijds ook erg slecht ontvangen, andere 30 series kaarten hadden veel grotere performance gains dan de 3060 tov de 2060.
Je kan zeker de latency testen, dat zou dan zeker een vereiste moeten zijn als je het test. Maar ik zou liever zien dat tweakers een frame generation test doet voor de hele 40-serie. Dat hoeft niet bij elke kaart getest te worden.
[Reactie gewijzigd door Raphire op 22 juli 2024 13:20]
Artefacts spreekt niemand over bij gewoon gamen, latency wel, waar reflex wat opbrengt maar het niet verhelpt. Zelf als brengt het maar 20-30% extra fps op met wat je voelt dan nog is dat een enorme sprong tov stock.
Er zijn zeker in veel games nog artifacts die ook tijdens spelen goed opvallen. Vooral op de interface, nvidia zou dat hebben gefixt, maar in veel games is het nog wel degelijk een probleem: https://youtu.be/uVCDXD7150U
Los van de interface heeft de rest van de game ook wel artifacten, maar dat is vooral bij lagere framerates zichtbaar: https://youtu.be/GkUAGMYg5Lw
Reflex helpt inderdaad met het verlagen van latency, het is fijn dat meer games dat nu implementeren. Ook voor als je geen FG gebruikt.
Ik ben het met je eens dat in sommige games het wel degelijk helpt, maar het is niet hetzelfde als echte performance, en je moet al een goede framerate hebben voor een goede ervaring.
Het probleem is dat nvidia in de marketing wel doet alsof performance met fg hetzelfde is als echte performance, en zo doet alsof kaarten als de 4060 enorm veel meer performance hebben dan eigenlijk het geval is. En ik vind dat reviewers daar niet in mee moeten gaan.
[Reactie gewijzigd door Raphire op 22 juli 2024 13:20]
Daarom juist dat reviews dat mee moeten opmeten, veel van de zaken die je opsomt lossen zichzelf op door de games zelf de dlss up te daten trouwens. Waar ze daar nog spreken van 07 zitten ze nu al op 13 nvidia veranderd wel wat elke maand.
Het was meer een voorbeeld. Maar wel iets wat je misschien zal meemaken met deze kaart. Zeker als je op 1440p speelt (een resolutie die nu vrij populair is/wordt) dan zul je opsommige games onder de 60fps komen te zitten met deze kaart.
Ik zou zelf niet meer kunnen spelen op 30fps met toetsenbord/muis, alleen de input lag is al genoeg om het praktisch onspeelbaar te maken. Frame generation maakt daar geen verandering in. Op consoles is het verhaal trouwens wel wat anders, omdat je daar met een controller speelt ipv een muis/toetsenbord, mijn steamdeck is bijvoorbeeld prima speelbaar op 30fps, al is 40 of 60fps wel echt merkbaar beter.
[Reactie gewijzigd door Raphire op 22 juli 2024 13:20]
Sommige spellen speel ik ook wel met een controller op de PC en heb bv GTA V met een GTX960 gestreamed op de bank via een ShieldTV zitten spelen in 1080p. Dat zorgde dus ook wel voor enige lag, maar ik heb dat niet echt als hinderlijk ervaren. Veel van de toetsenbord/muis spelletjes is lag helemaal niet zo belangrijk... denk daarbij aan RPG, RTS en andere strategie georiënteerde spellen.
Ik denk dat het meer een kwestie van gewenning is. Ook vraag ik me bij Frame generation ook af of het effect niet veel meer zichtbaar is als de gamer passief naar iets kijkt om artifacts op te sporen of vol in een spel is ondergedompeld
Nou zit ik hier met 2 goede 1080p schermen op een buro waar ook niet meer past dus heb ik verder niet zo veel met 1440p. Ik kan me prima inleven dat mensen met een 1440p scherm uiteraard wel graag op die resolutie spelen. Ik zou ook zeker de 4060 niet aanraden voor meer dan 1080p en ik ben er nog steeds niet uit of ik de 1660 Super ermee ga vervangen.
Het ligt inderdaad heel erg aan wat je speelt, hoe je het speelt, en wat je gewend bent. Doordat je inderdaad al wat meer latency hebt in bijv game streamen of met controller spelen zal het in die situaties ook minder verschil maken. Ik ben dan ook niet tegen frame generation of zoiets, het is een mooie bonus feature.
Mijn probleem met frame generation is dat Nvidia het gebruikt om de performance van hun 40-serie kaarten beter te laten lijken dan het daadwerkelijk is, dit doen ze door frame generation FPS cijfers direct te vergelijken met FPS cijfers van andere kaarten die geen frame generation hebben. Hierdoor LIJKT het alsof de 4060 tot bijna 2x zo goed is als de 3060, maar die nummers zijn compleet onvergelijkbaar. Zoals je uit de review van tweakers ziet ligt de eigenlijke performance toename van de 3060 -> 4060 rond de 15%.
[Reactie gewijzigd door Raphire op 22 juli 2024 13:20]
Als je dat nu niet hebt meegekregen dan heb je vandaag onder een steen geleefd denk ik of iig geen reviews gelezen of gezien. Het is meer dat de reviewers opzichtig de voordelen als bv het verminderde stroomverbruik van de 4060 negeren.(Zelfs een bepaald iemand die z'n miljonairs villa heeft volggeplemd met zonnepanelen en andere energiebesparende technieken) Maar hee f*** het milieu als het om GPU's gaat right?
Wat mij iig meeviel dat het beeld dat uit de gelekte cijfers in Cyberpunk ook voor veel andere spellen blijkt te kloppen. En waarom zou frame generation in elke freakin' game een voordeel moeten zijn als de concurrentie voor dezelfde prijs zonder deze settings ook niet echt veel meer levert met meer stroomverbruik? Het zal altijd uitzetbaar zijn.
Ik vatte Nvidia's marketings blabla dus ook meer op als een best case scenario zoals AMD dat ook regelmatig doet. Ik weet niet of je daar bij de vorige honderd releases van videokaarten ook zo'n punt van hebt gemaakt, maar ja : ga niet 100% af op de marketing blabla van producenten is een goed advies.
Het is geweldig dat de 40-serie zo energiezuinig is, ben ik met je eens, maar dat tezamen met frame generation is het enige positieve wat je over deze generatie kan zeggen. Vergeet trouwens ook niet dat de huidige generatie mede zo zuinig is omdat er in de 4060 wezenlijk een xx50 klasse chip zit, zoals @kiang ook al uitzette in zijn bericht. Dat verklaart ook waarom we zo weinig extra performance zien tov vorige generaties. Ik denk dat dat de hoofdreden is dat reviewers weinig positief zijn over deze, maar ook andere recente nvidia kaarten.
[Reactie gewijzigd door Raphire op 22 juli 2024 13:20]
De ene helft aan reviewers lijkt ontevreden over het gebrek aan performance winst terwijl dat het verleden bij een zuinigheidsstap wel vaker het geval is geweest en dat dus zelfs 15% dan niet gek is. Het zal me benieuwen of dit de deur opent voor een Low Profile 4050(ti) voor een leuke micro ATX systeempje.
Maar dan is er de veel vervelende helft van de reviewers die er een soort heilige oorlog tegen NVIDIA van probeert te maken. Dit gaat op een zo'n kleuterige manier dat het me doet denken woke aktivisten ed of al veel eerder het hele gemekker over Microsoft vs Netscape. (terechte winnaar Microsoft) Tuurlijk kun je kritiek hebben wat ze doen, maar als consument heb je ook recht op objectieve review van de kaart zelf ipv eentje over de bedrijfsstrategie van de maker. Die boeit me maar bijzonder weinig.
Het lijkt me ook langzamerhand wel dat dit soort reviewers zeker op youtube teveel hooi op hun narcistische vork nemen. Verslaafd aan de views die zich vertalen naar invloed en geld, maar dus ook naar prima donna gedrag.
Het gaat me hier dus niet om of ze kritiek hebben, want deze is terecht. Maar niet neutraal als reviewer meer zijn omdat je de producent wilt chanteren tot lagere prijzen is een stapje te ver.
[Reactie gewijzigd door AtariXLfanboy op 22 juli 2024 13:20]
De latency die erbij komt is minimaal, ten opzichte van de originele framerate .
Dus een 30fps game, die met framegen 60fps weet te doen, voelt als een marginaal SLECHTERE 30fps.
En DE reden om meer dan 30fps te willen, is latency . Niet hoe vloeiend het er uit ziet (dan was motion blur ook een goede oplossing geweest namelijk).
Framegen is leuk.. als je al meer dan 60fps haalt om het verder te boosten. Daaronder, nope.
Dit wordt ook beaamd in alle artikelen die uitleggen wat framegen is en hoe het werkt , en de testen die de op Cyberpunk deden.
Is helemaal niet misleidend, immers zorgt het voor een enorme performance boost voor de spellen die her ondersteunen. En als je nou net die spellen speelt, dan maakt het dus wel heel veel uit.
Het is geen performance boost, het is een smoothness boost. Het beeld ziet er soepeler uit, maar het VOELT nog steeds (ongeveer) als de originele framerate. Zeker in games waar je snelle bewegingen maakt, of waar je met de muis moet richten zul je dat merken. Je input wordt immers niet of amper meegenomen in de neppe frames die tussen de echte frames in komen te zitten.
Nvidia maakt in z'n marketing gretig gebruik van de rauwe FPS nummers in grafieken, door frame generation resultaten te vergelijken met kaarten die geen frame generation hebben. Zo laat nvidia je graag geloven dat de 4060 bijna twee keer zoveel FPS haalt als een 3060. Dat is gewoon enorm misleidend, want (bijv) 100fps met frame generation voelt toch echt compleet anders dan een andere kaart die 100fps kan halen zonder frame generation. Je kan die nummers niet vergelijken en naast elkaar in een grafiek plaatsen.
[Reactie gewijzigd door Raphire op 22 juli 2024 13:20]
Het beeld ziet er soepeler uit, maar het VOELT nog steeds (ongeveer) als de originele framerate
Precies. De beelden worden met 30fps aangemaakt, maar je krijgt ipv 1 nieuw beeld nu 2 beelden. Dat word dan als 60 fps weergegeven in je fps counter, maar het tempo is nog steeds 30 fps.
30 keer per seconden krijg je 2 nieuwe frames. Niet 60 keer per seconden 1 nieuw frame.
Uitmaakt voor wat? DLSS 3 is amper beschikbaar van de DLSS 2 ondersteunde games, diverse van de test-games hebben niet eens DLSS3 ondersteuning (Doom, Asseto) of simpelweg helemaal niet (valhalla).
Wordt bijna zo'n gimmick als RT op zulke kaarten, te selectief, te weinig, en in vergelijking met andere kaarten (zowel hogere, als voorgangers) is er helemaal weinig mee te testen behalve 'het werkt'.
[Reactie gewijzigd door SinergyX op 22 juli 2024 13:20]
DLSS3 en frame generation zijn een software gimmick die bij de meeste games niet eens worden ondersteund of lang niet vlekkeloos werkt. Volledig terecht dat de meeste reviewers zeggen dat ze deze technieken niet 1 op 1 klakkeloos overnemen van Nvidia.
SLaat toch nergens op, laat tweakers dat evalueren en zien of het echt slecht/niet werkt of het er niet uitziet of het wel degelijk indien ondersteunt iets is dat zonder dat je het merkt meer fps opleverd.
Gezien de reviews van voorgaande kaarten en deze is het dat laatste .
Gezien de reviews van voorgaande kaarten van oa optimum tech en hardware unboxed is frame gen een vrij nutteloze optie. Je fps stijgt wel, maar je input lag correspondeert niet met de fps verbetering omdat de frames generated zijn. Jouw input komt pas aan bod bij de volgende "echte" frame. Het is dus eigenlijk meer smoothing dan meer fps.
Daar is an sich niets mis mee, maar buiten flight sim is het een beetje nutteloos omdat het de speel ervaring niet echt verbetert buiten een marginaal soepeler beeld. Het ziet er grappig uit, totdat je de camera draait en de game aanvoelt alsof je op de helft van de fps speelt, want dat is ook eigenlijk zo.
Waar wel iets mis mee is, is dat Nvidia benchmarkt met frame gen aan by default, waardoor het lijkt alsof RTX 4000 veel sneller is dan 3000 en dat is gewoon niet waar.
[Reactie gewijzigd door youridv1 op 22 juli 2024 13:20]
witcher 3 heeft een aantal updates omdat dlss3 issues had. OOk nvidia heeft dat probleem al verholpen.
Lijkt me deze zaken juist dat tweakers moet testen
[Reactie gewijzigd door k995 op 22 juli 2024 13:20]