Door Reinoud Dik

Redacteur

De Nvidia-instapper voor 1080p

GeForce RTX 4060 Round-up

21-12-2024 • 06:00

207

Multipage-opmaak

Nvidia GeForce RTX 4060 round-up

Samengevat

Van de geteste RTX 4060's springt de ASUS Dual EVO OC er in algemene zin positief uit. De kaart is erg stil onder volle belasting en de temperaturen van de gpu blijven daarbij netjes laag. Het energiegebruik is iets hoger dan bij sommige andere modellen, maar absoluut gezien gaat dat maar om een klein verschil.

Nvidia's GeForce RTX 4060 is anderhalf jaar na introductie nog altijd een populaire instapkaart voor gaming op 1080p. Ook in de Pricewatch is terug te zien dat veel bezoekers op Tweakers geïnteresseerd zijn in deze kaart van grofweg 300 euro. In de Videokaart Best Buy Guide raden we de RTX 4060 bovendien al een tijdje aan voor gaming op 1080p met gemiddeld 60 frames per seconde. Aangezien Tweakers tot op heden nog geen vergelijking heeft gedaan van verschillende RTX 4060's, werd het nu toch eens tijd om de momenteel beschikbare modellen het tegen elkaar te laten opnemen. De kaart mag dan al de nodige tijd op de markt zijn, volgens de fabrikanten waarmee Tweakers sprak blijft het model komend jaar in elk geval nog courant. Naar verwachting duurt het bovendien ook nog wel even voor de RTX 4060 een opvolger krijgt.

Van de RTX 4060 heeft Nvidia geen Founders Edition uitgebracht. De beschikbare desktopversie van de RTX 4060 krijgt in tegenstelling tot de mobiele uitvoering wél de volledig ingeschakelde AD107 mee en telt daarmee 3072 actieve rekenkernen. Dat is minder dan op de RTX 3060, maar meer dan op de RTX 2060. Ook het aantal Tensor-cores, RT-cores, texture-units en render-outputprocessors is lager dan bij zijn voorgangers, net als de totale beschikbare geheugenbandbreedte. Daar staat tegenover dat de hoeveelheid cachegeheugen op de gpu juist wel enorm is toegenomen. De RTX 4060 kreeg bij introductie een adviesprijs van 329 euro mee. Inmiddels zijn de goedkoopste uitvoeringen voor iets minder dan 300 euro beschikbaar.

Uiteraard zit de RTX 4060 in het instapsegment niet alleen. Concurrent AMD heeft er zijn Radeon RX 7600 tegenover gezet en veel recenter bracht Intel zijn Arc B580 uit. Zodra er van laatstgenoemde kaart meerdere modellen goed beschikbaar zijn, zullen we die ook met elkaar vergelijken.

Videokaart RTX 4060 Ti RTX 4060 RTX 3060 RTX 2060
Gpu AD106 AD107 GA106 TU106
Architectuur Ada Lovelace Ada Lovelace Ampere Turing
Procedé TSMC '4N' 5nm TSMC '4N' 5nm Samsung 8nm TSMC 12nm
Diesize 190mm² 158,7mm² 276mm² 445mm²
Transistors 22,9 miljard 18,9 miljard 13,25 miljard 10,8 miljard
CUDA-cores 4352 3072 3584 1920
Tensor-cores 136 96 112 240
RT-cores 34 24 28 30
Texture-units 136 96 112 120
Rops 48 32 48 48
Baseclock 2310MHz 1830MHz 1320MHz 1365MHz
Boostclock 2535MHz 2460MHz 1777MHz 1680MHz
L2-cache 32MB 24MB 3MB 3MB
Vram 8GB GDDR6 8GB GDDR6 12GB GDDR6 6GB GDDR6
Geheugensnelheid 18Gbit/s 17Gbit/s 15Gbit/s 14Gbit/s
Geheugenbus 128bit 128bit 192bit 192bit
Bandbreedte 288GB/s 272GB/s 360GB/s 336GB/s
Tgp 160W 115W 170W 160W
Adviesprijs
(bij introductie)
449 euro (8GB-versie) 329 euro 349 euro 369 euro
Uitgebracht 23 mei 2023 28 juni 2023 25 februari 2021 7 januari 2019

Specificaties geteste RTX 4060's

De onderstaande tabel bevat een samenvattend overzicht van de features en eigenschappen van de besproken RTX 4060-videokaarten.

Specificaties GeForce RTX 4060-modellen

ASUS Gigabyte INNO3D MSI PNY
GeForce RTX 4060 Dual EVO OC ProArt OC Gaming OC OC Low Profile Windforce OC Twin X2 Ventus X2 OC Verto Dual
Prijs bij publicatie € 307 € 359 € 319 € 351 € 309 € 298 € 307 € 308
Actuele prijs € 317,99 € 384,10 € 337,99 € 352,61 € 310,- € 328,99 € 309,99 € 341,32
Boostclock 2535MHz 2580MHz 2550MHz 2475MHz 2475MHz 2460MHz 2505MHz 2460MHz
Ventilators 2x 90mm 3x 90mm 3x 75mm 3x 45mm 2x 75mm 2x 85mm 2x 88mm 2x 85mm
Backplate Metaal Metaal Metaal geen Plastic Metaal Plastic Metaal
Biosswitch Ja Ja Ja Nee Nee Nee Nee Nee
Verlichting/ledswitch Nee Nee Nee Nee Nee Nee Nee Nee
Beeldaansluitingen 3x DisplayPort
1x HDMI
2x DisplayPort
2x HDMI
2x DisplayPort
2x HDMI
2x DisplayPort
2x HDMI
3x DisplayPort
1x HDMI
3x DisplayPort
1x HDMI
3x DisplayPort
1x HDMI
3x DisplayPort
1x HDMI
Lengte 22,7cm 30cm 28,1cm 18,2cm 19,2cm 25cm 19,9cm 21cm
Breedte 12,3cm 12cm 11,4cm 6,9cm 12cm 11,8cm 12cm 11,5cm
Dikte (effectief) 3-slots 3-slots 2-slots 2-slots 2-slots 2-slots 2-slots 2-slots
Gewicht 640g 910g 680g 345g 515g 675g 545g 460g
Stroomtoevoer 1x 8-pin PEG 1x 8-pin PEG 1x 8-pin PEG 1x 8-pin PEG 1x 8-pin PEG 1x 8-pin PEG 1x 8-pin PEG 1x 8-pin PEG

Testmethode

Bij round-ups van videokaarten richten we ons primair op de onderlinge verschillen tussen de uitvoeringen van de diverse fabrikanten. In grote lijnen zullen de gamingprestaties van alle kaarten met dezelfde gpu vergelijkbaar zijn. Onze testmethode gebruikt dezelfde lijst van tien games als we gebruiken voor vergelijkingen tussen verschillende gpu's. Met onze prestatiescores vergelijken we de onderlinge verschillen tussen de geteste modellen van deze round-up en we tonen in de grafieken ook de prestatiescores van andere gpu's.

We testen videokaarten alleen op standaardinstellingen en op het stille bios als de kaart een biosswitch heeft. We gebruiken enkel de synthetische benchmark 3DMark Speed Way om de prestaties van een OC-bios of een Performance Mode te vergelijken, mits de videokaart deze heeft. De geluidsproductie en de koelprestaties worden dus allemaal gemeten zoals de fabrikant ze heeft afgesteld en zoals de gebruiker ze zal ondervinden zonder aanpassingen te doen. Het voordeel is dat er op deze manier sneller getest kan worden om tot nuttige resultaten voor de praktijk te komen en we daarmee vaker round-ups van verschillende videokaarten kunnen publiceren.

Geluidsproductie en stroomverbruik

We doen de meting van de geluidsproductie in onze geluiddichte ruimte op een afstand van 50cm met de decibelmeter schuin op de videokaart gericht. De drempelwaarde voor onze metingen is 12dB(A); dat mag je opvatten als volledig stil. Tijdens de Idle-test wordt de videokaart vanzelfsprekend niet belast tijdens het weergeven van een statisch bureaublad in Windows. De Load-test is gebaseerd op een verlengde gametest van vijftien minuten, zodat de videokaart tijd heeft om op te warmen en zijn maximale geluidsproductie te bereiken.

De stroommeting voeren we uit met een zogenoemde riserkaart van fabrikant Adex, die we tussen het PCIe-slot en de videokaart in plaatsen. Op die manier kunnen we niet alleen de stroom meten die door de losse stroomkabels loopt, maar ook het vermogen dat de videokaart rechtstreeks uit het PCIe-slot betrekt. Voor de meting vertrouwen we op verschillende exemplaren van de Tinkerforge Voltage/Current Bricklet 2.0. Voor de slotmeting is de riserkaart met een dergelijke bricklet uitgerust. Om de stroom van de PEG-kabel te meten is de bricklet samen met de benodigde connectors op een speciaal voor onze test ontworpen printplaat geplaatst. Afhankelijk van het aantal stroomkabels dat een videokaart vereist, gebruiken we uiteraard diverse meters.

Stroomverbruik meting videokaartenTinkerforge stroommeter

Testsysteem

Voor de tests van de videokaarten gebruiken we ons vaste testsysteem, gebaseerd op een watergekoelde Intel Core i9-13900K-processor, overgeklokt naar 5,5GHz-allcore. Omdat de E-cores van deze processor in een aantal van onze tests tot prestatieverlies leiden, hebben we die op ons platform geheel uitgeschakeld. Daarmee blijven dus enkel alle acht performancecores met zestien threads actief. Als werkgeheugen gebruiken we 32GB snel DDR5-7200 met relatief strakke timings, zodat de cpu en het ram zo min mogelijk de beperkende factor vormen voor het meten van gpu-prestaties.

De exacte specificaties van het testsysteem zijn in de tabel hieronder te vinden.

Testsysteem gpu's
Processor Intel Core i9-13900K (P-cores @5,5GHz, E-cores uitgeschakeld)
Moederbord Gigabyte Aorus Z790 Master (resizable bar ingeschakeld)
Werkgeheugen G.Skill Trident Z RGB F5 32GB (2x 16GB) DDR5-7200 CL34-45-45-115
Ssd Silicon Power XS70 4TB
Voeding FSP Hydro PTM Pro ATX3.0 1200W
Koeling Alphacool Eisblock XPX, Alphacool XT45 480mm-radiator, Alphacool D5-waterpomp, be quiet Pure Wings 2-ventilators
Testbench Streacom BC1 V2 Benchtable
Besturingssysteem Windows 11

Prestaties

In deze round-up vergelijken we een reeks RTX 4060-videokaarten die door boardpartners op de markt zijn gebracht. In onze nieuwe testmethode gebruiken we dezelfde lijst games als bij gpu-reviews. We gebruiken dan ook dezelfde prestatiescore, wat een gewogen gemiddelde is van tien games die hieronder ook per stuk zijn te bekijken. Zoals gebruikelijk zijn de verschillen tussen de geteste modellen erg klein; geen van de RTX 4060's springt eruit ten opzichte van de rest.

Tweakers GPU Prestatiescore 2024-1 - 1080p ultra
Videokaart Videokaart driver Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 4090 546.52
216,6
Radeon RX 7900 XTX 23.12.1
201,1
GeForce RTX 4080 Super 551.22
194,2
GeForce RTX 4080 546.52
191,4
Radeon RX 7900 XT 23.12.1
182,1
GeForce RTX 4070 Ti Super 551.15
169,3
GeForce RTX 4070 Ti 546.52
168,7
Radeon RX 7900 GRE 24.2.1
161,3
GeForce RTX 4070 Super 546.52
156,3
Radeon RX 6950 XT 23.12.1
155,4
GeForce RTX 3090 546.52
149,2
Radeon RX 7800 XT 23.12.1
146,9
GeForce RTX 4070 546.52
140,2
Radeon RX 6800 XT 23.12.1
139,6
GeForce RTX 3080 546.52
136,2
AMD Radeon RX 7700 XT 24.12.1
126,3
GeForce RTX 3070 Ti 546.52
119,3
GeForce RTX 3070 FE 566.36
112,6
GeForce RTX 4060 Ti 8GB FE 566.36
111,4
Radeon RX 6750 XT 24.12.1
105,4
GeForce RTX 3060 Ti FE 566.36
98,1
Radeon RX 6700 XT 23.12.1
97,0
Arc B580 101.6319
93,3
Radeon RX 7600 XT 24.12.1
92,7
Gigabyte Gaming OC 566.14
91,7
Gigabyte Gaming OC (performance mode) 566.14
91,6
Inno3D Twin X2 566.14
90,5
ASUS Dual EVO OC (performance mode) 566.14
90,4
PNY Verto Dual Fan 566.14
90,1
Gigabyte Windforce OC 566.14
90,1
ASUS Dual EVO OC 566.14
89,5
Gigabyte OC Low Profile 566.14
89,4
MSI Ventus 2X Black OC 566.14
89,1
ASUS ProArt OC 566.14
89,0
ASUS ProArt OC (performance mode) 566.14
88,6
Radeon RX 7600 24.1.1
85,5
Radeon RX 6650 XT 24.12.1
81,4
Arc A770 16GB 101.6319
78,1
GeForce RTX 3060 12GB 566.36
75,8
Radeon RX 6600 23.12.1
68,9
Arc A750 8GB 101.6319
67,7
Arc A580 101.6319
64,7
GeForce RTX 2060 546.52
58,6
GeForce RTX 3050 546.52
54,3
  • Speed Way - Fps
  • Speed Way - Score
3DMark Speed Way - FPS
Videokaart Gemiddelde frames per seconde in fps (hoger is beter)
Gigabyte Gaming OC (performance mode)
26,8
Gigabyte Gaming OC
26,8
PNY Verto Dual Fan
26,7
Inno3D Twin X2
26,7
ASUS Dual EVO OC (performance mode)
26,6
Gigabyte OC Low Profile
26,6
ASUS Dual EVO OC
26,5
Gigabyte Windforce OC
26,5
ASUS ProArt OC (performance mode)
26,4
ASUS ProArt OC
26,4
MSI Ventus 2X Black OC
26,4
3DMark Speed Way - Score
Videokaart Gemiddelde score in punten (hoger is beter)
Gigabyte Gaming OC (performance mode)
2.683
Gigabyte Gaming OC
2.682
PNY Verto Dual Fan
2.667
Inno3D Twin X2
2.665
ASUS Dual EVO OC (performance mode)
2.663
Gigabyte OC Low Profile
2.658
ASUS Dual EVO OC
2.653
Gigabyte Windforce OC
2.648
ASUS ProArt OC (performance mode)
2.643
ASUS ProArt OC
2.642
MSI Ventus 2X Black OC
2.641

Prestaties per geteste game

  • AC: Mirage
  • Assetto CC 2024
  • Avatar
  • CoD: MWII
  • Cyberpunk 2077
  • Doom Eternal
  • F1 23
  • Forza Motorsport
  • Starfield
  • The Callisto Protocol
Assassin's Creed Mirage - 1920x1080 - Ultra
Videokaart Videokaart driver Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 4080 Super 551.22
186,3
GeForce RTX 4090 546.52
181,3
Radeon RX 7900 XTX 23.12.1
178,4
GeForce RTX 4080 546.52
178,0
Radeon RX 7900 XT 23.12.1
177,6
GeForce RTX 4070 Ti Super 551.15
170,3
GeForce RTX 4070 Ti 546.52
167,8
Radeon RX 6950 XT 23.12.1
160,7
GeForce RTX 4070 Super 546.52
155,4
Radeon RX 7900 GRE 24.2.1
146,1
GeForce RTX 3090 546.52
144,8
GeForce RTX 4070 546.52
142,9
Radeon RX 7800 XT 23.12.1
140,9
Radeon RX 6800 XT 23.12.1
135,9
GeForce RTX 3080 546.52
126,0
AMD Radeon RX 7700 XT 24.12.1
121,0
GeForce RTX 3070 Ti 546.52
118,4
Radeon RX 6800 23.12.1
114,6
Radeon RX 6750 XT 24.12.1
113,6
GeForce RTX 4060 Ti 8GB FE 566.36
113,2
GeForce RTX 3070 FE 566.36
107,5
Radeon RX 6700 XT 23.12.1
101,8
GeForce RTX 3060 Ti FE 566.36
97,2
Radeon RX 7600 XT 24.12.1
96,4
Gigabyte Windforce OC 566.14
91,1
Inno3D Twin X2 566.14
90,1
PNY Verto Dual Fan 566.14
90,0
ASUS Dual EVO OC (performance mode) 566.14
89,8
ASUS Dual EVO OC 566.14
89,2
MSI Ventus 2X Black OC 566.14
89,1
Radeon RX 6650 XT 24.12.1
88,9
ASUS ProArt OC 566.14
88,6
Gigabyte OC Low Profile 566.14
88,1
ASUS ProArt OC (performance mode) 566.14
88,0
Gigabyte Gaming OC (performance mode) 566.14
87,9
Gigabyte Gaming OC 566.14
87,1
Radeon RX 7600 24.1.1
83,7
Arc B580 101.6319
83,1
Radeon RX 6600 23.12.1
82,1
GeForce RTX 3060 12GB 566.36
77,9
Arc A770 16GB 101.6319
65,6
GeForce RTX 2060 546.52
60,4
GeForce RTX 3050 546.52
59,4
Arc A750 8GB 101.6319
56,3
Arc A580 101.6319
53,4
Assetto Corsa Competizione 2024 - 1920x1080 - Epic
Videokaart Videokaart driver Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 4070 Ti 546.52
238,4
GeForce RTX 4090 546.52
236,3
GeForce RTX 3090 546.52
234,5
GeForce RTX 4080 546.52
232,2
GeForce RTX 4070 Ti Super 551.15
232,0
GeForce RTX 3080 546.52
231,9
GeForce RTX 4070 Super 546.52
231,8
GeForce RTX 4080 Super 551.22
230,9
Radeon RX 7900 XT 23.12.1
225,5
Radeon RX 6950 XT 23.12.1
225,1
GeForce RTX 4070 546.52
224,8
Radeon RX 7900 XTX 23.12.1
220,7
Radeon RX 7800 XT 23.12.1
216,1
Radeon RX 6800 XT 23.12.1
212,7
Radeon RX 7900 GRE 24.2.1
212,6
GeForce RTX 3070 Ti 546.52
210,6
GeForce RTX 3070 FE 566.36
195,5
GeForce RTX 4060 Ti 8GB FE 566.36
194,4
AMD Radeon RX 7700 XT 24.12.1
192,4
Radeon RX 6800 23.12.1
179,3
GeForce RTX 3060 Ti FE 566.36
170,3
Radeon RX 6750 XT 24.12.1
157,7
Gigabyte Gaming OC 566.14
157,4
Gigabyte Gaming OC (performance mode) 566.14
155,8
Gigabyte OC Low Profile 566.14
154,9
ASUS Dual EVO OC (performance mode) 566.14
154,1
PNY Verto Dual Fan 566.14
152,9
Gigabyte Windforce OC 566.14
152,6
ASUS Dual EVO OC 566.14
152,5
Inno3D Twin X2 566.14
152,1
ASUS ProArt OC (performance mode) 566.14
152,0
ASUS ProArt OC 566.14
151,9
MSI Ventus 2X Black OC 566.14
151,9
Radeon RX 6700 XT 23.12.1
148,5
Arc B580 101.6319
141,0
Radeon RX 7600 XT 24.12.1
136,0
GeForce RTX 3060 12GB 566.36
133,2
Radeon RX 7600 24.1.1
132,7
Radeon RX 6650 XT 24.12.1
129,0
Arc A770 16GB 101.6319
127,0
Arc A750 8GB 101.6319
115,8
GeForce RTX 2060 546.52
101,8
Arc A580 101.6319
101,1
Radeon RX 6600 23.12.1
98,7
GeForce RTX 3050 546.52
93,9
Avatar: Frontiers of Pandora - 1920x1080 - Ultra
Videokaart Videokaart driver Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 4090 546.52
168,5
GeForce RTX 4080 546.52
139,5
GeForce RTX 4080 Super 551.22
138,9
Radeon RX 7900 XTX 23.12.1
117,6
GeForce RTX 4070 Ti Super 551.15
115,8
GeForce RTX 4070 Ti 546.52
112,8
Radeon RX 7900 XT 23.12.1
106,7
GeForce RTX 4070 Super 546.52
102,0
GeForce RTX 3090 546.52
93,9
Radeon RX 7900 GRE 24.2.1
89,4
GeForce RTX 4070 546.52
87,8
Radeon RX 6950 XT 23.12.1
85,4
GeForce RTX 3080 546.52
85,0
Radeon RX 7800 XT 23.12.1
78,3
Radeon RX 6800 XT 23.12.1
76,8
GeForce RTX 3070 Ti 546.52
71,5
AMD Radeon RX 7700 XT 24.12.1
69,0
GeForce RTX 4060 Ti 8GB FE 566.36
67,2
GeForce RTX 3070 FE 566.36
66,2
Radeon RX 6800 23.12.1
65,7
GeForce RTX 3060 Ti FE 566.36
56,5
Radeon RX 6750 XT 24.12.1
56,4
Radeon RX 6700 XT 23.12.1
54,2
Gigabyte Gaming OC (performance mode) 566.14
52,0
Gigabyte Gaming OC 566.14
51,4
Inno3D Twin X2 566.14
51,3
ASUS Dual EVO OC (performance mode) 566.14
51,2
Arc B580 101.6319
51,2
ASUS Dual EVO OC 566.14
51,1
PNY Verto Dual Fan 566.14
51,0
MSI Ventus 2X Black OC 566.14
50,7
Gigabyte Windforce OC 566.14
50,6
ASUS ProArt OC 566.14
50,1
ASUS ProArt OC (performance mode) 566.14
49,8
Gigabyte OC Low Profile 566.14
49,5
Radeon RX 7600 XT 24.12.1
45,3
Arc A770 16GB 101.6319
42,4
GeForce RTX 3060 12GB 566.36
41,8
Radeon RX 7600 24.1.1
41,6
Arc A750 8GB 101.6319
41,5
Arc A580 101.6319
37,3
Radeon RX 6600 23.12.1
37,2
Radeon RX 6650 XT 24.12.1
36,3
GeForce RTX 2060 546.52
30,7
GeForce RTX 3050 546.52
30,2
CoD: MWII - 1920x1080 - Extreme
Videokaart Videokaart driver Gemiddelde framerate in fps (hoger is beter)
Radeon RX 7900 XTX 23.12.1
289,7
GeForce RTX 4090 546.52
239,2
Radeon RX 7900 XT 23.12.1
237,2
Radeon RX 7900 GRE 24.2.1
212,4
GeForce RTX 4080 546.52
202,3
GeForce RTX 4080 Super 551.22
201,7
Radeon RX 7800 XT 23.12.1
189,0
Radeon RX 6950 XT 23.12.1
183,8
GeForce RTX 4070 Ti 546.52
181,5
GeForce RTX 4070 Ti Super 551.15
179,2
GeForce RTX 4070 Super 546.52
169,8
Radeon RX 6800 XT 23.12.1
165,0
AMD Radeon RX 7700 XT 24.12.1
163,1
GeForce RTX 4070 546.52
159,8
Radeon RX 6800 23.12.1
148,6
GeForce RTX 3090 546.52
146,1
GeForce RTX 3080 546.52
135,7
Radeon RX 6750 XT 24.12.1
126,4
Radeon RX 7600 XT 24.12.1
118,4
GeForce RTX 4060 Ti 8GB FE 566.36
117,9
GeForce RTX 3070 Ti 546.52
115,8
Radeon RX 6700 XT 23.12.1
115,3
GeForce RTX 3070 FE 566.36
111,0
Radeon RX 7600 24.1.1
105,3
Arc B580 101.6319
100,7
Gigabyte Gaming OC 566.14
99,3
GeForce RTX 3060 Ti FE 566.36
98,8
Gigabyte Gaming OC (performance mode) 566.14
97,5
ASUS Dual EVO OC (performance mode) 566.14
96,6
Inno3D Twin X2 566.14
96,2
Gigabyte OC Low Profile 566.14
95,6
Gigabyte Windforce OC 566.14
95,3
ASUS Dual EVO OC 566.14
95,2
MSI Ventus 2X Black OC 566.14
94,7
PNY Verto Dual Fan 566.14
94,4
ASUS ProArt OC 566.14
93,9
ASUS ProArt OC (performance mode) 566.14
92,9
Radeon RX 6650 XT 24.12.1
92,3
Radeon RX 6600 23.12.1
80,8
GeForce RTX 3060 12GB 566.36
79,6
Arc A770 16GB 101.6319
78,0
Arc A580 101.6319
74,7
Arc A750 8GB 101.6319
71,5
GeForce RTX 2060 546.52
58,3
GeForce RTX 3050 546.52
56,0
Cyberpunk 2077 - 1920x1080 - Ultra
Videokaart Videokaart driver Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 4090 546.52
216,1
Radeon RX 7900 XTX 23.12.1
198,6
GeForce RTX 4080 546.52
188,1
GeForce RTX 4080 Super 551.22
186,9
Radeon RX 7900 XT 23.12.1
180,7
Radeon RX 7900 GRE 24.2.1
159,9
GeForce RTX 4070 Ti Super 551.15
158,2
GeForce RTX 4070 Ti 546.52
155,4
GeForce RTX 3090 546.52
145,9
GeForce RTX 4070 Super 546.52
143,3
Radeon RX 7800 XT 23.12.1
143,2
Radeon RX 6950 XT 23.12.1
142,8
GeForce RTX 3080 546.52
132,6
Radeon RX 6800 XT 23.12.1
128,7
AMD Radeon RX 7700 XT 24.12.1
123,8
GeForce RTX 4070 546.52
118,1
GeForce RTX 3070 Ti 546.52
112,5
Radeon RX 6800 23.12.1
110,6
GeForce RTX 3070 FE 566.36
106,7
GeForce RTX 4060 Ti 8GB FE 566.36
99,9
Radeon RX 6750 XT 24.12.1
97,6
Arc B580 101.6319
95,2
Radeon RX 6700 XT 23.12.1
90,9
GeForce RTX 3060 Ti FE 566.36
90,5
Radeon RX 7600 XT 24.12.1
87,7
Radeon RX 7600 24.1.1
84,3
Gigabyte Gaming OC 566.14
82,4
Gigabyte Gaming OC (performance mode) 566.14
82,2
Inno3D Twin X2 566.14
81,6
PNY Verto Dual Fan 566.14
81,1
Gigabyte Windforce OC 566.14
80,8
Arc A770 16GB 101.6319
79,4
Gigabyte OC Low Profile 566.14
78,7
ASUS Dual EVO OC 566.14
78,4
ASUS Dual EVO OC (performance mode) 566.14
78,1
ASUS ProArt OC 566.14
78,1
MSI Ventus 2X Black OC 566.14
78,1
ASUS ProArt OC (performance mode) 566.14
77,7
Radeon RX 6650 XT 24.12.1
74,6
Arc A750 8GB 101.6319
73,2
GeForce RTX 3060 12GB 566.36
70,6
Arc A580 101.6319
65,6
Radeon RX 6600 23.12.1
61,7
GeForce RTX 2060 546.52
59,5
GeForce RTX 3050 546.52
49,7
Doom Eternal - 1920x1080 - Ultra
Videokaart Videokaart driver Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 4090 546.52
634,0
GeForce RTX 4080 Super 551.22
555,9
Radeon RX 7900 XTX 23.12.1
542,8
GeForce RTX 4080 546.52
539,5
GeForce RTX 4070 Ti 546.52
482,7
GeForce RTX 4070 Ti Super 551.15
480,4
Radeon RX 7900 XT 23.12.1
468,3
Radeon RX 6950 XT 23.12.1
434,7
GeForce RTX 4070 Super 546.52
428,4
Radeon RX 7900 GRE 24.2.1
410,1
Radeon RX 7800 XT 23.12.1
404,6
GeForce RTX 3090 546.52
401,1
GeForce RTX 4070 546.52
397,4
Radeon RX 6800 XT 23.12.1
385,2
GeForce RTX 3080 546.52
370,9
AMD Radeon RX 7700 XT 24.12.1
356,5
GeForce RTX 3070 Ti 546.52
338,0
Radeon RX 6800 23.12.1
318,5
Radeon RX 6750 XT 24.12.1
314,1
GeForce RTX 4060 Ti 8GB FE 566.36
308,6
GeForce RTX 3070 FE 566.36
306,3
Radeon RX 6700 XT 23.12.1
290,4
GeForce RTX 3060 Ti FE 566.36
272,5
Arc B580 101.6319
261,6
Gigabyte Gaming OC 566.14
259,6
ASUS Dual EVO OC (performance mode) 566.14
259,5
Gigabyte Gaming OC (performance mode) 566.14
258,8
PNY Verto Dual Fan 566.14
258,3
ASUS ProArt OC 566.14
255,4
Gigabyte OC Low Profile 566.14
253,3
Inno3D Twin X2 566.14
253,0
ASUS ProArt OC (performance mode) 566.14
251,6
Gigabyte Windforce OC 566.14
251,4
ASUS Dual EVO OC 566.14
250,7
MSI Ventus 2X Black OC 566.14
250,2
Radeon RX 6650 XT 24.12.1
243,7
Radeon RX 7600 XT 24.12.1
237,4
Arc A770 16GB 101.6319
233,0
Radeon RX 7600 24.1.1
231,6
GeForce RTX 3060 12GB 566.36
214,8
Arc A750 8GB 101.6319
205,5
Radeon RX 6600 23.12.1
193,5
Arc A580 101.6319
183,0
GeForce RTX 3050 546.52
158,9
GeForce RTX 2060 546.52
156,0
F1 23 - 1920x1080 - Ultra
Videokaart Videokaart driver Gemiddelde framerate in fps (hoger is beter)
Radeon RX 7900 XTX 23.12.1
281,1
GeForce RTX 4090 546.52
273,5
GeForce RTX 4080 Super 551.22
255,0
Radeon RX 7900 XT 23.12.1
252,1
GeForce RTX 4080 546.52
246,1
GeForce RTX 4070 Ti Super 551.15
217,2
GeForce RTX 4070 Ti 546.52
216,5
Radeon RX 7900 GRE 24.2.1
215,3
Radeon RX 6950 XT 23.12.1
211,7
Radeon RX 7800 XT 23.12.1
207,1
GeForce RTX 3090 546.52
204,7
GeForce RTX 4070 Super 546.52
201,0
Radeon RX 6800 XT 23.12.1
191,9
GeForce RTX 3080 546.52
187,8
AMD Radeon RX 7700 XT 24.12.1
182,4
GeForce RTX 4070 546.52
175,9
Radeon RX 6800 23.12.1
164,6
GeForce RTX 3070 Ti 546.52
158,3
GeForce RTX 3070 FE 566.36
151,0
Radeon RX 6750 XT 24.12.1
144,5
GeForce RTX 4060 Ti 8GB FE 566.36
142,2
Radeon RX 6700 XT 23.12.1
135,6
Radeon RX 7600 XT 24.12.1
130,6
GeForce RTX 3060 Ti FE 566.36
130,0
Arc B580 101.6319
125,8
Radeon RX 7600 24.1.1
119,0
Radeon RX 6650 XT 24.12.1
116,3
Gigabyte Gaming OC 566.14
111,1
Gigabyte Gaming OC (performance mode) 566.14
111,0
Inno3D Twin X2 566.14
110,3
ASUS Dual EVO OC (performance mode) 566.14
109,7
Gigabyte Windforce OC 566.14
109,5
MSI Ventus 2X Black OC 566.14
108,6
ASUS Dual EVO OC 566.14
108,4
ASUS ProArt OC (performance mode) 566.14
108,3
ASUS ProArt OC 566.14
108,0
PNY Verto Dual Fan 566.14
107,8
Gigabyte OC Low Profile 566.14
107,7
GeForce RTX 3060 12GB 566.36
99,6
Arc A770 16GB 101.6319
95,1
Radeon RX 6600 23.12.1
93,6
Arc A750 8GB 101.6319
85,7
GeForce RTX 2060 546.52
79,7
Arc A580 101.6319
75,7
GeForce RTX 3050 546.52
70,7
Forza Motorsport - 1920x1080 - Ultra
Videokaart Videokaart driver Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 4080 546.52
149,4
GeForce RTX 4080 Super 551.22
148,3
GeForce RTX 4090 546.52
145,2
GeForce RTX 4070 Ti Super 551.15
140,2
GeForce RTX 4070 Ti 546.52
138,6
Radeon RX 7900 GRE 24.2.1
137,8
Radeon RX 7900 XTX 23.12.1
136,9
Radeon RX 7900 XT 23.12.1
136,4
Radeon RX 6950 XT 23.12.1
132,9
GeForce RTX 4070 Super 546.52
132,8
GeForce RTX 4070 546.52
123,6
Radeon RX 6800 XT 23.12.1
120,6
GeForce RTX 3090 546.52
120,6
Radeon RX 7800 XT 23.12.1
117,6
GeForce RTX 3080 546.52
109,4
GeForce RTX 3070 Ti 546.52
97,9
Radeon RX 6800 23.12.1
97,0
GeForce RTX 4060 Ti 8GB FE 566.36
90,7
GeForce RTX 3070 FE 566.36
90,0
Radeon RX 6750 XT 24.12.1
89,2
AMD Radeon RX 7700 XT 24.12.1
86,3
Arc B580 101.6319
82,3
Gigabyte Gaming OC (performance mode) 566.14
80,8
Gigabyte Gaming OC 566.14
80,7
Gigabyte Windforce OC 566.14
79,7
Inno3D Twin X2 566.14
79,5
ASUS Dual EVO OC (performance mode) 566.14
79,4
PNY Verto Dual Fan 566.14
79,4
Radeon RX 7600 XT 24.12.1
79,3
ASUS Dual EVO OC 566.14
79,1
Gigabyte OC Low Profile 566.14
79,0
GeForce RTX 3060 Ti FE 566.36
78,7
MSI Ventus 2X Black OC 566.14
78,5
ASUS ProArt OC (performance mode) 566.14
78,4
Radeon RX 6700 XT 23.12.1
78,2
ASUS ProArt OC 566.14
78,1
Arc A770 16GB 101.6319
71,5
Radeon RX 7600 24.1.1
71,5
Radeon RX 6650 XT 24.12.1
66,4
Radeon RX 6600 23.12.1
62,6
GeForce RTX 3060 12GB 566.36
61,3
Arc A580 101.6319
56,8
GeForce RTX 2060 546.52
51,6
Arc A750 8GB 101.6319
48,2
GeForce RTX 3050 546.52
47,3
Starfield - 1920x1080 - Ultra
Videokaart Videokaart driver Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 4090 546.52
141,6
Radeon RX 7900 XTX 23.12.1
128,7
GeForce RTX 4080 546.52
125,3
GeForce RTX 4080 Super 551.22
124,0
Radeon RX 7900 XT 23.12.1
115,6
GeForce RTX 4070 Ti Super 551.15
105,2
GeForce RTX 4070 Ti 546.52
105,0
Radeon RX 7900 GRE 24.2.1
99,0
GeForce RTX 4070 Super 546.52
98,2
GeForce RTX 3090 546.52
93,8
Radeon RX 6950 XT 23.12.1
93,2
Radeon RX 7800 XT 23.12.1
91,1
GeForce RTX 4070 546.52
86,5
GeForce RTX 3080 546.52
84,6
Radeon RX 6800 XT 23.12.1
84,2
AMD Radeon RX 7700 XT 24.12.1
75,6
GeForce RTX 4060 Ti 8GB FE 566.36
75,5
GeForce RTX 3070 FE 566.36
75,2
GeForce RTX 3070 Ti 546.52
71,1
Radeon RX 6800 23.12.1
70,2
GeForce RTX 3060 Ti FE 566.36
65,9
Gigabyte Gaming OC (performance mode) 566.14
63,4
Gigabyte Gaming OC 566.14
63,2
Radeon RX 6750 XT 24.12.1
63,0
Inno3D Twin X2 566.14
62,2
Gigabyte Windforce OC 566.14
62,1
ASUS Dual EVO OC (performance mode) 566.14
62,0
ASUS Dual EVO OC 566.14
62,0
PNY Verto Dual Fan 566.14
62,0
Gigabyte OC Low Profile 566.14
61,9
Radeon RX 7600 XT 24.12.1
61,9
MSI Ventus 2X Black OC 566.14
61,6
ASUS ProArt OC 566.14
61,4
ASUS ProArt OC (performance mode) 566.14
61,2
Radeon RX 6700 XT 23.12.1
56,6
Arc B580 101.6319
55,2
Radeon RX 7600 24.1.1
52,9
GeForce RTX 3060 12GB 566.36
50,7
Radeon RX 6650 XT 24.12.1
50,0
Arc A770 16GB 101.6319
44,8
Arc A580 101.6319
40,1
Radeon RX 6600 23.12.1
37,4
GeForce RTX 2060 546.52
33,2
GeForce RTX 3050 546.52
32,6
Arc A750 8GB 101.6319
31,0
The Callisto Protocol - 1920x1080 - Ultra
Videokaart Videokaart driver Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 4090 546.52
225,5
GeForce RTX 4080 Super 551.22
193,7
Radeon RX 7900 XTX 23.12.1
191,4
GeForce RTX 4080 546.52
182,0
Radeon RX 7900 XT 23.12.1
169,8
GeForce RTX 4070 Ti Super 551.15
155,9
GeForce RTX 4070 Ti 546.52
155,7
Radeon RX 7900 GRE 24.2.1
151,5
GeForce RTX 4070 Super 546.52
142,6
GeForce RTX 3090 546.52
139,5
Radeon RX 6950 XT 23.12.1
138,7
Radeon RX 6800 XT 23.12.1
124,1
GeForce RTX 4070 546.52
123,6
GeForce RTX 3080 546.52
122,2
Radeon RX 7800 XT 23.12.1
118,7
GeForce RTX 3070 Ti 546.52
108,3
AMD Radeon RX 7700 XT 24.12.1
106,3
GeForce RTX 3070 FE 566.36
103,1
GeForce RTX 4060 Ti 8GB FE 566.36
94,6
GeForce RTX 3060 Ti FE 566.36
88,1
Arc B580 101.6319
86,3
Gigabyte Gaming OC (performance mode) 566.14
81,6
Gigabyte Gaming OC 566.14
81,1
ASUS Dual EVO OC (performance mode) 566.14
80,3
Inno3D Twin X2 566.14
80,2
Radeon RX 6750 XT 24.12.1
80,2
ASUS Dual EVO OC 566.14
79,8
Gigabyte OC Low Profile 566.14
79,6
Gigabyte Windforce OC 566.14
79,4
MSI Ventus 2X Black OC 566.14
79,3
PNY Verto Dual Fan 566.14
79,2
ASUS ProArt OC (performance mode) 566.14
78,8
ASUS ProArt OC 566.14
78,4
Arc A770 16GB 101.6319
77,6
Radeon RX 7600 XT 24.12.1
75,5
Radeon RX 6700 XT 23.12.1
74,3
Radeon RX 7600 24.1.1
71,9
Arc A750 8GB 101.6319
69,1
Radeon RX 6650 XT 24.12.1
69,1
GeForce RTX 3060 12GB 566.36
62,8
Arc A580 101.6319
60,8
Radeon RX 6600 23.12.1
58,5
GeForce RTX 2060 546.52
52,9
GeForce RTX 3050 546.52
44,6

Geluid en temperatuur

Aan de prestaties van een koeler zitten altijd twee kanten: de temperatuur en de geluidsproductie. We testen hoeveel geluid een videokaart produceert onder volle belasting en noteren de maximale temperatuur tijdens deze test. Daarnaast meten we de geluidsproductie idle, als de kaart niets anders hoeft te doen dan het bureaublad weergeven. Doordat alle geteste videokaarten in deze vergelijking beschikken over semipassieve koeling, staan de ventilators in idle volledig stil. We meten dan 14dB(A) voor alle kaarten, wat de noisefloor in onze geluidskamer is.

ASUS valt onmiddellijk op als we kijken naar de geluidsproductie. Zowel de Dual EVO OC als de ProArt OC zetten keurige scores neer wanneer het stille bios wordt gebruikt. Zelfs als we op deze kaarten de Performance-modus activeren, weten ze zich nog boven de rest van de deelnemers te plaatsen. Daarnaast zijn de Gigabyte Gaming OC en de MSI Ventus 2X ook nog redelijk stil, waarbij duidelijk wordt dat de biosswitch van Gigabyte meer voor de sier erop zit. De Gigabyte Low Profile maakt wat meer geluid tijdens belasting, wat gezien zijn formaat koelblok en ventilators logisch is. Bij de Twin X2 van INNO3D en de Windforce OC van Gigabyte noteren we de hoogste geluidsproductie onder belasting.

De gpu-temperaturen zijn op geen van de kaarten schrikbarend hoog. Wel valt op dat ASUS opnieuw erg goed scoort. Bij de forse ProArt OC met drie flinke ventilators is dat geen verrassing, maar de Dual EVO OC komt ondanks zijn laagste geluidsproductie niet boven de 62 graden Celsius uit in Quiet-mode.

  • Geluid load
  • Geluid idle
  • Temperatuur gpu
  • Temperatuur hotspot
Geluidsdruk load ingame (50cm)
Videokaart Gemiddelde geluid in dB(A) (lager is beter)
ASUS Dual EVO OC
20,0
ASUS ProArt OC
21,5
ASUS ProArt OC (performance mode)
21,7
ASUS Dual EVO OC (performance mode)
26,0
Gigabyte Gaming OC
26,9
Gigabyte Gaming OC (performance mode)
27,0
MSI Ventus 2X Black OC
28,8
PNY Verto Dual Fan
30,9
Gigabyte OC Low Profile
36,0
Inno3D Twin X2
37,0
Gigabyte Windforce OC
39,4
Geluidsdruk idle (50cm)
Videokaart Gemiddelde geluid in dB(A) (lager is beter)
MSI Ventus 2X Black OC
14,0
Gigabyte Windforce OC
14,0
ASUS ProArt OC (performance mode)
14,0
Inno3D Twin X2
14,0
ASUS Dual EVO OC (performance mode)
14,0
ASUS Dual EVO OC
14,0
ASUS ProArt OC
14,0
PNY Verto Dual Fan
14,0
Gigabyte Gaming OC (performance mode)
14,0
Gigabyte OC Low Profile
14,0
Gigabyte Gaming OC
14,0

Stroomverbruik en prestaties per watt

Van de geteste RTX 4060's is er een groepje dat onder volle belasting niet boven de 120W uitkomt en een groepje kaarten dat dichter tegen de 130 watt aan zit. De Gigabyte OC Low Profile verbruikt hier het minst, gevolgd door de ASUS ProArt OC. Van ASUS is het de Dual EVO OC die in deze test juist nipt het meest verbruikt.

  • Vermogen ingame
  • Vermogen idle
  • Fps per watt
Opgenomen vermogen ingame - Cyberpunk 2077 - Max. resolutie - Ultra
Videokaart Gemiddelde vermogen in watt (lager is beter)
Gigabyte OC Low Profile
117,01
ASUS ProArt OC
119,19
Gigabyte Windforce OC
119,56
MSI Ventus 2X Black OC
127,22
PNY Verto Dual Fan
127,57
Inno3D Twin X2
128,66
ASUS Dual EVO OC
131,12
Opgenomen vermogen idle
Videokaart Gemiddelde vermogen in watt (lager is beter)
ASUS ProArt OC
8,31
Gigabyte OC Low Profile
9,84
Inno3D Twin X2
11,32
MSI Ventus 2X Black OC
11,39
PNY Verto Dual Fan
13,02
Gigabyte Windforce OC
13,17
ASUS Dual EVO OC
13,99
Efficiëntie Cyberpunk 2077 1440p Ultra - fps per watt
Videokaart Gemiddelde framerate in fps (hoger is beter)
Gigabyte OC Low Profile
0,40
ASUS ProArt OC
0,39
Gigabyte Windforce OC
0,37
ASUS Dual EVO OC
0,35
MSI Ventus 2X Black OC
0,35
Inno3D Twin X2
0,34
PNY Verto Dual Fan
0,34

Conclusie

De GeForce RTX 4060 is Nvidia's instapkaart waarmee op 1080p heel aardig valt te gamen. Uiteraard gaat het niet om baanbrekende prestaties, maar voor genoeg casual gamers zijn de prestaties voldoende om de meeste spellen redelijk vloeiend te draaien. Bovendien valt er met upscaling in de vorm van DLSS een nuttige extra feature te gebruiken die het verschil kan maken in de zwaardere games.

Van de geteste RTX 4060's in deze round-up springt de ASUS Dual EVO OC er in algemene zin positief uit. De kaart is erg stil onder volle belasting en de temperaturen van de gpu blijven daarbij netjes laag. Geen van de geteste RTX 4060's had last van een hete gpu, maar de combinatie van een erg lage geluidsproductie, een keurige gpu-temperatuur en een acceptabele prijs levert de ASUS Dual EVO OC een Excellent-award op.

Dat de enige award binnen deze round-up naar de Dual EVO OC gaat, wil niet zeggen dat andere RTX 4060's geen goede prestaties hebben neergezet. Zo zette ASUS ook met zijn ProArt OC een keurig lage geluidsproductie neer. Gigabyte's Gaming OC en MSI's Ventus 2X Black OC deden het op dit vlak ook best netjes. Ten slotte is de Gigabyte OC Low Profile nog het vermelden waard. Deze kaart wist ondanks zijn uitermate beperkte afmetingen ook nette resultaten te behalen als het op geluidsproductie en koeling aankomt.

Reacties (207)

207
204
89
5
0
87
Wijzig sortering
Nu dat intel de knuppel in het hoenderhok heeft gegooid met een 1440p kaart met 12gb video geheugen voor (op dit moment, in Nederland) ongeveer 10% meer dan deze nvidia optie, vind ik de timing van dit artikel én de conclusies wat ongelukkig.

We zijn eindelijk zover dat we kunnen zeggen dat 1440p de "mainstream" resolutie is bij nieuwkoop. Dit aanbod van nvidia kant is met die kijk nu bedroevend verouderd, als het dat bij release al niet was.
56% van de gebruikers zit nog op 1920x1080 volgens de Steam Hardware Charts, en 20% op 2560x1440.

Dus om 1440p nou al mainstream te noemen... Daarnaast zijn hardware prijzen tegenwoordig zo hoog dat mensen liever bij 1080p blijven.

[Reactie gewijzigd door TheDeeGee op 21 december 2024 11:43]

Dat nog niet, maar wel is de 1440p monitor in aanbod de 1080p net voorbij gestegen. En de 1080p gebruikers daalt gestaag, terwijl 1440p gestaag stijgt.
Dat is waar, mijn volgende monitor upgrade word ook 1440p, al heb ik nog geen vervanger kunnen vinden met dezelfde kwaliteit als mijn EIZO CX240.
Het aanbod in 1440 is maar iets groter, maar of de verkoop ook al groter is durf ik te betwijfelen. In elk geval zijn er nog heel veel 1080p monitoren in gebruik. Als mensen de monitor pas vervangen als die kuren begint te krijgen (zoals ik), dan zal 1080p nog heel lang in behoorlijke aantallen in gebruik blijven en is de RX 4060 daarvoor een leuke budget kaart.
Mijn eerste 1080p monitor kocht ik in 2002 en deze is in 2016 vervangen door een nieuwe exemplaar, maar de oude doet nog steeds dienst als monitor voor mijn Zwift trainingsopzet en voldoet daarvoor (ondanks een forse beschadiging) eigenlijk nog prima.
2k monitoren zijn niet duur meer (zeker 2e hands), 4k is nog knap prijzig.
Zelf zit ik al 2 jaar op 2k, maar ben ook aan het kijken voor 4k, maar dat betekent ook grafische kaart upgrade oftewel systeem upgraden naar AM5 (zit nu op AM4 5000 serie).
En dan komt men nu met een 8gb DDR6 kaartje als instap? Dat is een dikke gemiste kans, beter had de instap ind bij 12gb beter geweest, zeker voor diegenen met 2k schermen.

edit; typo
@Darkstriker Daarom zo raar ook de titel "de instapper" van Nvidia, keuzes genoeg en voor iets meer, heb je een betere kaart. Maar goed, we denken hetzelfde ;) (snel aanprijzen, planken leegmaken en 5000 serie brengen).

[Reactie gewijzigd door GameNympho op 21 december 2024 18:11]

De 4060 is natuurlijk inmiddels ook 1.5 jaar oud EN wordt over een paar maanden vervangen door de 5060. Dat maakt de Intel B580, die noemenswaardig betere prestaties/euro geeft niet interessant (volgens tweakers eigen review). Maar de slechtere 4060 nog even een roundup geven terwijl die bijna EOL is. Lekker man. Gaat weer goed hier.
Het punt blijft dat Nvidia weinig geheugen in zijn kaarten blijven stoppen want zowel de 5060 als 5070 zullen 8 GB krijgen. De 5070 TI en 5080 zullen 16GB krijgen.
Toch heb ik een RTX 4060 ti 16gb
Maar je hebt gelijk, het meeste is 8gb.
Is mij ook opgevallen ja. Intel wordt bijna de grond ingeboord terwijl ze echt een dijk van een product hebben neergezet als je kijkt naar prijs/performance terwijl een kaart van Nvidia die verouderd is en de opvolger bijna klaar staat de hemel wordt ingeprezen en een excellent krijgt. 8GB vram kan je vergelijken met 2GB RAM ofzo, 300 euro en over een paar jaar mag je hem weer vervangen omdat ontwikkelaars lui worden, de boel niet optimaliseren en je straks aan 8GB niet genoeg hebt wil je beetje op hoge settings een spelletje kunnen spelen.
Ik zie de Intel kaarten juist veel meer als een mixed bag hier in NL, kijk je naar de US reviews zijn ze inderdaad grotendeels positief, want de prijs is daar inderdaad scherp, en ze leveren goede prestaties voor dat prijspunt, iets dat langere tijd niet gezien is. Hier is de prijsstelling echter een stuk minder, wat vermoed ik doorwerkt in bijvoorbeeld de Tweakers review. In de US kan je zo'n kaart vanaf $249 ook daadwerkelijk krijgen (of in ieder geval kon, want ik meen dat ze direct uitverkocht waren). Wat voor goede reviews zorgt 'aan de andere kant van de plas'.

Die $249 kaarten zouden hier, inclusief BTW en omgerekend naar euro's zo'n €286 mogen kosten, echter is de goedkoopste B580 die ik kan vinden in de pricewatch €319, dus op dit moment zo'n €34 te duur en niet goed leverbaar. De eerste die goed leverbaar lijkt te zijn kost €329, oftewel zo'n €44 te duur.

En hoewel ik 4060's ook zeker niet zou aanraden (en de roundup ook wat overbodig vind) zie je hier dus het omgekeerde van de markt in de US, de Intel kaarten zijn hier duurder dan flink wat 4060's in plaats van goedkoper zoals in de US, wat de propositie van Intel hier simpelweg een flink stuk minder goed maakt dan de propositie van Intel in de US waar men vrij lyrisch over is. En dat moet weerslag hebben op de reviews in onze regio. Het zou juist vreemd zijn als de reviews van onze bodem met onze prijzen eenzelfde conclusie zouden hebben als reviews die rekenen met de US prijzen.

Daarbij blijft het dus de vraag of wij de US pricing van deze kaarten hier ook gaan krijgen, in ieder geval op korte termijn terwijl de kaarten nog relevant zijn, en niet bijvoorbeeld pas het einde van de cyclus. Daarnaast is het ook maar de vraag wat het volume gaat zijn, de chip is immers erg groot voor de geleverde prestaties, en daardoor ook relatief duur om te maken. Mede daardoor gaan er dus ook geruchten dat deze chips Intel mogelijk bijna niets opleveren of erger, zelfs geld kosten bij deze prijsstelling, en om die reden het aantal kaarten dat ze deze generatie willen gaan leveren relatief laag gaat zijn.

De Q4 markaandeel rapportage die die feb / maart volgend jaar uit moet komen gaat daar wel interessant worden. Gaat het Intel lukken om weer een paar % van de markt te pakken, en ten koste van wie. En de Q1 2025 rapportage (en de edities daarna) worden nog interessanter, omdat AMD en Nvidia dan ook begonnen zijn met het uitbrengen van hun nieuwe generaties en je dan dus steeds beter gaat kunnen zien hoe de kaarten geschud gaan worden als alle 3 de aanbieders hun nieuwe generaties uit hebben.
Hier in NL zijn de prijzen altijd hoger dan in de VS ook al zou je de btw meetellen die je in sommige deelstaten moet betalen. 319 euro voor de intel kaarten is maar een tientje meer ten opzichte van de 4060 dus ondanks dat de kaarten hier duurder zijn dan in de VS blijft het een steeds een verstandigere keuze om voor 10 euro extra voor de intel te gaan. Daarnaast is de kans groot dat de prijzen gaan dalen zodra de kaarten beter leverbaar worden. Sorry maar ik kan de review op t.net op geen enkele manier verdedigen of rechtvaardigen. Het lijkt meer op een verkapte advertorial.
Hier in NL zijn de prijzen altijd hoger dan in de VS ook al zou je de btw meetellen die je in sommige deelstaten moet betalen.
Het punt is dat dit al verdisconteert is in mijn berekening. Ik houd daar dus al rekening mee, en dan nog zijn de Intel kaarten momenteel €34 voor een niet leverbare versie, of €44 voor een leverbare versie te duur vergeleken met Amerika. En dat maakt inderdaad deze review niet goed of iets dergelijks, echter daar had ik het niet eens over. Ik reageerde meer op de opmerking dat de Tweakers review van de B580 kritischer is dan de US reviews. En daar het zal deze verschillende pricing (als het goed is) wel van invloed zijn op de B580 review van Tweakers, die door dat flinke prijsverschil niet zo jubelend kan zijn als bijvoorbeeld een Gamers nexus of Hardware Unboxed, omdat Intel het product hier, in ieder geval tot op heden, veel minder gunstig in de markt zet dan in Amerika.

De Tweakers review van de B580 moet dus een stuk kritischer zijn, totdat Intel de consument hier ook laat profiteren van dat mooie lage MSRP dat ze in de US hanteren, omdat het aanbod hier simpelweg niet op het niveau is dat ze in de US aanbieden qua prijs prestatie, maar een flink stuk slechter. En dat maakt de 4060 niet ineens een goede kaart, dat is de 4060 immers nooit geweest, maar het maakt de B580 in Nederland wel een stuk minder aantrekkelijk dan dat de B580 in de US is ten opzichte van bijvoorbeeld de 4060 of een AMD instap kaart.

[Reactie gewijzigd door Dennism op 22 december 2024 18:59]

Alles hier is duurder dan in de vs. Iphone 16 pro begint in de VS bij 999 dollar. 21% btw (weet de percentage niet daar maar even voor het gemak) is 1208 dollar is een kleine 1160 euro. Dus de iohone hier is bijna 70 euro duurder. Ik vind het een kul argument. Je moet kijken naar de prijzen hier en intel is gewoon aantrekkelijk geprijsd als je kijkt wat er beschikbaar is binnen deze prijsklasse. Dat een verouderd kaart wat totaal geen toekomst perspectief heeft wordt geprezen maar een nieuwere kaart wat ongeveer evenveel kost en meer futureproof is de grond wordt ingeboord slaat werkelijk nergens op. Ook al zou de intel hier 100 euro duurder zijn dan in de vs, het is nog steeds aantrekkelijk geprijsd vergeleken met de rest van het aanbod in NL. t.net slaat hiet de plank totaal mis.
Nee aangezien de geteste kaart hier die echt alleen een prullenbak wachten of Intel B580 kopen conclusie verdiend maar 10 euro goedkoper is

Dan een kaart die tussen de 10-20% sneller is en 50% meer geheugen heeft.

Dan kan je geen andere conclusie hebben dan deze nooit overwegen.

Maarja commerciële connecties zijn weer belangrijker dan objectiviteit.
Maar dat is een hele andere discussie, waar ik het volledig mee eens ben trouwens. De 4060 moet je nu niet kopen (en eigenlijk nooit) want het is simpelweg geen goede kaart. Maar als je mijn post gelezen had, dan had je ook gelezen dat ik niet heb over deze review (of de conclusie van deze review).

Maar over het feit dat men verbaasd is dat de B580 reviews logischer wijs in de US een stuk beter zijn dan in NL (en mogelijk de EU, want in sommige landen is de B580 nog slechter geprijsd dan hier, iemand in Oost europa liet bijv. een prijs zien van €379 voor instap B580 kaart), want de B580 is hier simpelweg niet zo goed geprijsd als in de US en dus is de prijs / prestatie hier relatief gezien ook een stuk slechter dan in de US. En dat de B580 hier dus ook relatief gezien een slechtere deal is dan in de US. Met de huidige prijsstelling hier van €329 als je deze week nog een B580 wil hebben is dat immers ook geen enorm goede deal. Daalt de B850 hier echter naar +- €289 kan het wel een heel goede deal worden.

Maar tot het zover is, betaal je hier ongeveer net zo veel aan euro per frame voor een 4060 als voor een B580, en is het enige voordeel nog de 12GB ram, wat natuurlijk wel een groot voordeel is.

Kijk je bijvoorbeeld naar de hardware Unboxed data

Betaal je in de US $4.38 per frame bij de B580 en $6 bij de 4060 --- Flinke winst dus voor de B580, wat voor een zeer goede review zorgt.

Kijk je naar die verhouding hier met onze prijzen is het afgerond €5,78 voor de B580 en €6 voor de 4060.
En dat maakt dus de 4060 niet beter, dat blijft een slechte koop, maar de B580 komt er hier dus relatief gezien een stuk slechter vanaf.
329,- voor een B580 is een no brainer over deze geteste “excellent” 4060 van 319,-

Als er iemand voor me bij Azerty staat kan die dat 10tje krijgen als die niet die domme brand loyaliteit fout maakt.

Want een ander argument is er in dit geval niet.

Nou 379,- is een heel ander verhaal. Dan zit je hier al in de buurt van een RX7700XT. Die zitten net boven de 400,- dacht ik.
329,- voor een B580 is een no brainer over deze geteste “excellent” 4060 van 319,-
Ik zie het niet als B580 v.s. 4060 >> Je moet er een kiezen, wat veel mensen als vergelijking lijken te nemen. In dat geval zou ik ook zeker zeggen koop de B580 op dit moment.

Ik kijk er na in de zin van, als ik €6 per FPS geen goede deal vind bij de 4060, wat het duidelijk niet is, niet kopen die kaart. Is €5,78 per FPS bij een B580 hier in de EU ook niet goed ook al krijg je er 4GB bij, en dus ook niet kopen die kaart. Beide lekker laten liggen. Die prijs moet gewoon naar <€5 per FPS (veel lager zal het hier niet gaan, omdat wij hier 21% BTW hebben).

Ik zie met onze pricing de B580 dan dus ook eerder als het minst slechte alternatief op dit moment als je nu moet kopen en in dit prijssegment zit. Maar als je nu niet moet kopen, zou ik lekker wachten om te kijken wat AMD en Nvidia gaan brengen met hun nieuwe series (en dan voor de budget georiënteerde gamer eerder letten op AMD dan Nvidia als je de geruchten mag geloven), of wachten tot Intel hier de prijzen bijstelt naar <€290.

[Reactie gewijzigd door Dennism op 22 december 2024 20:29]

De prijzen van jou euro per fps kunnen niet kloppen met de 2 kaarten waar we het nu over hebben.

Het snelheidsverschil is daarvoor te groot en het prijs verschil te klein.

10-20% is prestaties afhankelijk van resolutie. Prijs in geld is 10 euro op 300 euro.
Dit zijn de cost per frame bij HuB, over een gemiddelde van 12 geteste games (een grotere sample size dan de meeste reviewers).

https://imgur.com/9ig6HlE

Kijk je naar die waarden scoort de B580 gemiddeld 57FPS en de 4060 50FPS, oftewel de Intel kaart is 14% beter, bijna dead center in de 10-20% range.

Qua prijzen kijk ik naar de Tweakers Pricewatch ( categorie: Videokaarten ), waar je voor €289 een 4060 kan bestellen die de volgende dag in huis is. En dan reken ik nog niet eens met de goedkoopste, maar pak ik het €300 prijspunt waar je keuze hebt uit diverse kaarten van MSI, Inno3D.

Voor de B580 doe ik hetzelfde, ik kies daar echter wel de goedkoopste kaart die volgens de price watch de volgende werkdag in huis kan zijn, met een prijspunt van €329 (De asrock)

Daarnaast is er ook nog een lichte bias naar de B580 omdat het 1440P waarden zijn, die in de regel gunstiger uitvallen voor de Intel kaart. Op 1080P was de vergelijking relatief gezien dus nog ongunstiger voor Intel.

Maar reken je dan met die die cijfers kom je op €300 / 50 = €6 voor de 4060 en op €329 / 57 = €5,77 voor de Intel kaart, ik zie dat ik daar inderdaad verkeerd heb afgerond, ik dacht dat het
€5,779 was (en dus afgerond €5,78), maar het was €5,7719, en dus afgerond €5,77

Maar die ene cent maakt natuurlijk ook het verschil niet op 1440P.

Zou je naar de 1080P data kijken van HuB is het verschil 72FPS v.s. 77FPS gemiddeld over 12 games in het voordeel van de B580. Of te wel nog maar 7% verschil in performance.

Qua prijs per frame kom je dan op €4,16 voor de 4060 en €4,27 voor de B580, of te wel, zoals ik al aangaf, minder gunstig voor de B580 bij onze prijzen.

[Reactie gewijzigd door Dennism op 22 december 2024 23:45]

Goeie toelichting,

Nog steeds geen verdediging voor de “excellent” review. Maar wel schrale troost voor de 4060.
Vergeet alleen het verschil in TDP niet. De B580 heeft een aanzienlijk hogere TDP vegeleken met de RTX 4060, wat nog wel eens het verschil kan maken als je een compacte, energiezuinige build wil maken. Met 180W tegenover 115W is dat verschil ongeveer de hele TDP van een instap/middenklasse processor.

Ga je voor de B580, dan heb je het toch over een full-size kast met minstens 600W aan voeding, terwijl je een RTX 4060 nog in een Mini-ITX behuizing kwijt kan want die is een stuk kleiner en loopt minder warm.

[Reactie gewijzigd door Stoney3K op 24 december 2024 12:17]

Het is gewoon lastig om het gejuich over Intel serieus te nemen als je de 6750XT heeft die giechelend rondes draait rond de Intel in raster.

De 4060 is gewoon een kaart met als enige (en zeker relevante!)verkooppunt de briljante TDP. Qua prestaties is het gewoon niet goed. Maar dat maakt de B580 niet opeens briljant....

Zeker omdat RT in dit segment nog te weinig relevant is, heb je voor budget gamers de 6600/7600/6750//7700 die qua "bang for the buck" zeker Nvidia, maar ook Intel niet briljant maken. En dat raakt IMHO Intel het hardste, omdat die op geen enkel punt onderscheidend is tov enerzijds spaarbrander 4060 en anderzijds rasterstamper 6750XT.

Vandaar dat ik de Tweakers review over de B580 compleet begrijp... het is het nog steeds net niet. Had ie zoals sommigen dachten 280,- gekocht wordt het uiteraard een heel ander verhaal, maar de prijs ligt 20% hoger...
De 580 is geen dijk van een product? In die review ging de comment sectie los over een adviesprijs van 280,- die compleet uit de lucht was gegrepen.

Het ding kost 330,- en dan is een stokoude RX6750xt een kaart die de 580 spijkerharde bnillenkoek geeft in Raster. RT is een ander verhaal, maar dat wordt ook met de B580 toch wel heel pittig op 1440P, dus tsja...

Je moet gewoon naar de prijs kijekn. Is de 4060 een slechte kaart? jep. Maar dat maakt de B580 echt geen "dijk van een kaart". Had ie 280,-? Dan had ik meegefeest, maar voor 330,-? Nope.

Je kan er op basis van de onontkombare feiten eigenlijk niet omheen, de Tweakers review was spot-on, de comment sectie ging los op een Amerikaanse adviesprijs (waarbij de community niet weet dat ook in de US er vaak nog belasting overheen moet, afhangende van de staat). De realitiet slaat die droom in duigen uiteen en maakt de prijs bepaald niet zo briljant als gedacht.
1200p op 56% lijkt me sterk.
Foutje bedankt ^^

Komt omdat ik zelf op 1920x1200 zit met een EIZO CX240.
Dus omdat de prijzen hoog zijn moeten we maar akkoord gaan met hoge prijzen? Je negeert natuurlijk ook even voor het gemak dat zeggen dat 1440p op 20% nogal erg kort door de bocht is aangezien iedereen met een resolutie hoger dan 1080p (niet 1200p) er baat bij heeft, inclusief mensen die op 1200p zitten. Volgens Steam zit meer dan 34% op een resolutie hoger dan 1920x1080. En dan is er natuurlijk nog het feit dat de > FHD groep afgelopen maand met meer dan 1% is gegroeid, dus ja 1440p (of hoger) is zeer zeker mainstream te noemen voor moderne setups.
Deze bevat echter meer hardware dan enkel desktops. Laptops, zeker gaming laptops, zijn qua hardware wat bescheidener en zullen mogelijk er aan bijdragen dat 1080p er oververtegenwoordigd is. Hetzelfde mogelijk voor apparaten met steam die aan oude tv’s hangen.

Daarnaast is het een globale survey en dus mogelijk niet representatief voor Nederland of de westerse PC gaming markt in het algemeen.

Zoals altijd met statistiek dien je de getallen eerst in het juiste perspectief te stellen voordat je het een conclusie aan verbindt.
56% van Tweakers publiek of 56% van de wereld met grote landen als India en China ;)

1440p is mainstream.

[Reactie gewijzigd door _eLMo_ op 21 december 2024 14:35]

Steam zit echt op een zee van data. Ik zou graag willen zien wat bijvoorbeeld de cijfers zijn in Nederlands, Europe en de hele 'The West' (ookal is dat geopolitiek niet een al te correcte term).
56% van de gebruikers zit nog op 1920x1200 volgens de Steam Hardware Charts,
1920 x 1080 bedoel je?
Is dit wereldwijd of alleen NL/EU?
Daar gaan we weer. Dit zijn altijd moeilijk misleidende statistieken.
Dit is net als zeggen dat EVs maar x% van alle auto’s uitmaakt. Je moet kijken naar hoeveel procent van de nieuwe verkopen EVs zijn, evenals de wensen van toekomstige kopers.

Je moet kijken naar de mensen die nu een nieuwe pc kopen, op welke resolutie ze willen/gaan gamen.

En daarbij zitten tussen die statistieken een hoop gamers uit armere landen, en een geoot segment zal überhaupt niet nieuw kopen maar tweedehands

En dat is 1440p, of 4k

[Reactie gewijzigd door lmartinl op 22 december 2024 14:03]

Een videokaart koop je niet alleen voor vandaag, maar voor de komende jaren. Uit de cijfers die je zelf noemt, blijkt dat nu al 44% van de gebruikers op een hogere resolutie gamet dan 1920x1080, wat aangeeft dat resoluties hoger dan 1080p nu al mainstream zijn.

Sterker nog: over een jaar zal het merendeel van de gamers op een hogere resolutie dan 1080p zijn games draaien, waarmee een 1080p videokaart die je vandaag koopt eigenlijk niet meer mainstream is maar eerder low-end.
Een videokaart koop je niet alleen voor vandaag, maar voor de komende jaren. Uit de cijfers die je zelf noemt, blijkt dat nu al 44% van de gebruikers op een hogere resolutie gamet dan 1920x1080,
Nee, het is zeer zeker niet waar dat 44% van de gebruikers boven de 1080P zit. Je beseft je niet dat er meer gebruiker onder de 1080p zitten dan dat er gebruiker op 4k zitten ;)

En omdat monitor upgrades trager gaan dan GPU/CPU is het de vraag of je met een 1080P setup nu opeens voor 330,- een kaart moet kopen als een kaart van 215,- ook prima voldoet (rx6600).

[Reactie gewijzigd door roffeltjes op 25 december 2024 14:56]

Een groot deel van de steam hardware charts zijn mensen in 3e wereld landen die op oude DELL workstations spelen met een 1660 swap, het is niet perse een goede indicatie van de westerse wereld AKA de doelgroep mensen die nieuwe videokaarten aanschaft.
[...]
We zijn eindelijk zover dat we kunnen zeggen dat 1440p de "mainstream" resolutie is bij nieuwkoop.[...]
Vanwaar dat je dit zo zegt? Omdat Intel en AMD kaarten hebben uitgebracht die meer dan 8gb geheugen hebben?

Je vergeet dan 1 onderdeel, namelijk schermen. Ik weet niet hoe het bij jouw zit, maar ik koop niet vaak nieuwe schermen en besteed er liever niet te veel aan.

Mijn vorige set ging meer dan 10 jaar mee, en die heb ik alleen vervangen omdat ik naar high frequency schermen met g-/freesync wou, en ook dit zijn (weer) 1080p geworden.

De Steam hardware survey is ook even interessant om er zijn te pakken. 55% van de gebruikers zit nog op 1080p. 1080p en 1440p is qua gebruik aan het afnemen (weet niet op welke termijn), en 4k resoluties zitten in de plus. Het lijkt er eerder op dat men 1440p overslaat en meteen naar 4k gaat (waar deze kaart niet echt volstaat)
De Steam hardware survey is ook even interessant om er zijn te pakken. 55% van de gebruikers zit nog op 1080p. 1080p en 1440p is qua gebruik aan het afnemen (weet niet op welke termijn), en 4k resoluties zitten in de plus. Het lijkt er eerder op dat men 1440p overslaat en meteen naar 4k gaat (waar deze kaart niet echt volstaat)
Dit is een mank argument voor verschillende redenen. De Steam Hardware Survey geeft een totaal beeld van de gehele markt inclusief aankopen van jaren terug. Maar de GTX 1650 heeft vandaag niet nog 3.63% van de nieuwkoop markt in handen.

1080p schermen die gericht zijn op gaming zijn er praktisch volledig uit aan het gaan. De resolutie zelf is duidelijk marktaandeel aan het verliezen terwijl 1440p en 4K (en andere gerelateerde resoluties) duidelijk marktaandeel aan het winnen zijn. Zoals je zelf al zegt; mensen vervangen schermen niet veel. Ondanks dat is er het afgelopen jaar een duidelijk pull naar 1440p+ wat indiceert dat schermen die tegenwoordig verkocht worden overduidelijk 1440p schermen zijn. En natuurlijk hebben gebruikers met een 4K scherm er ook alle baad bij dat hun GPU 1440p aankan in plaats van gelimiteerd te zijn aan 1080p.

Ik ben geen grote gamer, maar mijn monitor is wel gewoon een 4K scherm omdat ik de ruimte wil voor mijn werk. Als ik dan moet kiezen tussen 1080p of 1440p als render resolutie weet ik het wel. Het is pure onzin om zo'n scenario's gewoon af te wimpelen alsof dat niet gebeurd. Sterker nog, de Steam hardware survey lijkt te suggereren dat dat absoluut wel is wat de meeste gebruikers doen. Nvidia's en AMD's 4K-capable kaarten komen belangen na niet aan het marktaandeel van 4K schermen, en belangen na niet alle 4K-capable kaarten zullen überhaupt gecombineerd zijn met een 4K schermen.

[Reactie gewijzigd door Loller1 op 21 december 2024 12:08]

Je suggereert dat een kaart 4k capabel is of niet. In de praktijk is het niet zo zwart/wit. Wat 4k capabel is verschilt enorm per gebruiker. Minimum specs gaan vaak uit van 30fps, maar dat vind ik niet fijn. Ik kijk liever consistent naar 60+. Als ik dat niet haal, gooi ik liever de resolutie en opties omlaag om hogere framerates te halen. Daarom heb ik ook hogere framerates schermen en plaats ik eigenlijk altijd een iets te dikke kaart dan nodig voor mijn gebruik in mijn pc.
Ik vind het van zo gek dat men sinds een aantal jaar kaarten in een resolutie categorie duwt. Doe toch gewoon met je kaart waar je zelf lekker zin in hebt.

Ik speel zowel op men laptop scherm 1080p 300hz. Als op men monitor 1440p 165hz. Als op men tv 4k 60hz. En dit met dezelfde 2070 super maxq. Je past dit toch gewoon per game aan? BFV speel ik bv op men 1440p monitor met zogoed als alle settings zo laag mogelijk en dan SSAA tot 5k zodat ik men kogels ook op 2km afstand tussen iemands ogen kan doen belanden…
Zoals altijd is het allemaal heel erg persoonlijk. Wat een grote groep lijkt te vergeten is dat zelfs een RX6600 bottom of the barrel in heel veel games op 1440p prima draait (60-100FPS, tot zelfs 100+). Als je geen FPS en actiespellen speelt is het niet zo spannend.

Gamen bevat AAA games als CIV, Minecraft, Total War, The Sims, Stardew Valley, World of Warcraft etc. etc.. En dan hebben we het over enorme aantallen spelers. Dat zijn geen games waarbij 120+ frames relevant zijn.

Die mensen hebben geen 4090 Ultra Titanium Super editie nodig, zelfs niet als ze op 4k spelen. Sterker nog, ik gok dat ik Minecraft ook met een rx6600 op 4k kan draaien, dat is volgens mij compleet CPU gedreven :+
Je beschrijft waarom ik niet snap dat men hardware bestempeld met een resolutie. Is dat net niet het mooie van pc gaming, dat het niet zwart/wit maar grijs is en iedereen er zijn ding mee kan doen.
Het was ter ondersteuning van je punt :+
en besteed er liever niet te veel aan.
Gemiste kans.
en die heb ik alleen vervangen omdat ik naar high frequency schermen met g-/freesync wou, en ook dit zijn (weer) 1080p geworden.
Schermen? Een setup met drie schermen voor sim racen?
1440p VRR is anno 2024 goed betaalbaar.
De Steam hardware survey is ook even interessant om er zijn te pakken.
De steam survey is juist de belangrijkste reden dat ik zo stellig was: vorig jaar november stond daar 1080p rond de 60% en 1440p rond de 16%, dat zijn dus duidelijk dalende (naar dit jaar 56% voor 1080p) en stijgende (nu 20% voor 1440p) trends respectievelijk. Bovendien is zo een bijna één op één relatie tussen die verschuivingen bijzonder suggestief.

Voorheen vond ik overigens, op basis van de steam survey cijfers van die tijd, ook dat tweakers jarenlang veel te hard van stapel liep met 1440p in de "mainstream" bbg's, maar dit wordt mijns inziens niet meer ondersteunt door deze trends in de nieuwe cijfers.

[Reactie gewijzigd door emphy op 21 december 2024 10:34]

Na 10 jaar ga jij 1080p monitor kopen? Waarom geen 1440p?
En voor de prijs had je daar niet hoeven te bezuinnigen.

Beetje zonden zo en 4k gamen is voor mwnsen met hogere uitgaven.
Ik vind die te duur en je moet ook dikke energie kaart hebben.

En deze kaart ook niet kopen instap kaart haha.
Nieuwe kaarten komen in jan/feb.
Dan is dit verkeerde eend in aankoop.
Ik zou dit totaal niet aanbevelen ( deze videokaart )

[Reactie gewijzigd door xaradine op 21 december 2024 18:33]

Ik besteed qua computeronderdelen graag het meeste schermen, toetsenborden en muizen. Dat zijn de onderdelen die on contact staan mijn lichaam, dus als dat beroerd is heb ik daar last van. De rest boeit me een heel stuk minder.
Vergeet je stoel niet ;)

Bij muizen is meer uitgeven zeker niet hetzelfde als iets beters kopen. Het moet ook maar net goed zijn voor jouw handvorm en gebruik. Ik gebruik nog steeds mn oeroude Roccat Tyon* want die ligt fijn in de hand en heeft de knoppen die van alles aan te toe te wijzen is op fijne plekken. De Logitech G502 Lightspeed X of hoe het ding dan ook heet van mijn vriendin is een stuk duurder (en nieuwer) maar ligt niet fijn in de hand voor mij en de 'back' button for vrijwel elke klik dubbel registreerd is verschrikkelijk. Beste is een ergonomische verticale muis maar dat gamed niet lekker.

Bij toetsenborden raak je n.m.m snel een prijs plafond aan een is zeker bij de grote merken meer niet altijd beter. Keychron toetsenbordje is prima je kan dan nog wel 6 keer zoveel uitgeven voor iets wat n.m.m heel minimaal beter is. Vriendin had de Corsair K100 RGB OPX aangeschaft (als upgrade van een oude K70), meteen weer terug gestuurd waar een luidruchtig goedkoop aanvoelend onding.
Het is draait allemaal om persoonlijke voorkeur.

Ik heb een Logitech muis, MX518 en die bevalt prima. Hoeft niet superfancy te zijn, maar lekker bij hand passen.

Qua toetsenborden heb ik op een gegeven een Ducky One gekocht, met Cherry Red switches, en dat typt wel zo ontzettend lekker dat ik eigenlijk nooit meer iets anders wil. :D

Qua monitoren heb ik twee Eizo's staan. Ze zijn erg fijn, maar wel wat overpriced. Een Dell Ultrasharp is eigenlijk net zo goed en kost minder.
Meer dan de helft van de wereld gamed prima op 1080p en dat zal nog wel een tijdje zo blijven.

1440p is nogsteeds pas voor de fanatieke gamer. Tevens vraagt dat ook meteen een hoger budget videokaart waar mainstream wereld helemaal geen geld voor heeft, want je gaat snel richting 500 euro en meer. Dat soort geld in gaming steken, daar koop je al een hele console voor.
Gewoon niet waar wat je schrijft de werkelijkheid heeft je ingehaald de Intel B580 koop je voor ongeveer hetzelfde en die presteert redelijk goed met 1440P volgens vele bench-markers.
Alleen Tweakers vind van niet en ik zal het nog sterker vertellen de Intel Arc 750 heb ik verleden week gekocht voor 200 Eurootjes en deze kaart presteert ook prima op 1080P al heb ik deze gekocht voor mijn streaming computer. Voor de grap heb ik wel even Helldivers 2 gespeeld met 1440P en ik moet zeggen ik was wel wat verrast in werkelijkheid ligt de FPS zelfs nog wat hoger omdat ik de stream op dezelfde computer gebruikte. YouTube: Intel Arc 750 +1440P Gaming
Een RX6600 gaat ook niet compleet over zijn nek op 1440P... en dan hebben we het niet eens over het feit dat er een heleboel top games zijn die niet in het FPS genre vallen en waarbij FPS veel minder kritisch is.
Tevens vraagt dat ook meteen een hoger budget videokaart waar mainstream wereld helemaal geen geld voor heeft,
Dat valt tegenwoordig reuze mee vanwege de upscalers. Ik stuur een 1440p scherm aan met een RTX 3060. De meeste, iets oudere, games doen dat gewoon native zonder problemen. Een nieuwere game doe je DLSS op quality mode, ziet er alsnog scherper uit dan 1080p maar zelfde prestaties.
Voor 1440p vind ik dat maar flink behelpen. Schroef liever vrijwel elke andere setting omlaag voordat ik de upscaling aanrak dat is echt de de laatste noodgreep en waarschijnlijk speel ik het spel dan liever niet.

Het geeft 4k echter wel een stuk aantrekkelijker gemaakt, je bent niet meteen de Sjaak als je niet de allerlaatste en duurste kaart hebt.
Euhm, mijn Lenovo Legion laptop geeft een 1600p scherm en mijn game pc heeft een 4k scherm. Mijn tv is ook 4k, al game ik daar tegenwoordig niet meer op.

1080p koopt toch echt niemand meer? En 1440p kost nauwelijks meer. Lijkt me juist heel relevant als resolutie.
Statcounter zegt iets over de huidige distributie van resoluties. Ik vroeg mij af of de Nederlandse situatie nog afweek van de internationale situatie. We zijn een rijk land. 2.5 procent voor 1440p tegenover meer dan 12 procent voor 1080p is nog best een groot verschil moet ik zeggen.

Om eerlijk te zijn viel mij die huidige populariteit van 1440p nog wel tegen. Met de beschikbaarheid van betaalbare 1440p schermen was mijn verwachting anders.

Er is wel een hoop op die statcounter cijfers af te dingen. De cijfers kijken naar alles wat op het internet browsed. Dat heeft dus niets met gaming te maken. En wat men heeft is niet per se wat men koopt. De cijfers kijken in de achteruitkijkspiegel.

Dat wij hier het inzicht hebben gekregen dat de boel kantelt wil blijkbaar nog niet meteen zeggen dat de minder op hardware gerichte kopers hierbij al thuis zijn. Zelf draai ik met een oud systeem trouwens nog op 1200p.Moet nu switchen en wat mij betreft is 1440p een no-brainer geworden
Het duurt een paar jaar voor iemand weer een nieuw systeem koopt, goedkopere game computers gaan zeker 4-6 jaar mee tegenwoordig. Voor kids is een 1080 goed genoeg, zij zijn nu de mainstream geworden. Als je ouder word, groter huis, groter bureau dan komen de grotere schermen er bij kijken. Ook als je een groter scherm koopt en al een 1080 kaart hebt, dan koop je je 1080 scherm een paar inches groter. Het zal nog even gaan duren voor 1440 de mainstream gaat worden.
We hebben het hier over GPU's, niet over monitoren. Als iemand een GPU koopt behoudt hij meestal gewoon zijn Monitor Sterker nog, mensen doen heel lang met een monitor (dat is ook waar voor een TV).

Mijn 1080p TV is 16 jaar oud.... Ik heb geen idee waarom ik hem zou vervangen, zo vaak kijken we niet en dan is het meestal Youtube of Crunchyroll. 4k of HDR zijn voor mij totaal niet relevant. Ook ouderen zullen niet specs geilen op dingen als HDR etc. Als dat ding Ziggo en Netflix aan kan is het prima.

Dat ga je met gamen ook zien, hordes gamers spelen AAA titels die geen FPS zijn en die grafisch totaal niet spannend zijn (denk aan Minecraft als extreem voorbeeld).
We hebben het hier over de resoluties waarop zo'n gpu zijn werk moet doen, dus over de monitor (of meerdere) die erop is aangesloten.

Ouderen zijn niet bepaald de backbone van de gpu-markt. Verder worden er nauwelijks nog 1080p-monitoren verkocht, 1440p en hoger zijn veel populairder en nauwelijks duurder. De eerste 1080p monitor in de lijst met populairste monitoren in de pricewatch komt pas op plaats 25 (!) na 24 4k en qhd monitors.

[Reactie gewijzigd door Grrrrrene op 29 december 2024 09:53]

Een paar reacties.

Allereerst is mijn punt dat iemand die een nieuwe GPU koopt niet automatisch meteen een Monitor erbij koopt correct. Dat een monitor een langere levensduur heeft dan een GPU wordt ook in deze draad bevestigd, dus zelfs voor Tweakers is dit correct. Besef je wat dit betekent... al die mensen die nu een 1080P monitor hebben blijven daar nog wel een tijdje op door gaan... en die hebben die enorme snelhied niet direct nodig.

Verder, Ik heb nog geen getallen gezien die bevestigen dat er nauwelijks 1080P monitoren worden verkocht? Dat jij zoals velen hier ervan uitgaat dat Tweakers de mainstream is wel grappig, maar ik neem aan dat je ook wel weet dat jij niet representatief bent voor wat er verkocht wordt door de meerderheid van de gebruikers.
De pricewatch van tweakers wordt door veel meer dan alleen nerds gebruikt en juist de doelgroep van de pw koopt gaming hardware. Lijkt me prima relevant dus.
Alleen ligt de focus van dit artikel natuurlijk op 1080p en geen 1440p, net doordat deze kaart slechts 8GB VRAM heeft. En ik kan me inbeelden dat er nog heel veel mensen zijn die op een budget gamen en nog altijd een 1080p monitor hebben.

En het gaat natuurlijk niet alleen om VRAM, maar ook om rekenkracht, en ja, de B580 van Intel is ietsje sneller dan de 4060, maar van zodra je bij Nvidia een stapje omhoog gaat slaat de balans de andere kant uit. En die Nvidia kaart kost dan wel meer, maar is ook weer een stuk zuiniger in verbruik. Of dat uitbalanceert op termijn hangt dan weer af van hoeveel je gaat gamen.
Alleen ligt de focus van dit artikel natuurlijk op 1080p en geen 1440p, net doordat deze kaart slechts 8GB VRAM heeft. En ik kan me inbeelden dat er nog heel veel mensen zijn die op een budget gamen en nog altijd een 1080p monitor hebben.
Dat is de wereld op zijn kop natuurlijk. Dat deze GPU 8gb geheugen heeft bepaald dat dit artikel over 1080p gaat? Dat is nogal een omgekeerde redenering. Het is niet alsof de nieuwe Arc GPU geen 1080 kan.

Dit artikel gaat over een instap GPU, en daar heeft Intel nu een enorme stap gezet. De instapper markt is dus verstoord en dit artikel doet net alsof dat niet zo is.

Ook als je een 1080p monitor hebt wil je een zo hoog mogelijke performance. En een upgrade pad. Een GPU met 12gb levert beide. En dat voor een lagere prijs.
Ik vond de B580 review van Tweakers al opvallend negatief, zeker vergeleken met de rest van de industrie, en de keuze om een RTX4060 op deze manier te reviewen met bijbehorende conclusie doet daar dan weer een schepje bovenop.

Ik weet dat Tweakers geen gesponsorde reviews schrijft, daar hebben we vaak genoeg over gediscussieerd, maar ik begin langzaam aan wel het vermoeden te krijgen dat er een bias is op de redactie.
Ik vond de B580 review van Tweakers al opvallend negatief, zeker vergeleken met de rest van de industrie,
Is je vergelijk met de rest van de industrie toevallig voornamelijk de Amerikaanse reviews?

Het probleem daarmee is namelijk dat Intel de B580 in de VS significant goedkoper in de markt heeft gezet dan de RTX4060, waar hij in Nederland juist een paar tientjes duurder is dan de Nvidia kaart. Onder het mom van 'there are no bad products only bad prices' snap ik dan wel dat de conclusie van Tweakers een heel stuk anders uitvalt dan van de grootte Amerikaanse kanalen zoals een GamersNexus.

Neemt niet weg dat ook ik niemand meer zou aanraden om anno bijna 2025 nog 300 euro te betalen voor een 8GB kaart, ondanks dat ik zelf met een 3060Ti i.c.m. 1440P nog lang niet zoveel VRAM problemen heb als overal beweerd wordt (speel dan ook niet de allernieuwste AAA games). Maar ik heb die kaart natuurlijk al een hele tijd dus als die volgend een keer vervangen gaat worden vind ik dat niet onredelijk, maar nu nog zoiets nieuw kopen: Nee :P

[Reactie gewijzigd door !mark op 21 december 2024 16:12]

De 580 is veel duurder dan wat men bij Launch hier dacht (de comments juichten over 280,-, in werkelijkheid zit je op 20% meer). Als je dan ziet dat een stokoude AMD kaart de 580 billenkoek geeft in Ratser (toch voor dit segment het uitgangspunt) kan je niet heel positief zijn.

Had de launch prijs hier meer in lijn gelegen met het Amerikaans prijspeil had dit een goede deal geweest, maar voor 330,- ben ik net als Tweakers niet onder de indruk en snap totaal niet waarom er hier mensen heel hard roepen dat het een geweldige kaart is.

Dus wat mij betreft zit de Bias die je zxiet niet bij Tweakers maar bij een subset van gebruikers die zweert bij Gamersnexus en die niet eerst goed kijkt wat er voor het huidige prijspeil in Nederland te krijgen is.
De titel is letterlijk "de nVidia instapper voor 1080p". Het lijkt me dat dát bepaalt dat dit artikel over 1080p gaat.

Ik snap niet waarom je verder praat over de Intel, het artikel gaat over nVidia instapper, niet instapper an sich, toch ?

Met DLSS is de noodzaak voor meer geheugen beperkter, je kunt renderen op 1080 en dat upscalen, toch? Of denk ik dan te simpel ?
De vraag is of dit artikel wel relevant is.
Misschien dat sommige mensen enkel nVidia kopen, maar ik ga er van uit dat de meeste mensen gewoon willen weten: wat is de beste videokaart voor +/-300 euro.
Als dat toevallig de RTX4060 is, dan ok. Het is leuk om eens te zien wat de verschillende kaartenmakers er van gemaakt hebben, maar zoveel verschil is er eigenlijk niet.

Ik heb het gevoel dat deze review een jaar (of zelf langer) te laat komt.

[Reactie gewijzigd door catfish op 21 december 2024 09:55]

Ik denk dat je die groep niet moet onderschatten. Kijkende naar bijv. de vorige week gepubliseerde cijfers over marktaandeel in het dGPU segment voor Q3 2024 zie je dat Nvidia 90% van de markt heeft, AMD 10% en Intel 0%.

Zie bijvoorbeeld: https://imgur.com/Ss2LFUF (Jon Peddie) of deze lange termijn plot van 3Dcenter op basis van Mercury en Jon Peddie https://imgur.com/b5qfWEC

Het zou mij weinig verbazen als die groep die zich laat overhalen door goed gefundeerde argumenten aangaande alle kaarten op een bepaald prijspunt en niet alleen naar Nvidia kijkt vanwege mindshare binnen die groep een stuk kleiner is dan je zou willen.

[Reactie gewijzigd door Dennism op 21 december 2024 14:14]

Ik weet wel dat nVidia een groot marktaandeel heeft.
De vraag is of deze review op dit moment relevant is omdat:
- deze kaarten al een hele tijd op de markt zijn
- binnen een paar maand de opvolger wordt gelanceerd

Deze review is dus, zoals ik schreef, een jaar te laat.

Stel dat ik vandaag een nieuwe pc koop ok, maar als ik wil upgraden, dan ga ik zeker een paar maand wachten.
Als de 5060 betaalbaar gelijkaardig is van prijs, zal die zeker sneller zijn en als die iets te duur is, zal deze er voor zorgen dat de 4060 goedkoper wordt.
Ik kijk altijd naar het verbruik van de videokaart die ik koop, al jaren. Ik game op 1080p. Ik vind prijzen van een 4060 overigens nog steeds te duur. Rond ze 200€ zou ik de videokaart wel kopen. Ik gebruik nu de 1660super. Het nieuwste spel wat ik speel is Age of Empires 4. Voor mij is dit een prima artikel.

De 5060 verbruikt weer veel meer dan de 4060 als ik de artikelen moet geloven.

[Reactie gewijzigd door Is_ Y_ Serious? op 23 december 2024 05:21]

Met DLSS is de noodzaak voor meer geheugen beperkter, je kunt renderen op 1080 en dat upscalen, toch? Of denk ik dan te simpel ?
Dat is niet het geval. DLSS heeft zelf geheugen nodig (hij moet immers verleden frames, allerlei context/engineinformatie opslaan en een ML algoritme erop uitvoeren) en om mooi scherpe textures te kunnen reconstructen moeten er in beginsel mooi scherpe textures zijn (en moet je dus ook met DLSS dezelfde hoge textures gebruiken voor hetzelfde resultaat).

8GB is zelfs voor 1080p in nieuwe games aan de krappe kant (vaak genoeg al niet meer voldoende voor max textures) en hoewel dat voor oude games prima is (die meest op 1080p wel met 8GB overweg kunnen) maakt het deze kaart bij uitstek niet toekomstbestendig en voor moderne games al vrij problematisch.
Tot hiertoe heb ik op een 3060ti met 8GB 0,0 problemen in 1440p UW. Stop met mensen wijs te maken dat je dan enkel op 1080p kan gamen…
Nou, ik heb ook die kaart en je VRSM zit toch echt wel vol bij veel games, waardoor je je textures en/of wat andere settings omlaag moet zetten.
Niks ergs want het ziet er nog steeds super uit, maar iets meer VRAM zou wonderen doen bij die games.
Ik heb een iets snellere RTX3070, en één keer heb ik waarschijnlijk vanwege VRAM settings naarbeneden moeten zetten. Los van de vraag of ook met meer VRAM het had gemoeten vanwege andere redenen.

Ik vind het een compleet valide punt om aan te stippen dat 8GB VRAM niet overhoudt. Tegelijk is volgens het internet mijn RTX3070 een veredelde boekensteun, want als GPU is het een zinloos ding wat eigenlijk onbruikbaar is door te weinig VRAM. En in de praktijk valt dat toch echt voor mij iig reuze mee. (Op 1440p).
Games Exceeding 8GB VRAM

Games Exceeding 8GB VRAM at 1440p: Some modern games require more than 8GB of VRAM for optimal performance, especially at high resolutions.

Kerbal Space Program 2: uses 8.8 GB of VRAM at 1440p.
Dead Island 2: uses 8.7 GB of VRAM at 1440p.
Far Cry 6 (HD textures): uses 8.4 GB of VRAM at 1440p.
Doom Eternal: uses 8.2 GB of VRAM at 1440p.
Cyberpunk 2077: uses 8.9 GB of VRAM at 1440p.
Resident Evil 4: uses 9.1 GB of VRAM at 1440p.
Redfall: uses 9.5 GB of VRAM at 1440p.
MS Flight Simulator (2020): uses 9.2 GB of VRAM at 1440p.
Hogwarts Legacy: uses 10.1 GB of VRAM at 1440p.
Star Wars Jedi Survivor: uses 10.0 GB of VRAM at 1440p.
A Plague Tale: Requiem: uses 11.1 GB of VRAM at 1440p.
The Callisto Protocol: uses 11.2 GB of VRAM at 1440p.
Dead Space Remake: uses 13.0 GB of VRAM at 1440p.
Forspoken: uses 13.1 GB of VRAM at 1440p.
The Last of Us Part 1: uses 12.4 GB of VRAM at 1440p.


Bron: https://www.techspot.com/...-how-much-vram-pc-gaming/

Nogmaals, het is goed te doen met een 8GB kaart, maar ik moet af en toe een beetje rommelen met de settings. Niks mis mee, maar vandaag een NIEUWE 8GB kaart kopen terwijl je ook een B580 met 12GB VRAM kan nemen, is niet echt de verstandige keuze.
Nogmaals, het is goed te doen met een 8GB kaart, maar ik moet af en toe een beetje rommelen met de settings. Niks mis mee, maar vandaag een NIEUWE 8GB kaart kopen terwijl je ook een B580 met 12GB VRAM kan nemen, is niet echt de verstandige keuze.
Dit inderdaad,

Ik game al heel lang op 1440p met mijn RTX2070 Super met 8GB , en dat gaat goed geen problemen mee, kan alles wat ik wil draaien aan 1440p @ 90-144hz, maar inderdaad vandaag zou ik zeker GEEN kaart kopen met maar 8GB RAM
Ik heb mijn RTX 2070 super voor een goede prijs verkocht en een RTX 3070 suprim aangeschaft wat mij omgerekend maar €50 heeft gekost. Ik kon op mijn 2070 super alles op high/ultra @ 1440p 60 spelen maar met raytracing lukte dit niet.

Met de RTX 3070 merk ik dat de 8GB vooral in Cyberpunk een bottleneck vormt met alle raytracing aan op 1440p, dan haal ik zon 40 fps met dlls op quality. Op mijn 1080p televisie lukt het wel om op 60fps te spelen met alles op max, met path tracing haal ik maar 30 fps op 1080p helaas.
Ow ja, ik gebruik wel geen Raytracing hoor, zonder is goed voor mij voor moment,
spijtig genoeg normaal allang een upgrade gedaan, maar tja met die prijzen tegenwoordig blijf ik zo nog wel wat gamen tot er echt iets defect gaat,

vooral spijtig voor mijn kindjes want die hebben nu ipv mijn "oude" RTX2070 super en 1440p scherm te krijgen gewoon een nieuwe 1060Ti gekregen om weer verder te kunnen op hun 1080p scherm, (hun video card was defect gegaan, en normaal triggert zo iets een upgrade bij mij en een verschuiving van de hardware, maar nu dus niet)

Anders had ik al lang geupgrade naar 4K gaming, maar de prijzen beslissen daar anders over,
Ik speel een aantal van die games op 1440p UW, geen enkel probleem.

MAAR

Je laatste paragraaf ga ik wel akkoord mee.
Leuke bron maar ik als 3070 gebruiker die CP 2077 op 1440P ultra speel tik de 8GB vram toch echt niet aan :?

Zet ik wat settings iets lager en DLSS aan kunnen zelfs een aantal RT settings op medium en dan nog geen 8GB. Het zit er in de buurt maar spel geeft zelf aan eronder te zitten.

[Reactie gewijzigd door sapphire op 22 december 2024 00:36]

Ja allicht want je kaart heeft niet meer dan 8GB, dan kan je ook niet meer gebruiken
Ah ja het "ik heb er geen problemen mee" argument. Gooi al het objectieve bewijs integendeel de prullenmand in en substitueer het met je eigen subjectieve mening.

Al die voorbeelden die hardware unboxed inmiddels heeft getoond is allemaal anti-8GB propaganda! We moeten eindeloos op 8GB blijven steken, dat zal ze leren!
Problemen is een groot woord, maar texture poppen zie je wel, het feit dat als rx580 met 8gb uitkwam geeft wel aan dat er een reden is/was om dat te gebruiken om duurdere kaarten aan de man te brengen.

4060 w hier in de bloemetjes gezet terwijl Intel b580 nogal lauwtjes onthaald werd, spijtig want een beetje een schop onder NVIDIA's poep was niet slecht geweest.
Same, 2080S met 8GB op 1440p, draait alle games prima op redelijk hoge settings.

Wel met snelle CPU 7950X.
Idem hier, ik speel met identiek dezelfde kaart als jij World of Warcraft, Cod, Fortnite, Rdr2 en nog veel andere spellen in 1440p zonder problemen, de settings zet ik wel in sommige spellen wat lager maar ik kan nog steeds heel mooi gamen in 1440p rond en boven de 100fps.
De nadruk op vram is zoals de nadruk op megapixels ooit.
Ik kon destijds veel games helemaal prima al op 1440p spelen met mn GTX1060 (6GB).
Ja de games zijn wel minder geoptimaliseerd dan toen heb ik t idee, maar je kan waarschijnlijk nog steeds prima 1440p gamen met de 4060.
en vlak voor de aankondiging van de 5xxx serie
Eens. Zeer bijzondere timing.

Zelf door (ik denk) een prijsfout een B580 kunnen scoren voor 244 euro. Dan ga ik niet eens kijken naar een 4060....
Nu dat intel de knuppel in het hoenderhok heeft gegooid met een 1440p kaart met 12gb video geheugen voor (op dit moment, in Nederland) ongeveer 10% meer dan deze nvidia optie, vind ik de timing van dit artikel én de conclusies wat ongelukkig.

We zijn eindelijk zover dat we kunnen zeggen dat 1440p de "mainstream" resolutie is bij nieuwkoop. Dit aanbod van nvidia kant is met die kijk nu bedroevend verouderd, als het dat bij release al niet was.
Dit lijkt me wat overdreven. Het wordt natuurlijk pas main stream wanneer daadwerkelijk de meeste gamers zowel een 1440p monitor aanschaffen en op die resolutie gaan gamen. Dat is voorlopig nog niet aan de orde. Op steam zien we dat circa 55% van de gamers op 1920x1080 draait. Ondertussen is 2560x1440 beperkt tot 19% en is dat percentage zelfs aan het dalen. Wat stijgt zijn 3440x1440 en 4K. Maar dat is beiden zeker geen mainstream.

Verder zijn performance cijfers altijd een moment opname. Kwestie van tijd voor de games weer zwaarder worden en een 4060/B580 level kaart het zwaar krijgt op 1440p. Zie Indiana jones waarbij je gewoon 17 fps haalt op een RTX 4060 op 1080p high: YouTube: RTX 4060 | Indiana Jones & The Great Circle Performance Review / Ben...
Mijn gut reaction hierop was echt "hun, nu nog een roundup van deze kaart?!" en ik vind het zo gerustellend dat ik niet de enige was afgaand op de comments hier.

Dit ding was al het nieuws van gisteren, een kaart die niemand echt wou maar ja je moet toch iets met een strak budget. Nu komt Intel met een interessant alternatief rondom dit prijspunt en nu, nu?? gaat Tweakers dit publiceren. Komt wat onhandig op me over.

Maar goed. Zal vast wel iemand blij zijn met dit artikel.
De 4060 met 8gb, wat een onding van Nvidia.
Deze kaarten zou ik nooit aanbevelen.
Een RX7600 8gb overigens ook niet.
Ook niet voor 1080p anno 2024.

Nvidia en de fabrikanten van de 4060 kaarten zullen wel blij zijn met dit artikel.
Ik hoop dat men toch met verstand koopt en eerder voor een B570 10gb of B580 12gb gaat.
Of een 7600 XT 16gb.
2dehands is een 6700 XT 10 of 12gb ook leuk.

Ik had liever een mooie roundup gezien van Intel B580 12gb kaartjes:
Asrock, Sparkle, Acer en nog wat meer (hier/in de EU) onbekende merken met leuke feature als M2 slots.
Die roundup zien we hier dan wellicht ook over 2 jaar wanneer 12gb vram nog nuttiger is dan nu.

Voor de consument is het ook belangrijk dat de Intel kaartjes goed verkopen, vanuit concurrentie standpunt en prijzen in de toekomst.

[Reactie gewijzigd door HugoBoss1985 op 21 december 2024 10:13]

Ik heb een paar weken terug mijn 4060 (een MSI) voor 249 euro (en na een Amazon coupon voor 239) kunnen kopen.

Kijk als consument vooral wat je nodig hebt en waar je dat voor de beste prijs kan halen. Want de Intel B580 lijn zijn mooie producten. Maar voor 320 euro is een B580 wel een hele klap duurder voor 10% meer prestaties op 1080p gaming.

Hou de prijzen in de gaten want:
- Nvidia kan de prijzen naar beneden bijstellen om te concurreren met de B580
- De 5000 serie staat om de hoek (al zal low end nog wel een jaar duren), maar de 4000 serie gaat wel richting EoL.

Aan de andere kant kan Intel de B580 scherp in de markt zetten want ze willen concurreren. En nieuwe producten willen nog wel eens dalen in prijs na de eerste paar maanden. Ook de goede voorraad bepaalt of de prijzen kunnen gaan dalen.

En voor beide geldt: het is bijna kerst, er zal her en der nog best een goede prijs te vinden zijn van een goede aanbieding.

Als je monitor nog prima 3 jaar mee kan gaan en je speelt op 1080p, dan blijft een goedkope 4060 nog relevant. Wordt het prijsverschil minder dan 50 euro, dan is Intel weer interessant. Wil je in de nabije toekomst je monitor upgraden, dan even wachten tot de B580 voor rond de 300 euro weggaat.

Het zijn allemaal afwegingen die een koper zelf moet maken. Maar standaard roepen dat de 4060 ruk is en dat de B580 hemels is, is gewoon niet waar.
€249 (€239) is dan ook wel weer zo'n €40 minder dan de goedkoopste kaart in de pricewatch, met één ventilator.
Dus daar heb je geen verkeerde deal aan op prijs gebaseerd.
Ik had zelf een maandje geleden bijna een Inno3d 3060 12gb bij Amazon gekocht, voor hetzelfde bedrag!
Die 3060 12gb heeft nog steeds mijn voorkeur over de 4060 8gb.

Je kon bij Megekko op release day een Sparkle B580 kopen voor €319,90 mét een Assassins Creed game erbij, wat ook waarde vertegenwoordigd.
Die Assasins Creed actie loopt overigens nog een aantal maandjes bij de Sparkle kaarten, dus dat blijft voor de B580 relevant.
Die Sparkle videokaart is een model met 3 ventilatoren en ook nog een anti-sag bracket erbij.
€289 versus €319,90 lijkt me een meer eerlijke vergelijking.
Dan kijk ik niet naar de gratis game, de veel betere koeling en de anti-sag bracket erbij.

Als je de Sparkle kaart vergelijkt met jouw aanschaf van €239 vind ik persoonlijk de Sparkle (met de game actie) nog steeds een betere deal.
Want je krijgt dus ook 4gb meer vram.
En het is zeer aannemelijk dat Intel met driver optimalisatie nog meer prestaties uit de Battlemage kaarten gaat halen.

We weten niet wat games tussen nu en 3 jaar gaan doen qua vram eisen (op 1080p).
We weten wel dat er al sprake is van beperkingen dus dan vind ik het aannemelijk dat dit alleen maar "erger" gaat worden.
Details omlaag stellen/uitschakelen kan natuurlijk altijd in games ;)
Als de game(s) dat niet al zelf dynamisch doen i.v.m. een volle vram buffer.

Voor de duidelijkheid: ik roep inderdaad dat de 4060 ruk is (gelukkig ben ik niet de enige), maar ik roep niet dat de B580 hemels is.
T.o.v. de 4060 is (vind ik) de B580 wel hemels en voor de consument is een derde speler (in dit segment) ook hemels.
Het stroomverbruik (maar dat is ook weer t.a.v. de concurrentie) is een, terecht, minder punt van de B580.

[Reactie gewijzigd door HugoBoss1985 op 21 december 2024 11:00]

Intel zet de b580 scherp in de markt, dat zie je aan de webshopprijzen in de vs. Enkel in Europa zijn de prijzen significant hoger.
Probleem is natuurlijk wel dat wij niet zoveel hebben aan die scherpe pricing als de kaarten hier niet voor die prijs beschikbaar zijn. Kijkende naar de US pricing is zou de B580 kaart pricing hier moeten beginnen bij +-€286 (dus maak er €289) maar beginnen de meeste kaarten die daadwerkelijk op voorraad zijn zo'n €40 duurder toen ik dit vorige week checkte. Misschien dat het nu iets verbeterd is en laten we hopen dat het verder verbeterd hier, maar vorige week was de verkrijgbaarheid van de Intel kaarten op MSRP hier in ieder geval niet aan de orde.
Je hebt helemaal gelijk, je kan consumenten niets kwalijk nemen als webwinkels beslissen de ontel kaarten duurder te maken. Wat niet bijzonder vreemd is natuurlijk: ze zitten allemaal nog op grote voorraden rtx 4060 rommel die ze duur hebben ingekocht bij nvidia. Ze kunnen doe nieuwe betere intel kaarten niet onder die prijs verkopen, want dan blijven ze met de 4060 zitten.
Ik zou het niet direct bij webwinkel leggen in dit geval, ik heb wat inzicht in 'het kanaal' daarvoor, ik van wat ik daar vernomen heb (let wel, dit kan natuurlijk veranderen / veranderd zijn, ik heb alleen even rond launch geïnformeerd) en toen waren de prijzen niet zo dat de webwinkels veel minder konden vragen dan de €329 die ik langs zag komen voor de kaarten met directe beschikbaarheid (naar andere kaarten niet gekeken) zonder hun eigen marges te ver omlaag te brengen.

Ik krijg eerder het idee dat hier initieel enkel de duurdere Sku's beschikbaar waren, of dat mogelijk Intel bepaalde promoties richting de distributeurs / verkopers hier in de EU niet heeft, die ze in de US mogelijk wel hebben zodat de kaartbakkers dat $249 prijs punt daar kunnen benaderen voor de goedkoopste Sku's.
Aha, goed om te weten, bedankt voor de info!
Historisch gezien gaan de prijzen van Nvidia's kaarten niet echt omlaag naar het einde van hun levensloop toe, maar verdwijnen ze gewoon. De 4060 wordt bijvoorbeeld niet meer geproduceerd als ik mij niet vergis en dat zit nog altijd op zijn MSRP of daar boven. Deze kaarten gaan gewoon niet meer te koop zijn voordat ze in prijs dalen.

En zoals dit artikel al aantoont is 249 euro voor een 4060 gewoon een onrealistische prijs. Geen enkele 4060 staat hier in de Pricewatch voor dat geld beschikbaar, de goedkoopste ligt al gevaarlijk dicht in de buurt van de B580. En ja, op 1080p is het verschil misschien niet groot genoeg om het te verantwoorden (al zou ik zeggen dat dat wel het geval is, zeker kijkend naar Intel's A-serie), maar zodra je 1440p wilt spelen is het vandaag al een heel ander verhaal.
De Intel kaart heeft Tweakers al de grond in geboord (als enige reviewer) dus daar zul je weinig meer van horen. Nvidia is wat de klok slaat daar.
Dat ("is dit alles!?") vond ik ook een aparte zaak en dat voelde niet echt goed voor mij.
Het is inderdaad opvallend, zoals velen hier aankaarten, dat dit artikel nu na 1,5 jaar nog moet en vlak na zo'n mooie Intel launch.

[Reactie gewijzigd door HugoBoss1985 op 21 december 2024 12:06]

Ik had liever een mooie roundup gezien van Intel B580 12gb kaartjes:
Ik neem aan dat die roundup ook komt. Zodra die kaarten daadwerkelijk er zijn.
onbekende merken met leuke feature als M2 slots.
Als we het toch over niche features hebben :P . Ik snap het idee erachter, maar ja, erg niche dus denk ik.

[Reactie gewijzigd door Sissors op 21 december 2024 10:18]

Hopelijk duurt dat niet ook 1,5 jaar.
Het lijkt mij voor Tweakers.net niet moeilijk (om aan de kaarten te komen).

Het is zeker niche!
Ik zou het ook niet snel/eerder aanschaffen.
Het ging om de roundup, daar hoort zo'n kaart dan juist wel bij vind ik.

[Reactie gewijzigd door HugoBoss1985 op 21 december 2024 12:04]

4060 is perfect voor low budget gaming.
Met dlss 3.5 kan je zowat elke game aan die dat ondersteunt tot soms zelfs 4k.

Vram is maar een klein onderdeeltje
De 4060 is toch echt geen 4k kaart door de kleine hoeveelheid vram.
Je ziet juist dat andere kaarten met 10-12gb de 4060 nog veel ruimer voorbij gaan op 1440p en 4k dan op 1080p.
Qua prestaties is een 4060 misschien geschikt/bruikbaar op 4k mét upscaling, maar alsnog kom je dan gewoon vram tekort.
En framegeneration gebruikt juist méér vram.

[Reactie gewijzigd door HugoBoss1985 op 21 december 2024 11:28]

Jij had het over dlss, ik had het toch echt over framegeneration.

Logisch dat een game minder vram gebruikt met lagere settings (upscaling).
Dan is het feitelijk ook geen native 4k meer.

Tussen 8gb vram en 16gb vram zitten echt grote prestatie verschillen in moderne games, met name in de 1% lows, gemiddelde en maximum fps (zegmaar alles).
Vergeet ook niet dat sommige games dynamisch de kwaliteit omlaag schalen als de vram buffer vol zit/als dat te weinig is.

[Reactie gewijzigd door HugoBoss1985 op 21 december 2024 11:59]

Dlss omvat verschillende technieken , super resolution is er 1 van.
En ja meer fps met geen verschil qua beeld (in quality) is goed niet slecht.

En nee op 1080p is het verschil tuseen 8 en 16gb vram verwaarloosbaar in de meeste games zeker met zaken als dlss.
Waarom wil jij bepalen wat er op tweakers moet verschijnen en wat niet? Zeker als je weet dat niemand jou verplicht om dit te lezen, laat staan van deze volstrekt overbodige reactie te plaatsen. Interesseert het je niet? Move on en laat het artikel aan mensen die het wel interessant vinden.
Beetje heftige reactie. Ik zeg enkel dat de timing vreemd op me overkomt. En ik ben niet de enige. Maar joh, veel plezier met je 4060. Rasterization is overrated, DLSS and frame generation rules!
Ik zou normaal de doelgroep zijn voor dit artikel. Ben een casual gamer die niet te veel geld wil uitgeven aan een videokaart. Maar zelfs voor mij is een 4060 niet interessant.

Ook vraag ik mij af wat de waarde is van een artikel over de 4060. Kaarten die al 1 a 1,5 jaar te koop zijn, waarvan de prijs nauwelijks is veranderd en er geen extra nieuwswaarde is. Een kaart dat ongeveer hetzelfde presenteert als een 5 jaar oude 2070 super dat tweedehands bijna de helft kost van een 4060.
Het zijn de kaarten die het best verkopen en daardoor veel views in de pricewatch opleveren. Vandaar dat vanuit commercieel oogpunt van tweakers het zinnig is om deze roundup te maken.

Vanuit elk ander standpunt is dit volstrekt onlogisch. Ze zijn véél te laat en er is een zinniger alternatief om aan te raden.
Deze hele review is een vreemd verhaal; de timing is vreemd en de conclusie misschien nog wel vreemder...
Hoe is dit ding een excellent award waard?

Je kunt er nu wellicht wel prima mee gamen op 1080p maar hoe is dat volgend jaar of het jaar daarop?
Ik bedoel; dit is een videokaart van dik 300 euro, en dat is dan een "instapkaart"....
Alleen die prijs zou al een reden moeten zijn om dit onding brandend de vuilnisbak in te schrijven.

Nvidia heeft de prijs van videokaarten collectief en markt-breed naar een absurd niveau gebracht, mensen blijven het kopen want het is Nvidia, en met 75% marktaandeel op Steam hebben ze ook niets te vrezen.
Tech sites als deze zouden eens wat meer aan de kant van consument moeten gaan staan en een product als dit, voor deze prijs, gewoon geen award geven.
Deze kaart was van meet af aan al een slecht idee en 2 jaar later is ie dat nog veel meer.

Maarja...Arrow Lake`s Core Ultra 7 was ook een "prima keuze" aldus Tweakers....make up your own mind... zou ik zeggen.

[Reactie gewijzigd door dennisd op 21 december 2024 15:39]

Ik kom hier vraag voor de community en het technieuws wat specifiek voor onze markt relevant is maar voor hardwarereviews is het voor mij nu wel gedaan. Ik neem het niet meer serieus. De laatste reviews is er steeds (terecht) gezeur op bijvoorbeeld de conclusies en nu dan ook de relevantie.
De CU7 staat recht tegenover de R9 9900X. Met die eerste start je meteen met een nieuw platform, maar weinig technische vernieuwing tegenover de laatste gen. Bovendien liggen de kosten voor het platform hoger.
Is dit een artikel voor Nvidia ofzo? Waarom zou je dit aanraden met a) de 50-serie voor de deur en b) het bestaan van de Arc B580 die 1440p gaming met 12GB VRAM aanbied voor dezelfde prijs dan niet max 10% hoger? Als je rond kijkt bij iedere andere tech website wordt je steevast gezegd om de Intel kaart te kopen in dit prijssegment omdat niets anders competitief is, dus waarom zou je nog gaan voor een 4060 (en het risico lopen dat je enkele van de meer recentere games gewoon niet fatsoenlijk gaat kunnen spelen, e.g. Indiana Jones)?
Omdat de Intel kaart bijna 50% meer energie verbruikt?

Edit:

Bron: review: Intel Arc B580 - Grote stap voor Intel, kleine stap voor gamers

[Reactie gewijzigd door stuffie123 op 21 december 2024 14:08]

20%, terwijl hij 13% overall sneller is. Dat is echt spijkers op laag water zoeken als je dat argument gaat maken.

Bron:
YouTube: Intel Arc B580 Review, The Best Value GPU! 1080P & 1440p Gaming Benc...
Bijna 50% volgens tweakers:

review: Intel Arc B580 - Grote stap voor Intel, kleine stap voor gamers

"Anderhalf jaar na de introductie van de GeForce RTX 4060 komt Intel in de vorm van de B580 met een vergelijkbaar geprijsde videokaart die gemiddeld tot 10 procent sneller is in games en dan bijna 50 procent meer energie gebruikt"
Kijk ook even naar de prestaties per watt in hetzelfde artikel, en dan zie je waarom dit een non-argument is.
Let wel dat daar ook dit bij staat:
Prestaties per watt
Intel heeft 'geluk' dat wij Cyberpunk gebruiken als benchmark om de efficiëntie mee te berekenen. De Arc B580 presteerde in verhouding erg goed in deze game, wat de uitkomst van onze efficiëntietest erg ten goede komt. Desondanks weet de Arc B580 het niveau van de RTX 4060 niet te behalen; wel verslaat hij de RX 7600 XT ruimschoots. Als we afgaan op de prestatiescore van twee pagina's terug, komt de efficiëntie van de B580 eerder uit op het niveau van de Radeon RX 6600.
Tweakers test toevallig efficiëntie in Cyberpunk 2077, wat een best case scenario voor Intel oplevert. Ik zou die data dus niet direct als representatief voor alle games gebruiken.

Neemt echter niet weg dat bij dit soort vermogens het verbruik nu inderdaad niet echt het grootste argument is. Al zullen genoeg het wel steeds belangrijker vinden om andere dan enkel financiële redenen.

Kijk je toch even naar de Tweakers data verbruikt de 4060 +-55W minder dan de Intel kaart onder een gaming load

Zou je beide kaarten 5 jaar gebruiken om 40 uur per week te gamen (wat natuurlijk al bovengemiddeld veel is), zou ik met mijn huidige tarieven +- €177 besparen, of te wel zo'n €35 per jaar. Echter de meeste mensen zullen natuurlijk nooit gemiddeld aan 40 per week komen. Dus daar zal de besparing veel lager zijn.

[Reactie gewijzigd door Dennism op 21 december 2024 15:02]

Daarbij gaat die berekening er ook van uit dat hij constant op 99% GPU load staat. Overigens mijn bron heeft nog twee andere games. Het is qua efficiëntie niet dusdanig een probleem dat het de extra prestaties en extra VRAM uitweegt. De reden waarom efficiëntie belangrijk is, is juist in VSYNC scenario's dit de belangrijke factor is. Absoluut kijken naar verbruik zonder de prestaties erbij te nemen is natuurlijk absurd. Dan zou een 4090 ook geen bestaansrecht hebben.

Daarbij kun je ook een andere berekening erop loslaten, hoelang je ermee doet. Zie hoe de 3070 echt helemaal afgeschreven is vanwege de 8GB, terwijl je met 12 of 16GB nog prima ermee uit de voeten gekund had. Zie de 6700XT, die in de moderne games nog steeds prima 0.1% en 1% lows heeft. Waar alle 8GB kaarten door de mand vallen.

En textures kosten nooit fps, het is altijd, mits je genoeg VRAM hebt, een gratis graphics boost. En zie bij de nieuwe Space Marines game, hoe het de looks transformeert met de high-res texture pack...
Omdat de Intel kaart bijna 50% meer energie verbruikt?
Als nVidia meer energie verbruikt is dat nooit een argument..
De kaart verbruikt niet eens meer energie, zie bvb deze benchmark:
YouTube: Intel ARC B580 vs RTX 4060 - Test in 19 Games
Houd er rekening mee dat toekomstige driver updates de prestaties nog kunnen verhogen bij Intel.
Ik zou voor een nieuwe kaart dus ook eerder de Intel nemen.
Echter vind je voor 250 of minder ook 2e hands 4060 kaarten.
Nieuw zou ik nooit een 4060 (Ti) meer kopen gezien ook de 5060 wellicht zal verschijnen binnen de 6 maand.
"Houd er rekening mee dat toekomstige driver updates de prestaties nog kunnen verhogen bij Intel."

Die verwachting heb ik in het verleden iets te vaak niet zien uitkomen. Ik zou daar dus pas rekening mee houden als het zo ver is.
Met A770 is het ze gelukt, wellicht noemde hij het daarom.

[Reactie gewijzigd door HugoBoss1985 op 21 december 2024 11:02]

Nu met winterseizoen willen een hoop mensen lekker gamen, dan een half jaar wachten is lang.

Voor een 250 euro kan je zelfs wel een robustere 3070 nog halen.
Een verzonnen probleem is geen probleem, imo.

Ja, de kaart verbruikt wat meer energie, maar belangen na niet 50%. Daar bovenop is het ook een veel performantere kaart. Om nog maar te zwijgen over alle andere voordelen (en potentiële voordelen d.m.v. bijvoorbeeld driver updates). Dus dit is gewoon onzin.
3060 ti hier en kan Indiana jones enkel draaien met alles op low op men ultrawide.
Zo keek ik er ook naar. 4060 is gewoon een slechte keuze, AMD 7600 is een goedkoper en beter alternatief. DLSS en Raytracing ga je niet gebruiken in dit segment waar je dus alleen maar naar Rasterization performance hoeft te kijken.

Oud nieuws en klinkt mij meer als een Nvidia voorbode om Nvidia weer even onder de aandacht te brengen voor de komende launch.

Excuus, ik bedoelde de RX 7600 XT. Maar het is natuurlijk zowieso uitverhouding op dit moment. Deze review had gewoon na de launch moeten gebeuren. Dit zijn gewoon uitlopers en Nvidia moet ze kwijt omdat ze niet verkochten.

[Reactie gewijzigd door Brawler1986 op 21 december 2024 12:47]

Zo keek ik er ook naar. 4060 is gewoon een slechte keuze, AMD 7600 is een goedkoper en beter alternatief. DLSS en Raytracing ga je niet gebruiken in dit segment waar je dus alleen maar naar Rasterization performance hoeft te kijken.
DLSS ga je juist wel gebruiken, dat levert je een berg meer fps op. Het zit alleen niet in elke game, wel steeds vaker.
DLSS wel fantastische upscale technologie. Zeker als je een hogere resolutie monitor hebt.

Dus 1080p renderen en 1440p op je scherm. Echter dan nog zou ik de Intel B580 pakken. Waarom? 12 Gb is meer ruimte voor betere textures

Frame gen niet. Je hebt niet genoeg fps en het verhoogt de input lag.
AMD 7600 is een goedkoper en beter alternatief.
:?
De RX 7600 presteert juist slechter
review: GeForce RTX 4060 - De Nvidia-instapper voor 1080p
DLSS en Raytracing ga je niet gebruiken in dit segment
Ray tracing is steeds vaker verplicht en DLSS is juist een uitkomst voor dit soort kaarten.

[Reactie gewijzigd door Wolfos op 21 december 2024 12:13]

idd net zoals die nieuwe intel kaart plots is die op alle vlakken beter en de enige budget kaart die je meot opverwegen terwijl zowat alle reviews het tegendeel laten zien.
Geen slechte kaart maar afhankelijk van hoe en wat je gamed zeker niet de enige keuze.
Alleen Indiana Jones.
Ohja Star Wars maar die heeft Max 2 actieve spelers die het wat kan schelen. Flops tellen niet.

Beide kaarten komen toch snel in de problemen vanwege hun beperkte ram hoeveelheid.

Dus geen van beide ga je aanschaffen voor de toekomst. Eigenlijk zou ik geen van beide overwegen of adviseren.

Alleen de Intel B580 eventueel in dit segment. Maar liever flink doorsparen en/of wachten.
Resolutie is te laag om effectief gebruik te maken van upscaling. Het gaat er echt lelijk uit zien. Het is veel effectiever en mooier bij hogere resoluties dan 1080p.
Het is even "effectief" maar idd als je 1080p upscaled naar 1440p ziet dit er beter uit dat 720p upscalen naar 1080p.
Echter is 8gb VRAM genoeg voor meeste games om in 1080p medium/high the spelen en kan dus 1440p in dlss quality aan.

Bij de hogere kaarten gata het vooral om een klein beetje meer fps of beeld verbetering, gamen in 1080p of 1440p is een veel groter verschil dan .
Sorry je zit er echt naast. Extrapoleren van data (in dit geval pixels) gaat het beste wanneer je een grote dataset hebt. Hardware Unboxed heeft dit ook meerdere malen visueel onderbouwd dat extrapoleren het beste werkt tussen 1440p en 4k (want dat is wat DLSS en FSR eigenlijk doen incombinatie met algoritmes om artifacten, zoals ghosting en artifacten in static UI's, te voorkomen).
En nogmaals 1440p in dlss quality= 1080p qua pixels en dus vram verbruik.
Je kan dus gewoon in de overgrote meerderheid van games met flss (of fsr dat al in de buurt komt) dat gebruiken.
De 4060 miskleun en slecht ontvangen door de community 2 jaar terug, krijgt nu een aanbevolen koop? Wat is er veranderd dan, heb ik iets gemist?
Door de inflatie is geld nu 20% minder waard, dus de kaart is nu "goedkoper" dan 2 jaar geleden.
Zeker als je de kostprijs zou uitdrukken in goud.
Dan nog vind ik het een slecht advies, er zijn andere, betere opties.
Voor 1080p is het een prima kaart en 250-300 euro kunnen een hoop mensen missen als ze lekker willen gamen. Let wel, wat kan een 4060 nauwelijks tot niet spelen op 1080p? Plus je kan handmatig ook nog wat settings tweaken. Zeg een computernerd met toch weinig budget kan super hierop gamen.
Oja, het is oke , het werkt. Maar dan nog, het is geen goede deal en deze YouTube reviewer laat het pijnlijk duidelijk zien: YouTube: I Tried Nvidia's best "Budget" GPU to see if we're Doomed

De 3060 is de betere optie, met 12GB vram. Nvidia schiet zichzelf in de voet en tot mijn verbazing word dat hier nog verdedigt ook.
Zoals? Voor iemand die op 1080p casual gamed?
Ik denk dat je in dit prijssegment inmiddels misschien beter voor de nieuwe intel kaart kan gaan. Die biedt 12gb ram voor ongeveer dezelfde prijs. Gezien games steeds meer vram vragen (zie Indiana Jones and the great circle bijvoorbeeld), is dat vermoedelijk geen overbodige luxe in de nabije toekomst.
En de performance van een 4060ti
Vanuit iemand met DLSS als nickname zegt dit genoeg.
Volledig mee eens.

[Reactie gewijzigd door HugoBoss1985 op 21 december 2024 09:39]

De verwachting is dat de B580 van Intel goedkoper gaat zijn dan dezr kaarten zodra ze wat breder beschikbaar worden. Dan heb je een snellere kaart, met meer VRAM, voor minder. De conclusie zou wat mij betreft moeten zijn: koop geen 4060 tenzij je echt niet kan wachten.
De conclusie zou wat mij betreft moeten zijn: koop geen 4060 tenzij je echt niet kan wachten.
Fixed that for you. :+
Er komen steeds meer programma's voor AI fotobewerking die traag draaien op een processor met ingebouwde video. Een videokaart is eigenlijk onmisbaar. Zou dit aspect meegenomen kunnen worden in reviews van videokaarten zodat een goede keus gemaakt kan worden?
Zijn of komen er ook kaarten die enkel of vooral bedoeld zijn voor AI?
Is er een benchmark voor AI performance?
En wéér maakt tweakers er een potje van. Een excellent award voor een overpriced product dat bij release al dramatisch slecht was.

En dan nota bene terwijl intel een kaart heeft die 4060ti performance geeft voor minder geld.

Echt, tweakers, julie geloofwaardigheid gaat compleet door het afvoerputje de laatste paar maanden. Wat een bende.
Idd, dit lijkt meer op een ad voor Nvidia net voor kerst om nog even de laatste kaarten te kunnen verkopen voordat de 5000 series wordt released.
Ik ben zelf ook niet laaiend enthousiast over zo'n award voor de 4060, maar waar komt de 'weer inclusief dramatische accents aigu' vandaan? Het komt de overtuigingskracht van je post ten goede als je daar voorbeelden van post, zelfs als ze zeer beknopt zijn.
Ik vind het toch, zelfs voor casuals, erg lastig om een 4060 aan te raden. 8gb is gewoon een super bottleneck en kan vandaag de dag bepaalde games gewoon legitiem niet spelen.
Stalker 2 op 1080p max krijgt een volle 2 fps.
Space marine 2 heeft gewoon missende models/textures en dat is vandaag.
Wat staar ons te wachten over een jaar of 2? Werkt dan niks nieuws meer?
Dan is 300 euro wel erg duur en zou je bijna zeggen dar je beter af bent met een Series S.
8GB is inderdaad te weinig, een RX 7600XT kost net ietsje meer, is minimaal net zo snel, en heeft wel 16GB geheugen, dus vind dit zeker niet een Excellent Award waardig product.
Ik zie liever mensen laten doorsparen voor de 7700XT al heeft die “maar” 12 Gb

Of de nieuwe Intel B580
A770 is ook al interessant: vergelijkaardige prijs en overall (wel marginaal) betere prestaties als deze modellen.
Jammer dat de drivers nog niet op het punt lijken te zijn dat ik intel steviger durf aan te raden. Blijf zelf voorlopig mooi bij team rood.

Op dit item kan niet meer gereageerd worden.