Let op: je bekijkt een oudere versie van dit artikel. Bekijk hier de nieuwste versie van dit artikel.

Door Reinoud Dik

Redacteur

Beste videokaart voor 1080p-gaming

Videokaart Best Buy Guide

67

Beste videokaart voor 1080p-gaming

De beste videokaart voor gaming op 1080p, de populaire naam voor de resolutie die 1920 bij 1080 pixels telt, is natuurlijk op de eerste plaats de grafische kaart die op die resolutie goed presteert. Daarnaast is de prijs van de videokaart een belangrijke overweging in ons advies.

Voor deze Videokaart Best Buy Guide hebben we alle relevante videokaarten getest in tien games en met twee soorten kwaliteitsinstellingen: doorgaans de 'medium'- en 'ultra'-presets. Als een spel raytracing ondersteunt, testen we de prestaties ook met die optie ingeschakeld.

Hieronder vind je eerst onze aanraders, de zogenaamde Best Buys. We raden eerst een videokaart aan die je comfortabel met ruim 60fps laat spelen op 1080p-resolutie, gevolgd door een advies voor wie een monitor met een hoge refreshrate goed wil benutten.

Verder naar beneden kun je de benchmarkresultaten waarop we onze adviezen baseren bekijken en zetten we die prestaties af tegen de prijzen in onze prijs-prestatieverhouding.

Updates

16-12-2024 We hebben de Intel Arc B580 toegevoegd in de vergelijking, het aanbod gecheckt en de prijzen bijgewerkt. Dit zijn nog steeds onze aanraders.

14-06-2024 We hebben de aanraders van onze Radeon RX 7700 XT round-up toegevoegd.

Onze aanraders

Best Buy 1080p-gaming @ 60fps

Nvidia GeForce RTX 4060
Nvidia GeForce RTX 4060 Max. 2,46GHz • 8GB GDDR6 • Prijs bij publicatie: € 299,-
Bekijk product

Onze aanrader voor gaming op full-hd-resolutie kwam lange tijd van AMD, maar die fabrikant heeft het zichzelf lastig gemaakt. De RX 6600 en 6600 XT zijn opgevolgd door de RX 7600 en RX 7600 XT, die hogere prijzen hebben, terwijl de prestaties en het stroomverbruik niet zijn verbeterd. Nvidia heeft intussen stilletjes zijn RTX 4060 wat in prijs laten zakken, die met gemiddeld 89fps op 1080p ultra een uitstekende speelervaring oplevert, DLSS-ondersteuning aan boord heeft voor games die toch nog niet helemaal lekker draaien, en in sommige games zelfs raytracing vloeiend aankan. Bovendien wint de Nvidia-kaart het ruimschoots op het gebied van zuinigheid.

We hebben een round-up van RTX 4060-videokaarten gedaan, waaruit onze aanrader de ASUS Dual GeForce RTX 4060 EVO OC Edition is. Deze videokaart is erg stil en koelt goed, beschikt over een biosswitch maar verlichting ontbreekt.

De RX 7600 van AMD blijft een goedkoper alternatief dat het overwegen waard is; je bespaart een paar tientjes voor marginaal lagere prestaties. Wel ligt het stroomverbruik duidelijk hoger. Een iets sneller en duurder alternatief voor de RTX 4060 is de Arc B580 van Intel. Deze kaart beschikt over 12GB geheugen en is qua raytracing ook de sterkere. Er zijn momenteel minder beschikbare opties leverbaar dan alle RTX 4060-uitvoeringen, en de Arc B580 heeft een moederbord met ondersteuning voor Resizeable BAR en ASPM 2.0 nodig om respectievelijk de prestaties en het verbruik in idle optimaal te laten werken. Ook met deze opties ingeschakeld ligt het stroomverbruik tijdens belasting zo'n 40 tot 50 procent hoger dan bij de RTX 4060.

Bekijk de goedkoopste GeForce RTX 4060's

Lees hier onze GeForce RTX 4060-review

Best Buy 1080p-gaming @ 120fps

AMD Radeon RX 7700 XT
AMD Radeon RX 7700 XT 12GB GDDR6 • DP, HDMI Prijs bij publicatie: € 423,-
Bekijk product

Als je op full-hd-resolutie speelt met een highrefreshrategamingmonitor, heb je een snellere videokaart nodig om de hogere refreshrate van je scherm te kunnen benutten. De Radeon RX 7700 XT is wat ons betreft de interessantste videokaart voor dit doel, met gemiddeld 125fps in de tien geteste games en een relatief gunstige prijs-prestatieverhouding. Wil je nog wat ruimer in de was zitten, dan kun je zijn duurdere broer, de RX 7800 XT, overwegen. Die haalt gemiddeld zelfs bijna 150fps, maar is ook bijna honderd euro duurder.

We hebben een round-up van RX 7700 XT-videokaarten gedaan, waaruit onze aanraders zijn:

Bekijk de goedkoopste Radeon RX 7700 XT's

Lees hier onze Radeon RX 7700 XT-review

Prestaties in 1080p-gaming

Geteste games

  • Assassin's Creed: Mirage
  • Assetto Corsa Competizione
  • Avatar: Frontiers of Pandora
  • Call of Duty: Modern Warfare II
  • Cyberpunk 2077
  • Doom Eternal
  • F1 23
  • Forza Motorsport
  • Starfield
  • The Callisto Protocol

Om in een oogopslag te laten zien hoe de verschillende gpu's zich tot elkaar verhouden, berekenen we de gewogen gemiddelden vanuit de tien geteste games op basis van de resultaten. Deze gemiddelden noemen we de Tweakers GPU Prestatiescore.

Op medium-settings leveren eigenlijk alle geteste videokaarten een prima speelbaar resultaat af. Zelfs budgetkaarten als de RTX 3050 halen nog altijd tussen de 80 en 100fps. Een 120Hz-monitor krijgt al met een RX 6650 XT meer frames dan hij kan weergeven, en zelfs voor gemiddeld meer dan 240fps heb je aan een RX 7900 XT genoeg, die nog niet uit het absolute topsegment komt.

Met de hoogste instellingen duiken de eerste kaarten onder de 60fps. Met een Radeon RX 6600, GeForce RTX 3060 of Arc A750 haal je wel gemiddeld 60fps of meer. Omdat dat een gemiddelde is, ga je voor een gegarandeerd goede speelervaring in alle games liever wat hoger zitten, bijvoorbeeld op een Radeon RX 7600 (86fps) of GeForce RTX 4060 (89fps).

Als we raytracing inschakelen, heeft dat flink wat invloed op de framerates, en zoals bekend mag zijn is die bij AMD nog wat groter dan bij Nvidia. Voor gemiddelde framerates van meer dan 80fps zou je een RTX 4060 Ti of RX 7800 XT nodig hebben.

  • 1080p ultra
  • 1080p ultra + raytracing
  • 1080p medium

Ben je benieuwd naar de prestaties in een specifieke game? Bekijk dan al onze videokaartbenchmarks.

Prijs-prestatieverhouding

In onderstaande grafiek zetten we de prestaties van een videokaart, om precies te zijn onze GPU Prestatiescore voor 1080p ultra, af tegen de prijs van de videokaart. Om de prijs te bepalen, hebben we gekeken naar wat op het moment van schrijven de drie goedkoopste verkrijgbare videokaarten voor elke gpu waren in de Pricewatch, met als filter een levertijd van maximaal drie dagen. We hanteren de gemiddelde prijs van deze drie kaarten om tot de prijs-prestatieverhouding te komen.

De grafiek toont een kromme trendlijn van de prijs-prestatieverhouding van alle modellen die op de desbetreffende resolutie een prestatiescore hebben behaald. De interessantste gpu's vind je linksboven van de trendlijn; die bieden relatief hoge prestaties voor een relatief lage prijs. Kaarten met een stip rechtsonder de trendlijn hebben juist een relatief slechte prijs-prestatieverhouding.

Links in de grafiek is het behoorlijk druk met stipjes; dat geeft aan hoe competitief AMD, Nvidia en tegenwoordig ook Intel momenteel zijn. Relatief veel waar voor je geld krijg je onder meer met een RX 6600, RX 7600 of RTX 4060. In het hogere segment zijn de RTX 4060 Ti, RX 7700 XT en RX 7800 XT een bovengemiddeld goede aanschaf.

Reacties (67)

67
67
17
1
0
47
Wijzig sortering
Ik blijf het vreemd vinden om een xx60 kaart voor 1080p gebruikt te zien worden in 2024. Ik ben ruim 10 jaar geleden al overgestapt op 1440p. Eerst met een GTX 670, toen een RTX 1060 6 GB en nu draai ik alles vloeiend op 1440x3440 met een 3060Ti. Zeker met DLSS haal ik makkelijk rond de 100 fps in games.

Het lijkt normaal geworden om je budget aan te passen ipv de settings en je verwachtingen? Tuurlijk is het leuk om honderden fps te halen op ultra settings, maar als je geen flagship kaart wil kopen is dat gewoon niet realistisch.

[Reactie gewijzigd door Alxndr op 22 juli 2024 13:20]

Ik ben het met je eens. Ik ben zelf met een GTX 960 naar 1440p gegaan, en uiteindelijk door naar 4K met een Titan X.

Waar het vroeger zover ik om me heen zag heel normaal was om je software aan te passen op je hardware, lijkt PC gaming nu echt te zijn veranderd van een hobby waar je zo min mogelijk aan uit geeft, naar een hobby waar je veel in investeert.

Ik vraag me echter af of dit komt omdat we zelf ouder zijn en ons omgeven met veel mensen die voor hun geld werken, en het daarom ook gewoon leuk vinden om ergens geld aan uit te geven. Als tiener had ik wel geld (sparuuuh), maar m'n vrienden niet. En de mensen die ik online tegenkwam waren meestal van ongeveer dezelfde leeftijd. Dit kan daardoor natuurlijk een vertekent beeld geven van de realiteit.

Maar idd, vroeger was het beeld om me heen (online én offline) dat je je software aanpast op je hardware, maar nu is het zeker hardware aanpassen op software geworden.
Heel herkenbaar. Vroeger kocht je geen 1024x768 GPU, maar een GPU die instap, midrange of high-end was en keek je simpelweg naar wat je voor 350€ kon krijgen.

Maar goed, Tweakers kan het daar natuurlijk ook nooit goed doen. In de PC BBG's was immers het beklag altijd dat er halstarrig werd vastgehouden aan arbitraire budgetten en er niet werd gekeken naar de doeleinden van een systeem. Dat laatste poogt men nu natuurlijk te doen met deze guide.

Een middenweg lijkt me desondanks met GPU's wel wat doelmatiger. Uiteindelijk is het belangrijkste voor de consument te bepalen waar je nu gewoon de beste koop mee doet en dat is relatief. Daarin gaat het vooral om het vraagstuk "wat levert het mij op die 50 Euro duurdere kaart te kopen t.o.v. het model wat in gedachten had?"

Het lastige daaraan is, waar je vroeger met de x600 en x700 producten de beste prijs/prestatie verhoudingen had, lijkt het tegenwoordig eerder lineair door te schalen. Wat natuurlijk weer pleit voor een onderscheid op basis van resolutie- en frameratewensen.
Heel herkenbaar. Vroeger kocht je geen 1024x768 GPU, maar een GPU die instap, midrange of high-end was en keek je simpelweg naar wat je voor 350€ kon krijgen.
Iedereen die in 1998 twee 3dfx Voodoo2's kocht om met SLI in 1024x768 te kunnen spelen zal je tegenspreken. :P
Sorry, guldens :P

Mijn eerste GPU was een TNT2 in een build die (waarschijnlijk) veel CPU bound was om echt lekker de vrije loop te hebben gehad.

Ik dacht eigenlijk meer aan de tijd dat iedereen verlekkerd naar de 6800 Ultra of GT keek. Mooi voor de benchmarks, maar ondertussen kocht men dus een 6600 GT omdat dat gewoon de sweet spot was waarmee je wel alle moderne shader features kon draaien, weliswaar wat langzamer maar voor een fractie van de prijs.

Op welke resolutie er dan maar gespeeld moest worden was eerder bijzaak. Je had immers geld voor de 6800 of je had het niet. Een belangrijk punt wat weldegelijk een relevant verschil maakt, is dat je destijds je monitor gewoon van een native 1024x768 naar beneden kon schroeven naar een native 800x600. Ook wat dat betreft was de stap naar LCD niet bepaald een vooruitgang.
Dat valt denk ik wel mee. De aandacht die de dure kaarten krijgen in de media gericht op hardware, staan in schril contrast met de werkelijke populariteit van deze kaarten. De steam hardware survey (https://store.steampowered.com/hwsurvey/videocard/) kan je raadplegen om een realistisch beeld te krijgen van de populariteit van een videokaart. Deze survey laat zien dat het overgrote deel van de kaarten vallen onder het low en midrange segment.
Ik game met een 3080 (Asus ROG OC in een custom water loop), op 2560x1080 en vind het alles behalve overhouden... (Ga waarschijnlijk wel over op de 5080 richting het einde van het jaar.)

Als je DLSS uitgeschakeld houdt (vind het zelf maar helemaal niks die feature want onscherp(er) beeld) en vervolgens alles op ultra zet in hedendaagse titels, kom je met jouw kaart zwaar tekort op 3440x1440, want 100 fps is voor mij wel de absolute ondergrens.

Zelfs een 4090 kan gerechtvaardigd worden op 1080p indien je een 480Hz scherm hebt en alles op ultra settings wil draaien in een game als bijvoorbeeld Cyberpunk. Het is maar hoe kritisch je bent.

[Reactie gewijzigd door Roy81NL op 22 juli 2024 13:20]

Het verschil is vroeger was je dan per game een half uur/uur bezig om de settings goed te krijgen mbh een guide die toonde welke settingh wat effect gaf op je FPS. Reviews bevatte screenshots van vergelijkingen om PQ.

Nu verwacht iedereen gewoon resolutie op ultra settings perfect te gaan en geklaag als dat niet goed draait.


Je kan perfect met een 4060 op 1440p de meeste games spelen, je zal dan enkel settings moeten aanpassen en/of zaken zoals dlss moeten gebruiken.
Vroeger was het idd priegelen, maar nu gebruik je gewoon presets die ieder spel heeft?

In 5 seconden ben je klaar... Als je al instellingen aan moet passen. Hoeveel games kiezen niet zelf al automatisch prima instellingen?
Die zijn niet optimaal, zelf kan je veel beter instellen naar wat je wil.
Ik heb geen idee welke instelling nu meer of minder effect op de prestaties heeft, of zou moeten hebben.

Voor mij is het geneuzel in de marge, want zelfs 10% betere performance kan me gestolen worden, het verschil tussen 60 en 66 of 100 en 110 fps, dat verschil zie/merk ik echt niet als er geen fps counter op m'n scherm staat. Meer dan 100 fps wil ik sowieso niet, daar kan m'n monitor toch niets mee. ;)
Je kan soms veel meer met settings dat je soms amper merkt.

Maar daarvoor moet je wat tijd insteken , wat vroeger geen issue was maar nu wel.

https://www.reddit.com/r/...e_fps_by_93_graphics_and/


93%

[Reactie gewijzigd door k995 op 22 juli 2024 13:20]

Ik vind de 6600/6600XT/6650XT nog altijd een actuale kaart. De 6600 te krijgen voor ong 200 euro ipv 300+ euro voor de 4060 mag wat mij betreft in 2024 nog steeds een plaatsje hebben voor een budget built. Wel zou ik in 2024 geen +300 euro mee over hebben voor een kaart met slechts 8 GB VRAM van welk merk dan ook.
Voor een 1080p build maakt dat weinig uit. 8gb vram is genoeg daarvoor , ern krachtig genoege gpu die je overal 60fps geeft is dan belangrijker
Het lijkt toch wel een verschil te maken. Zeker in sommige nieuwere games. Hangt natuurlijk ook af van de settings in game. En dat will natuurlijk niet zeggen dat ze onspeelbaar worden.
Heb video's gezien van bijvoorbeeld Hogwarts legacy waar er rare dingen gebeuren met textures met 8GB.

Hier een vid met vergelijking met 4060ti 8GB en 16GB
https://www.youtube.com/watch?v=_-j1vdMV1Cc
https://www.techpowerup.c...-founders-edition/21.html

Geen verschil als je dat nu test , voor games zijn die kaarten te traag om verschil te maken.

Je kan dat ook daar zien bij de 3070 ti (8gb)vs 7700xt (12gb)
in 1080 p : 7700 xt beter dan 3070 ti, in 4k plots 3070 ti beter met minder vram. Die 8gb is genoeg voor die game zelf in 4k en dus maakt dat niet uit. Misschien als je 4k ultra en nog wat raytracing er bovenop gooit maar nu hebben die kaarten al maar 40fps dus die trekken dat nooit.

Je video laat dan ook zien trouwens, op 4k zitten die kaarten op 20-40fps wat onspeelbaar is, dus het verschil daar maakt niks uit.

[Reactie gewijzigd door k995 op 22 juli 2024 13:20]

Je hebt duidelijk niet de hele video gekeken. Want hij geeft duidelijk aan dat het wel degelijk vershil maakt, ook op 1080p. Jij lijkt alleen te kijken naar avarage FPS. Maar als je naar de FPS grafiek kijkt dan zie je dat bij 16GB deze veel vlakker is als bij 8GB. Wat er lijkt te gebeuren is dat de kaart gaat swappen met systeem geheugen, en dus telkens geheugen heen en weer aan het sturen is tussen GPU memory en system memory. Dit veroorzaakt FPS drops.

Het punt van de video was niet om te zien of de game speelbaar is op 4K, maar om te kijken naar het effect van meer geheugen beschikbaar hebben.
Nee zoals ik al zei forceert hij dat door (bijvoortbeeld de eerste game) very high en raytracing op very high te zetten waardoor hij onder de 60fps komt. De 1% zelf op de 16gb zit op 37fps wat wel heel traag is en dat zal je echt dat gaan merken.

Dat is mijn argument hij kijkt louter naar de verschillen en zegt dan "16gb geeft je 2fps en 8gb 1 fps"

tja leuk maar beide zijn onspeelbaar en dus maakt het niet uit. Zal je misschien ergens een game vinden waar dit niet op is? Tuurlijk wel maar de overgreote meerderheid van games maakt dit niet uit voor de 4060 omdat die niet krachtig genoeg is. Je moet dit per kaart bekijken en niet 8 vs 16gb algemeen.
Daar twijfel ik aan. Als je in de weer gaat met ray tracing kun je ook op 1080p tekort gaan komen. Nu zal dat nauwelijks het geval zijn, maar over 1 a 2 jaar kun je dan al meteen kijken naar een kaart met meer Vram.

@Tomas Hochstenbach Mijn ervaring leert me:

Als ik de beste waarden mag bepalen dan zou ik de rtx4070 als de ideale kaart aanschrijven voor 1080p. 12 GB Vram, heel rap en is ook nog eens zuinig. Combineer je dit met een Ryzen 7800X3D dan ben je (voor nog een net bedrag) echt binnen voor de komende jaren. Ook kun je met deze kaart zalig gamen met ray tracing vol open en hoef je geen concessies te doen.

Je ziet het al; ik kijk bewust wat verder in de toekomst want veel mensen die een dergelijk systeem kopen zijn of competitieve gamers of mensen die iets meer op het budget letten. Juist nu kun je met zo'n systeem lang vooruit eer upgraden nodig gaat worden.

Heb je nog een AM4 build, dan is de 5800X3D ook een hele leuke processor. Ook deze kun je combineren met een rtx4070 voor deftige framerates.

Nu kiezen voor 8 GB Vram is mensen indirect op kosten jagen binnen een te korte termijn. Heb je nu een 8 GB kaart, dan zou ik lekker doorgaan, maar om het nieuw te kopen geeft mij bedenkingen. Ik ben het op dit punt niet eens met de review. En dan ook als je over wilt gaan stappen naar 1440p, dan kom je snel tekort en kun je weer geld gaan uitgeven. 8 GB Vram beschouw ik nu als ab-so-lu-te minimum met het oog op recente games. ;)
Daar twijfel ik aan. Als je in de weer gaat met ray tracing kun je ook op 1080p tekort gaan komen. Nu zal dat nauwelijks het geval zijn, maar over 2 a 3 jaar kun je dan al meteen kijken naar een kaart met meer Vram.
Hangt sterk af welke resolutie je gebruikt, 1080p : zeker niet.
1440 zal van game tot game afhangen
4k:is idd te weinig.

Als ik nu zie en nieuwe games:
helldiver 2 : 4.5GB VRAM
Suicide squad : 7GB VRAM
beide in 1440p high of ultra.
Een game als The Witcher 3 met alles open heeft hier wel eens de 11,6 GB Vram aangetikt. Cyberpunk 2077 vind het ook erg lastig om het binnen de 8 GB te houden en hier heb ik het over 1080p met alles wat vol open kan ook echt vol open te hebben. Ik heb een rtx4080 op 1080p met een 7800X3D. En dan heb ik liever 10 GB te veel dan 0,1 GB te weinig want dan krijg je lag en stutters.

De Best Buy gaat in mijn ogen over de beste kaart voor 1080p en dan kijk ik graag ook naar de nabije toekomst. Nieuwe games over 2 jaar gaan echt te weinig hebben aan 8 GB Vram. Met een videokaart wil je toch wel 3 a 4 jaar mee kunnen want ze zijn nu niet bepaald goedkoop. Daarom lijkt mij de rtx4070 dé metgezel op 1080p of 1440p die het langere tijd uit kan zingen en die je ook plezier geeft met games die over 2 a 3 jaar uitkomen zonder dat je móet gaan upgraden.
Een game als The Witcher 3 met alles open heeft hier wel eens de 11,6 GB Vram aangetikt.
Op 1440p? Zonder mods ?

https://www.youtube.com/watch?v=TnpmPhH1h58

1080p : 5GB vram 1440p : 6GB VRAM. Heb gezien tot 7gb met raytracing maar deze kaarten trekken dat echt al niet, misschien met DLSS SR en FG aan.

Zondrr RT: Geen verschil tussen een 8gb 4060 vs een 12gb 3060 het verschil tussen 1080p en 1440p blijft even groot.
De Best Buy gaat in mijn ogen over de beste kaart voor 1080p en dan kijk ik graag ook naar de nabije toekomst. Nieuwe games over 2 jaar gaan echt te weinig hebben aan 8 GB Vram.
Ik zie sommige dat al zeggen en vragen sinds 2020, en de nieuwste games in 2024 zitten er langs geen kanten aan op 1440p ultra.8gb vram op 1080p is echt geen probleem in de over-over grote meerderheid van games.

Een 4070 is natuurlijk beter maar dubbel zo duur, als je het geld hebt : go for it maar anders zal een 4060 wel voldoen, mits wat concessies en aanpassingen ook binnen 2-3 jaar.
Goed kijken ;) Hier heb ik het over 1080p

In die video staat alles op ultra (dus niet ultra+) en gebruiken ze geen ray tracing. Ik bedoel dus alles open wat open kan zonder concessies. ;)

https://forums.cdprojektr...ppend%20this%20issue%20).

[Reactie gewijzigd door jimh307 op 22 juli 2024 13:20]

Dat is al meer een jaar oud toen het echt heel unoptimized was en dat was dus een memory leak, geen normaal gedrag. Pacthes hebben dat opgelost.

Ik zou iets recenter pakken en zonder memory leaks anders is zelfs 24gb VRAM niet genoeg.
Met alle respect besef je toch wel dat 8 GB Vram in de zeer nabije toekomst te krap gaat worden. Om nu nog een grafische kaart aan te schaffen met 8 GB vind ik eerlijk gezegd een oplossing voor de korte termijn. Heb je er al een dan is dat prima, maar mensen steken dan geld in een kaart die zich hooguit maar enkele jaren stand weet te houden.

Videokaarten zijn nu eenmaal heel erg duur en mijn plan is het niet. Je wilt toch wel voor de komende 3 a 4 jaar gebakken zitten als je hierin investeert en met 8 GB Vram is dit niet te garanderen.
Met alle respect besef je toch wel dat 8 GB Vram in de zeer nabije toekomst te krap gaat worden. .
Nee. Daar geloof ik niet zo in. Zelfs jij moet toch bekennen dat er juist met de instap rx6600 ongekende prestaties worden gehaald. Daar waar je altijd opties moest neerhalen op 1080p om hoge framerates met een instapper zit je nu dik boven de 100 frames.

Ook jij moet volmondig bekennen dat er zat mensen zijn die Hogwarts spelen op nog tragere kaarten,

Die twee realisaties maken de notie dat je over vier jaar weinig meer kan met een rx6600 heel erg discutabel.
Het is een BBG en geen plek om zo laag als mogelijk te gaan.
We gaan het zien als ik zie hoe games in rap tempo zwaarder worden. Je hebt een punt als je met de setting gaat spelen.
PS: lees al mijn berichten door eer je deze conclusie trekt. ;)
Dat doe ik, jij kijkt vanaf de high end en vind dan een besparing van 100 euro gekkigheid. Kijk je echter vanaf de onderkant dan snap je opeens dat dit een serieus prijs gat is. En juist bij het 1080P systeem telt dat argument veel zwaarder.

Het kern probleem van jouw stelling is dat ook jij volmondig zal moeten toegeven dat het bodem niveau van een 4060 veel hoger ligt dan wat het basisniveau van pak hem beet 4 jaar geleden was... de kaart is sneller geworden dan de spellen zwaarder, tenzij je de curve doortrekt naar 4k (ook op 1440 ben je met 8gb met vrijwel elk spel nog steeds okay, het is nu eenmaal niet half zo snel gegaan als dat de puristen riepen). Deze ontwikkeling is niet alleen niet te ontkennen, het geeft ook al aan dat er meer headroom is. En als je dan ziet dat mensen nog steeds met oude kaarten gamen is het alleen maar duidelijker dat je met een 4060 echt niet in de zeer nabije toekomst "te krap" zit.

En BBG? Uiteraard speelt juist bij het goedkoopste systeem de prijs zo hard mee. Jij komt met het advies voor een 4070 die 100% duurder voor 50% sneller (tov een RX 6600 is het 200% duurder voor 100% sneller...). Er zijn heel goede redenen waarom je geen bijval krijgt met je advies voor een 4070 te gaan. Dat is veel en veel te duur en gewoon niet nodig voor dit systeem.

Ik zet met alle plezier een biertje op de stelling dat je over vier jaar zelfs met een RX6600 nieuwe titels prima kan spelen. Aangezien mensen ook nu met ouder en slechter kaarten dat ook doen is dat makkelijk verdiend ;)

Het is ook compleet logisch, ook gamemakers kijken wat de gemiddelde gamer heeft en proberen daar inde buurt te blijven.

[Reactie gewijzigd door roffeltjes op 22 juli 2024 13:20]

@Tomas Hochstenbach @k995 @roffeltjes

Ik heb dan ook klaarblijkelijk geen juiste indruk van deze BBG gehad.

De RTX4060 is dan ook zeker niet goed en veel te duur want de RX6600 is én goedkoper en kan volgens jou over 4 jaar nog de nieuwste titels aan (wat ik denk doet er niet toe). Dus dan zijn we eruit en stop ik met advies geven over videokaarten want ik kan bijna niet pijnlijker ongelijk krijgen door iedereen, haast een vernedering. Ik schaaf mijn mening bij dat 8 GB VRAM nog voor vele jaren genoeg is op 1080p.

Een BBG bekijk ik dan voortaan vanuit een kosten/baten budget en moet zo optimaal mogelijk zijn. Dat verklaard ook dat de Geforce GTX1650 nog in relatief veel systemen zit.

Noem het dan ook geen BBG maar "1080p on a budget". :/
Je moet dat niet zo direct nemen, soms ben je juist soms niet. Dat overkomt iedereen.

EN neen nergens sprak ik van de RX6600, het issue was : is ELKE kaart met 8GB nu al "verouderd" als sommige beweren en dat is niet juist. Er zijn genoeg 8 GB kaarten die zo goed als elk nieuw spel zonder problemen op 1080p of zelfs 1440p kunnen spelen. (en neen de RX 6600 is daar niet 1 van).

En ze hebben juist de revierws opgesplitst om dit te vermijden, als je op 1080p 60hz speelt is een 4090 gewoonweg overkill. Iets als een 4060 is dan genoeg en is mooi geplaatst qua prijs/performance. Wil je graag toch iets meer dan is de 7700XT daar, duurder ja maar sneller.
@roffeltjes @k995

Dan keek ik ook meer op monitoren met een hoge refresh rate. Als de lat op +-60fps gelegd wordt, wordt de situatie anders. Wat ik dacht is dat een hoge framerate belangrijk werd geacht. Ik suggereerde dan de rtx4070 hier aan voldeed en dat je dan een GPU had die makkelijk 5 jaar mee kon omdat deze meer Vram had voor games die over (zeg maar) 4 a 5 jaar uitkomen.

Meestal als je enthousiast bent en een game net nieuw koopt, zijn er nog geen patches die het Vram direct optimaliseren.

Nu wist ik niet hoe ik in moest haken.
1080p gaming op <60fps
1080p gaming op 60-120fps
1080p gaming op >120fps

Alle drie hebben een andere videokaart nodig (voor zover ik het juist zie).

Daarnaast is 1080p wel de resolutie waarop een breed scala aan videokaarten passen. Dan is eerder de vraag van welke framerate je wenst met de daarbij behorende adviezen.

@roffeltjes komt dan weer met een nóg goedkoper alternatief dan de rtx4060 en dit bracht mij een beetje van het pad. Dat ik nu de voorkeur geef een 1080p gaming op een rtx4080 is terzijde. Het ging er dus om dat gamen op 1080p zelfs haalbaar is met een budget systeem. 1080p is oud, maar het is verder een prima resolutie voor de mensen met een iets krappere beurs. Het is een resolutie met veel mogelijkheden en je kunt het net zo duur maken als je zelf wenst. Ik kon vanuit dit oogpunt moeilijk schatten wat deze BBG wenste. De wens kan zo breed zijn.

Zelf hou ik van een watervloeiende framerate en dit in combinatie met een rtx4080 en een 360 Hz monitor op een 7800X3D. Waarop ik game is dus zeker high-end en als je vraagt welke videokaart dan geschikt was maakte ik de fout om vanuit mijn oogpunt een advies te geven. My bad, maar natuurlijk is een budgetkaart een helemaal dikke prima als je met wat minder tevreden bent en daarom is de keuze ook zo breed.

Verder neem ik aan dat 8 GB Vram genoeg is voor 1080p zolang je geen mods draait en zolang je geduld hebt dat een vroege release niet geoptimaliseerd is zodat je alsnog tekort kan komen. Vanuit mijzelf neem ik een hele ruime marge in Vram omdat ik voorbereid wil zijn voor de nabije toekomst. Nu kan ik me dit wel permitteren, maar mijn les is ook zodanig dat ik vanuit het oogpunt moet kijken voor mensen met weinig geld die op 1080p leuk willen gamen. Ik interpreteerde de BBG dus verkeerd.

[Reactie gewijzigd door jimh307 op 22 juli 2024 13:20]

Een rx6600 zit al (fluitend) op 60-120 fps daar zit het punt. En nee, dan draai ik niks neer, vermijd ik geen mods... alles draait heel snel. Het aantal games dat meer dan 8gb vram nodig heeft op 1440p is al klein, laat staan op 1080p.

Dat de 4060 wordt geadviseerd snap ik helemaal (dlss, zuinig), alleen verbaas ik me (en zo te lezen anderen) waarom de 6600 als budget optie ontbreekt (namelijk logischer dan de 7600). Het is namelijk al snel 15% van de systeem prijs en dat is veel, zeker bij het budget systeem.

En dat is dan meteen ruimte voor een betere monitor, muis of kb.

Om maar te benadrukken, er zijn plenty games ook in deze draad die met een RTX 1660 al kiezen voor 1440p... die 27" is voor veel games veel fijner en belangrijker, zonder dat de FPS onspeelbaar wordt. En dan hebben we het niet eens over de strategie gamers (Total war, etc) of de WoW spelers, die zullen namelijk liever een 56003dx willen dan een sneller grafische kaart.

Er is dus niet een waarheid, je kan prima goedkoper zonder dat je hoeft te vrezen dat je over twee jaar naar een solide show kijkt. En dat geldt stiekem ook voor de 8gb op 1440p discussie, al zou ik daar ook vooral 12gb adviseren. In de praktijk zie je namelijk dat het prima kan zonder dat je terug hoeft te gaan naar 8bit graphics :+

[Reactie gewijzigd door roffeltjes op 22 juli 2024 13:20]

EN neen nergens sprak ik van de RX6600, het issue was : is ELKE kaart met 8GB nu al "verouderd" als sommige beweren en dat is niet juist. Er zijn genoeg 8 GB kaarten die zo goed als elk nieuw spel zonder problemen op 1080p of zelfs 1440p kunnen spelen. (en neen de RX 6600 is daar niet 1 van).
Welk huidig spel zou de RX 6600 niet probleemloos kunnen spelen? Zelfs big baddie Hogwarts draait op medium en TAA high op 87 fps, en op Ultra met TAA high op 57 FPS. We hebben het niet over bibberen rond de 30 fps... Sterker nog, we weten ook dat een deel van de 6600 spelers op 1440p zit en zich niks aantrekt van al het handengewring :+

Nogmaals, ik ben het ermee eens dat het advies een 4060 is, maar 15% van de systeem prijs eraf hakken voor nog steeds probleemloze framerates op 1080p is absoluut het noemen waard.

En natuurlijk, wil je 120fps+ op 1440p kijk je heel anders tegen deze discussie, maar dan gaan we het niet hebben over dit systeem, maar over het middelste systeem ;)
Welk huidig spel zou de RX 6600 niet probleemloos kunnen spelen?
RDR2 haalt het een 50-55 fps gemiddeld met dips tot 30 fps dan stottert het dus redelijk hard
Starfield zit het op 35 fps
last of us 45 fps
remnant een 60 fps met dips naar 40 fps
https://www.youtube.com/watch?v=dE_Tt5jZa3A
Sterker nog, we weten ook dat een deel van de 6600 spelers op 1440p zit en zich niks aantrekt van al het handengewring :+
Tuurlijk en in veel games perfect mogelijk echter ging het hier over zal die kaart nog 4 jaar meegaan met de nieuwste games en dat kan die niet. Die heeft nu al moeite met een boel games en dat zal enkel vermeerderen.

Als je dat beseft en aanvaard dan is dat nog steeds een keuze hoor, weet gewoon dat er een kans is dat je wel heel laag qua settings moet gaan in bepaalde games als je 60fps wil halen.

[Reactie gewijzigd door k995 op 22 juli 2024 13:20]

Om deze rare discussie in perspectief te brengen:

review: AMD R9 290: het kleine broertje van...

350,- voor een kaart die in de nieuwste games van dat moment blijkbaar onspeelbare framerates haalde en waarvan de loftrompet wordt gestoken. :+

De GTX 780 was nauwelijks sneller, 550,-

Of een paar jaar verder, de (terecht) veel geprezen GTX 1660 voor 300,- die had blijkbaar ook "moeite" met games als Ghost Recon, Battlefield etc. Immers op Ultra dook je (best ruim) onder de 60fps. Mocht je het gemist hebben, in deze draad zag ik de 1660 nog voorbij komen als nog steeds gebruikte kaart....

De RX6600 is een instapper van 200,- uit 2021 die op dit moment over het algemeen relatief beter presteert (ja, met de tijd meegenomen) dan een mid-high end kaart bij release uit 2014 of een veelgeprezen instapper uit 2019. En dat maakt ook duidelijk dat een 4060 ook een best goede deal is (zoals je zelf ook al zei). Het bevestigt ook mijn gevoel dat ondanks dat de voortgang in Grafische kaarten is gedaald, games nog langzamer zijn gestegen qua complexiteit. Uiteraard moeten we niet zomaar tevreden zijn met alles uit het verleden, maar we schuiven nu wel heel erg van wat we van een basis systeem verwachten.

En betreft het vier jaar vergezicht? We hadden het in eerste instantie over de nabije toekomst, maar los daarvan, budget gamers upgraden veel minder vaak. Ze spelen andere games (een game als BG3 van dit jaar is een AAA game met een hele bak eye candy, maar FPS is veel minder spannend dan in een shooter), nemen genoegen met minder frames of draaien hem naar medium.

[Reactie gewijzigd door roffeltjes op 22 juli 2024 13:20]

350,- voor een kaart die in de nieuwste games van dat moment blijkbaar onspeelbare framerates haalde en waarvan de loftrompet wordt gestoken. :+
350(adviesprijs trouwens) euro in 2013 dat is 500 euro nu of wat een 4060 ti en bijna een 4070 kost.
Kaarten die 1080p en 1440p de huidige games zonder problemen (en dan is dat echt 60+fps zonder grote dips) draaien.

Maar daar ging het hier niet over het ging over de rx6600 die nu 220 euro kost of naar 2013 geld: 150 euro.
Daar had je toen de 260/270 voor. Kaarten die toen ook al problemen hadden om soms zelf 900p boven de 30fps te houden.
Het bevestigt ook mijn gevoel dat ondanks dat de voortgang in Grafische kaarten is gedaald, games nog langzamer zijn gestegen qua complexiteit. Uiteraard moeten we niet zomaar tevreden zijn met alles uit het verleden, maar we schuiven nu wel heel erg van wat we van een basis systeem verwachten.
Ik vind van niet, als je alles in context plaats natuurlijk. Een RX6600 kost evenveel als wat ooit een R260x kostte en presteert beter : je hebt in zowat alle games consequent 60+fps op 1080p ultra. Die 260x had moeite om de toen "normale" resoluties 60fps te halen waardoor je genoodzaakt werd om nog lager te gaan. (ja 1080p was toen ook al de meeste gebruikte gaming resolutie gevolg door 900p).
En betreft het vier jaar vergezicht? We hadden het in eerste instantie over de nabije toekomst, maar los daarvan, budget gamers upgraden veel minder vaak. Ze spelen andere games (een game als BG3 van dit jaar is een AAA game met een hele bak eye candy, maar FPS is veel minder spannend dan in een shooter), nemen genoegen met minder frames of draaien hem naar medium.
De RX6600 is van 2021 over 4 jaar (2028) is die 7 jaar oud. het equivalent van 2017 is de RX470/480/570 die ongeveer evenveel toen kostte. ALs je die in games die nu uitkomen ziet dan halen die 40-50FPS met stutters naar 20-25fps in 1080p. Ja tuurlijk als je alles op low zet gaat dat maar sorry ziet er echt niet uit :

https://www.youtube.com/watch?v=L-Xi-lLS_o8

https://www.youtube.com/watch?v=fd26jRQdeTA

Werkt dat nog? Tuurlijk en als je absoluut geen eisen hebt is dat zelfs speelbaar maar ik denk toch dat de meeste iets beter dan 900p low @ 30 fps willen.
RX 6600 is 199, dat scheelt 10%. Dat klinkt flauw, maar we hebben het hier over het basissysteem.

En ja, de 290 had op de datum van zijn release relatief meer moeite met AA titels dan de RX 6600 die volgens jou nu problemen heeft met games. Dat is echt een hele belangrijke trendbreuk, voor Ultra op 1080p zit je dus al een paar jaar met een 60 range prima. Het wordt spannend op hoge resoluties, maar daar hebben we het hier niet over.
Ik vind van niet, als je alles in context plaats natuurlijk. Een RX6600 kost evenveel als wat ooit een R260x kostte en presteert beter : je hebt in zowat alle games consequent 60+fps op 1080p ultra. Die 260x had moeite om de toen "normale" resoluties 60fps te halen waardoor je genoodzaakt werd om nog lager te gaan. (ja 1080p was toen ook al de meeste gebruikte gaming resolutie gevolg door 900p).
Je vind van niet en bevestigd dan wat ik zei... de instapper van 2021 is nu in begin 2024 relatief beter dan een 290 (laat staan een 260X) op release datum. Volgens mij begrijpen we elkaar niet.
De RX6600 is van 2021 over 4 jaar (2028) is die 7 jaar oud. het equivalent van 2017 is de RX470/480/570 die ongeveer evenveel toen kostte. ALs je die in games die nu uitkomen ziet dan halen die 40-50FPS met stutters naar 20-25fps in 1080p. Ja tuurlijk als je alles op low zet gaat dat maar sorry ziet er echt niet uit :
Maar die vergelijking is mank. De RX 6600 doet het op 1080p relatief veel beter dan voorgaande generaties. Als je zegt "ja maar een kaart die nu net medium haalt is in 4 jaar afgeschreven" heb je een ander argument. Maar we hebben het hier over een kaart die vrijwel alles op Ultra pakt.

Aangezien de curve van snelheid is afgevlakt is de enige verklaring dat games nauwelijks complexer worden (anders was de RX 6600 niet in staat die snelheden te houden.) De leeftijd van de kaart is alleen relevant als de prestatiecurve po dezelfde snelheid als vroeger doorgroeit en dat is blijkbaar niet zo.

De prestatiedruk komt nu vanuit 1440p en 4k, 1080p is blijkbaar voor AMD en NVIDIA uit de 60 range al een aantal jaar niet spannend meer. 1080p is voor 24" de sweetspot. Voor een gemiddelde bureausetup is dat prima. Ja, 27"is mooier, maar de uptake naar dat formaat is heel traag. Je krijgt dan ook een heel andere discussie want dan gaan we het opeens over 1440p hebben.

Even helemaal terug: Ja de 4060 is een prima advies, daar gaat het natuurlijk niet om. Maar als goedkoop alternatief is de 6600 een hele goede kandidaat, het is zeker geen kaart waar je (op 1080p) alles moet downtunen. vier jaar is een hele lange tijd (en daar hadden we het eigenlijk niet over, het was de nabije toekomst), maar ook dan zal je de meeste titels probleemloos kunnen draaien. Er zijn ook nu AAA titels die helemaal niet zo zwaar zijn en dat zal niet veranderen. Total War serie, WoW, etc. die gaan niet opeens een enorm snel systeem eisen.

Dit is ook compleet logisch... uit de Steam Survey blijkt dat de op één na meest gebruikte kaart een 1650 is. Sterker nog, de snelst groeiende resolutie is... 1080p., wat nu bijna 60% is :+

Gamebedrijven willen games verkopen. Ze hebben er niks aan als de massa hun spel echt niet kan draaien.

[Reactie gewijzigd door roffeltjes op 22 juli 2024 13:20]

RX 6600 is 199, dat scheelt 10%. Dat klinkt flauw, maar we hebben het hier over het basissysteem.
Dat zet gewoon meer aan voor mijn argument immers hoe goedkoper je nu een dergelijke kaart kan kopen hoe beter het nu is, en niet slechter dan vroeger zoals jouw argument lijkt te zijn.
En ja, de 290 had op de datum van zijn release relatief meer moeite met AA titels dan de RX 6600 die volgens jou nu problemen heeft met games. Dat is echt een hele belangrijke trendbreuk, voor Ultra op 1080p zit je dus al een paar jaar met een 60 range prima. Het wordt spannend op hoge resoluties, maar daar hebben we het hier niet over.
Nogmaals het ging over die kaart nu kopen zodat je nog 3-4 jaar ermee kan gamen. Dan is imho voor de gemiddelde gamer die gewoon ook de nieuwste games wil spelen zonder issues in 2028 een 6600 te zwak. Dat kan zijn dat de games die je juist speelt er nog goed genoeg op draaien maar de kans bestaat dat dat neit meer gaat een 4060 (ook door zaken zoals dlss) is dan een veel betere keuze.
Aangezien de curve van snelheid is afgevlakt is de enige verklaring dat games nauwelijks complexer worden (anders was de RX 6600 niet in staat die snelheden te houden.) De leeftijd van de kaart is alleen relevant als de prestatiecurve po dezelfde snelheid als vroeger doorgroeit en dat is blijkbaar niet zo.
Ik zie niet dat die curve van prestaties afgezwakt is zeker niet prijs kwaliteit imho, games worden steeds gemaakt naar de hardware dat er is, wat nu wel is dat er een veel betere samenwerking is tussen de hardware en software makers.
Nogmaals dat hangt echt af van wat je wil.
VOor iemand die in 1080p gamed is dat echt geen probleem, waarom denk je dat plots vram gebruik bijna gaat verdubbelen in 1080p?

IK vind 350 euro voor een 4060 echt niet duur.
https://www.youtube.com/watch?v=X9fUCCBRcIs

Nieuwste game wat uit is wat velen spelen 70-80 fps op 1080p ultra kan je dus nog jaren mee gamen en als moet kan je SR of FG aanzetten.

https://www.youtube.com/watch?v=JAkO8qva9nE

1440p met quality dlss 60+fps dus zelfs dat gaat.
Met een prijsverschil van €260
Dat kan een groot deel van het budget zijn om een PC samen te stellen

[Reactie gewijzigd door Myliobatis op 22 juli 2024 13:20]

Helemaal mee eens. De RTX4060 is 20-25% sneller op 1080p maar kost 50% meer. Dat kan te rechtvaardigen zijn, maar op 1080p medium haalt de RX6600 al 112 FPS. In combinatie met een freesync 144hz monitor heb je dan al best een uitstekende ervaring. Nog meer frames is leuk, maar niet voor 100 euro. Die besparing ten opzichte van de RTX4060 kun je dan in een goede monitor/koptelefoon/muis/toetsenbord/ssd steken, wat de game-ervaring aanzienlijk meer kan verbeteren dan een iets hogere framerate.
Het blijft mijn budget-pick. 50% duurder is nogal een stap voor de kleine beurs. Veel spellen slikt hij ook op ultra of zelfs op 1440p. Het is ook niet of hij het net trekt, je gaat zoals je al aangeeft naar heel hoge framerates.

Voor e-sports ligt het misschien wat anders, maar ik heb nog geen game gezien die niet heel speelbaar is op 1080p.
Videokaarten zijn nu eenmaal heel erg duur. Zit je echt op budget dan valt console gaming aan te raden. Gamen op de PC wordt op deze manier een luxe.
Dat is irrelevant. Je kan prima goedkoper dan dit volwaardige gamesystemen bouwen. Ik heb vorig jaar twee gamesystemen gekocht voor onder de 800,= die alles draaien op 1080p. Je hoeft niet met het allerzwaarste systeem op 4k games spelen. En het enige verschil in specs is dat ik de rx6600 koos...

Heel simpel, als je een 50% duurdere videokaart aanraadt met 25% extra snelheid op een budget systeem waarbij de snelheid al heel hoog ligt voor 1080p dan mag je daar best vraagtekens bij zetten.

Prijstechnisch zit de 4060 gewoon niet op een sweetspot. Voor 1080p is het niet nodig en voor 1440p wil je meer vram.

[Reactie gewijzigd door roffeltjes op 22 juli 2024 13:20]

Zijn videokaarten zo duur tegenwoordig?
Voorheen deed ik gamen op 1080p voor een budget van rond de 200 euro max. Deze bedragen zijn echt absurd.

Het blijft jammer dat mensen een NV videokaart blijven kopen. Ik probeer om dat bedrijf grote rondjes te lopen, alles wat zij doen, is waarvoor Intel wel is gestraft.
Laat je niet gek maken; ik heb een rx6600 (niet-x) op 1440p, op het moment rond die prijs.

Het hoeft allemaal niet op ultra-super-rt-whatever, vandaar ...

[Reactie gewijzigd door emphy op 22 juli 2024 13:20]

Gamen op een budget kan nog steeds prima hoor.
Ik game al 2 jaartjes op een RX 5500XT met 8gb Vram, deze was toen en is nog steeds met prijs/prestatie verhouding onverslaanbaar.
Dit kaartje kostte toen nieuw 150 euro op aliexpress en nu op moment van schrijven 110 euro.
Ik koop altijd kaartjes van het off-brand merk Mllsse omdat ik hier zeer goede ervaringen mee heb en over het algemeen ook over goede koeling beschikken (Hier wordt nog wel eens op bezuinigd).

Uiteraard is garantie op deze verre producten wel een dingetje, maar als je met credit card betaald heb je in ieder geval 180 dagen aankoopgarantie. ;)
Aliexpress is geloof ik de allerlaatste site waar ik een GPU zou bestellen, maar fijn dat je er goede ervaringen mee hebt :P

Inderdaad die garantie zou me toch niet helemaal lekker zitten. Bij Coolblue/Azerty/megekko weet ik gewoon dat die service helemaal prima is als er iets mis gaat. Je kunt mensen spreken en die gaan het dan voor je regelen, vind ik echt wel een stukje koop-comfort.
Ja, ze zijn duur geworden, maar het is ook maar net hoe je er naar kijkt. Je kan namelijk best een goedkoper exemplaar kopen en daar alles mee spelen, mits je het niet erg vind om op 1080p en/of lagere settings te spelen natuurlijk.

Ze hebben tijdens de 'mining craze' gezien hoe mensen bereid zijn om flink te dokken, dus maken ze daar nu gebruik van door min of meer voorzichtig de GPU klassen door te schuiven naar een hogere prijsklasse, en door ze elke generatie ook wat duurder te maken met een wat kleinere performance uplift per generatie.

't is eigenlijk dus brainwashing, maar het werkt wel. Ook op mensen die het doorhebben, hoewel het in dat geval wat minder effectief zal zijn.

Ik gebruik zelf een 4060 Ti icm een 4K 120Hz scherm, dit was voor mij uiteindelijk de meest logische keuze gezien prijs/perf voor een kaart die iig zo goed presteert als een 6700 XT en (voor/na afstelling) ook fluisterstil draait. Ik speel op 45-120fps afhankelijk van het spel.

[Reactie gewijzigd door MicaLovesKPOP op 22 juli 2024 13:20]

Voorheen deed ik gamen op 1080p voor een budget van rond de 200 euro max. Deze bedragen zijn echt absurd.
1990?

Een nvidia 1080 kostte in 2016 ook een 1000 euro.
Een 960 in 2015 een 250 euro. Met inflatie is dat nu 350 euro. Dat is wat een 4060 nu kost en die kaart is een 3-4 keer zo snel als die 960 .
Als je het niet erg vind om wat minder fps te hebben kun je nog rustig voor een budget kaart kiezen. We hebben het dan niet over de Best Buy Guide waar ze kijken voor de best geschikte videokaart voor 1080p gaming. Als jij het nog aandurft kun je ook kijken voor een 2e hands GTX 1080(Ti). Alleen zul je dan concessies moeten doen in de grafische instellingen en geen ray tracing willen.

Er zijn nog steeds genoeg mensen die tevreden gamen op een oudere GPU. Maar laten we eerlijk zijn. Ik snap dat het geld kost en ik begrijp dat dit frustrerend kan zijn. Gelukkig zijn er talloze 2e hands kaarten te koop en echt waardeloze kaarten voor 1080p zijn er amper. Vind je het niet erg om op medium settings rond de 50fps te zitten in moderne games dan is een nieuwe GTX 1650 voor +-200 euro nog net geschikt en 2e hands heb je dan een nog betere kaart.

En ja, welkom in de oorlog tussen Nvidia en AMD.
Jim, dit is toch heel raar advies? Je kan een nieuwe rx6600 kopen die de 1650 compleet uit het water schiet en dan zit je met ultra op boven de 100fps in de meeste spellen....

Waarom blijf je denken dat je een bizar dure kaart nodig hebt om dat soort FPS te halen op 1080p , er is al meermaals getoond dat VRAM gebruik helemaal niet zo hard is opgelopen als dat jij dacht. Ook 1440p kan een RX 6600 probleemloos aan....

Verder Best Buy Guide is zeker voor het goedkoopste systeem prijs/kwaliteit. Anders prop je overal een 4090 en een i9 in en is de discussie klaar.
Voor 200,- heb je met een RX 6600 een kaart die de meeste games boven de 100fps trekt. En die ondanks wat sommige mensen roepen ook prima meedoet op 1440p ;)
ik zit nogsteeds op een 1070, bijna 8 jaar geleden gekocht.... wil wel upgraden, maar elke keer schrik ik van de prijzen :'(
Mooie overzichten! Wat kleine tips voor T.net (@Tomas Hochstenbach):

• Wellicht ook (donkere) groene en rode trendlijnen in de grafieken, om het prijsverloop tussen de twee grote merken over de linie heen inzichtelijk te maken? Ik snap dat dat voor blauw niet heel nuttig is. ;)
• Dit is nitpicking: Op de frontpage is de volgorde van de vergelijkingen nu 1440p, 1080p en 4k. Dat kan natuurlijk ook van lage resolutie naar hoge resolutie zijn. :+

[Reactie gewijzigd door The Zep Man op 22 juli 2024 13:20]

Interesant artikel en de grafiek blijft fascinerend.
Ik las het artikel eerst op mijn mobiel en dan rijmt de gratiek niet met het advies, omdat de hele linkeronder kant van de grafiek te dicht op elkaar zit. Op de desktop is het beter te doen, maar dan nog verschijnen en geen labels bij de RX 6600, RX 7600 of RTX 4060. Wellicht voor een volgende keer een idee om ook een uitsnede te maken met een maximum prijs van +- 450 euro. Zodat de grafiek meer overeenkomt met de tekst en ook zijn dan de verhoudingen in het goedkope segment beter zichtbaar.
Misschien moeten we snel terug afstappen van het 1080p kaarten en 4k kaarten te noemen.
Ik heb een kleine videokaart nodig voor een mini build. Als je moet kiezen tussen de GeForce RTX 3060 (12 GB) en de GeForce RTX 4060 (8 GB) (4060 hogere frames, 3060 meer geheugen) wat is dan de betere keus?

CPU die ik er mee ga gebruiken is de Ryzen 5 5600G (reeds in bezit).
- welke resolutie?
- speel je graag AAA spellen?
- wat voor fps target heb je?
1080p
Over het algemeen niet maar ik wil bijv. Cyberpunk wel spelen (indien mogelijk).
Speel nu op een laptop (Lenovo ideapad 5 14ACN6) waarmee ik 30/40 frames haal met PUBG dus alles beter dan dat is welkom (mijn Ryzen 5 5600G build heb ik momenteel geen toegang tot).

Heb ook geen moeite met settings op medium (of low) bij sommige spellen.
Games die ik speel en enigzins zwaar zijn, zijn PUBG, Project Zomboid en No Mans Sky.

[Reactie gewijzigd door Sup4rdurt op 22 juli 2024 13:20]

Dan zijn beide kaarten prima.

8GB is in Cyberpunk geen probleem; met 4GB kun je al best goed uit de voeten in dat spel. Ik heb het zelf namelijk met een GTX 960 4GB op 1080p gespeeld, alleen dan wel met maar 40fps op minimum settings.

Wat ook nog kan uitmaken voor je keuze is hoe lang je er mee wilt doen, en of je in de nabije toekomst denkt naar een hogere resolutie te willen. Want dan kan meer geheugen natuurlijk wel belangrijker worden. Er zijn namelijk al AAA spellen die op 1080p die 8GB kunnen gebruiken voor een ideale ervaring, dus het kan goed zijn dat er wat spellen aankomen die nog meer willen. Ik denk echter wel dat je met 8GB niet in veel spellen problemen zult ervaren de komende jaren.

AAA spellen hebben natuurlijk juist ook vaak integraties voor DLSS2 en 3. DLSS3 heb je alleen met de 4000-serie. Wil je dus toch meer performance ten koste van latency, dan is die optie er alleen met de 4060. Aan de andere kant werkt DLSS3 het beste als je al richting de 60fps zit... dit vind ik zelf daardoor niet veel meerwaarde hebben.

Wat eventueel wel nog kan helpen voor de 4060, is dat hij best wat minder stroom verbruikt dan de 3060. Daardoor kan hij zeker in een small form factor build bijvoorbeeld stiller zijn of minder hitte aan de CPU doorgeven. Maar in hoeverre dat helpt hangt af van je build.

Ik denk dat het uiteindelijk niet zoveel uitmaakt welke je kiest, maar als je die extra paar euro's hebt voor een 4060, zou ik geneigd zijn die aan te raden omdat hij nieuwer en efficiënter is, en je sowieso profijt hebt van de extra performance. Hoewel er niks mis is met de 3060, is het de vraag hoeveel profijt je zal hebben van het extra geheugen, tenzij je op hogere resolutie wilt gaan spelen.
Bedankt voor de uitleg! Ga dan inderdaad wel denken aan de 12 GB want mogelijk zit er ook een 1440p scherm voor mij in (in de toekomst).
1080p is die 8gb 4060 genoeg , zelfs 1440p zal die beter doen dan een 3060 :

https://www.youtube.com/watch?v=tDLDSHIbEac

En dan heb je nog zaken als dlss3 wat je nog meer fps kan geven in iets als cyberpunk.
Neem de 4060. Door DLSS te gebruiken beperk je het Vram gebruik. Dan hef je dat verschil deels op. Vind je het niet erg om wat minder fps te hebben dan is de 3060 een betere keus, maar frame generation kan je beste vriend zijn bij grafische kaarten in het budgetsegment. Heel veel hangt af welke resolutie je gebruikt. Zit je op 1080p dan is de 4060 een betere keuze en game je op 1440p dan is de 3060 een betere keuze.

Ik let in jouw geval dus op een zo stabiel mogelijke framerate en dus niet de hoogste framerate.
(verkeerd geplaatst... ik zie helaas geen manier om m'n reactie te verwijderen)

[Reactie gewijzigd door MicaLovesKPOP op 22 juli 2024 13:20]

De grafiek toont een kromme trendlijn van de prijs-prestatieverhouding van alle modellen die op de desbetreffende resolutie een prestatiescore hebben behaald. De interessantste gpu's vind je linksboven van de trendlijn; die bieden relatief hoge prestaties voor een relatief lage prijs. Kaarten met een stip rechtsonder de trendlijn hebben juist een relatief slechte prijs-prestatieverhouding.
Ik vind die grafiek ingewikkeld. De trend is inderdaad afbuigend, maar ik zou voor de "gunstige" prijs-prestatie toch een rechte lijn verwachten. Die 4090 ligt nu bijvoorbeeld mooi op de lijn, net als de 4060. Dat is raar, want 4090 is welliswaar 2x zo snel als de 4060, maar 5x zo duur. Die veel ongunstigere prijs-prestatie blijkt nu helemaal niet uit de grafiek.

[Reactie gewijzigd door MallePietje op 22 juli 2024 13:20]

Op dit item kan niet meer gereageerd worden.