Door Luke van Drie en Tomas Hochstenbach

Een dure CPU in een budget game-pc? Nergens voor nodig!

30-08-2025 • 06:00

31

We testen videokaarten vaak met een snelle cpu, zodat die nooit een bottleneck vormt. Maar wat laat je liggen als je voor een budget game pc een veel goedkopere processor kiest? Wij testten de AMD Radeon RX 9060 XT 8GB en 16GB, Nvidia GeForce RTX 5060 en RTX 5060 Ti 8GB en 16GB, en Intel Arc B580 in combinatie met een betaalbare AMD Ryzen 5 7500F processor.

00:00 - Een dure CPU in een budget game-pc? Nergens voor nodig!
00:20 - De krachtigste cpu
00:37 - Budget processor en gpu
00:47 - AMD Ryzen 5 7500F processor
01:14 - Videokaarten voor de test
01:35 - PCIe 4.0
02:11 - Benchmark: Doom Eternal
03:08 - Benchmark: Forza Motorsport
03:29 - Becnhmark: Cyberpunk 2077
04:00 - GPU prestatiescore
04:49 - Testen met snellere gpu's
05:08 - Benchmark: Stalker 2 + Assetto Corsa Competizione
05:30 - Cyberpunk 2077 + F1 24
06:00 - Conclusie

Reacties (31)

31
31
15
0
0
13
Wijzig sortering
Ik zou graag eens zien wat een goede pc is voor high end geforce now gaming. Ik draai namelijk wel in 4k mijn games, maar het is dus gestreamed. Ik vermoed een goede netwerkkaart, een videokaart goed genoeg voor vloeiend 4k in 120fps video (dat is een stuk minder veeleisend dan 4k 120fps gaming, maar waar ligt het verschil). Ik overweeg ook zo’n ultrawide van 49 of 57 inch. De nieuwe versie van Geforce Now ultimate trekt dat, maar wat moet mijn pc dan kunnen.

Het is een heel andere kijk op de pc en ben benieuwd wat dan juist de goede keuzes zijn.
Volgens mij kan je met elke moderne cpu die frames wel decoden. In de settings gaat de verbinding volgens mij ook niet hoger dan 70mbit? Dus je gemiddelde gigabit kaart die je onboard hebt zal al moeten voldoen toch? Het is letterlijk video afspelen met input de andere kant op. Ultimate is wel echt heerlijk. Heb m’n gamepc weggedaan, steamdeck en MacBook nog over en GFN draait op alles. TV, iPads, laptops en zelfs de steam deck.
Voor dit soort dingen zou een Intel NUC al voldoende kunnen zijn. Die 4K120 gaat het grootste aandachtspunt zijn, dat moeten de videochip én de kabel (bijv DisplayPort ipv iets te oude HDMI) aankunnen.
Dat zijn minimale requirements.

Ik heb op ultimate custom settings en alles op max, dat is al iets van 130mbps werkelijk verbruik. Ja, het kan op 45mbps, maar dan ziet het er bij lange na niet zo goed uit als native draaien.

Ik zie meerdere reacties alsof de keuzes voor de hand liggen, maar ik zie ze niet en dan is het nog steeds fijn om voor zoiets een in depth evaluatie te zien. Er spelen steeds meer mensen via streaming en het worden er alleen maar meer.
Maar wat laat je liggen als je voor een budget game pc een veel goedkopere processor kiest?
Goede prestaties voor spellen zoals Dwarf Fortress, Factorio en Stellaris, vooral later in het spel.

[Reactie gewijzigd door The Zep Man op 30 augustus 2025 08:16]

Nuttige tests, leuk :)

Had donderdag de knoop doorgehakt om een 9700x ipv een 9800x3d voor bij mijn 9060 te kopen, geen spijt van, gewoon 180 euries bespaard (maar hadden er dus meer kunnen zijn lees ik nu :P)
Ik heb ook voor een 9700X ipv een 9800X3d gekozen. Ik wil VR games spelen op m’n Quest. Dat is vergelijkbaar met 4K en daarbij wordt de grafische kaart (RTX5080) de bottleneck. Bij lagere resoluties zou ik juist wel een 9800x3d met de 5080 combineren.
Het onderzoek is dus eigenlijk: omdat consumenten vaker met een goedkopere CPU werken als ze een goedkopere GPU gebruiken, zijn testen (die hele snelle dure CPUs gebruiken) mogelijk onbetrouwbaar, maar is dat zo?

Conclusie is dus: Nee, goedkope GPUs testen met snelle CPUs geeft geen grote vertekening als je de relatieve snelheden wil weten.
Games hangen natuurlijk meer op de gpu dan op de cpu.

Dat is tegenwoordig toch geen geheim meer zou je verwachten.

Maar wellicht gebruik je de computer niet alleen om spelletjes spelen
De reden waarom mensen kiezen voor een duurdere CPU, is zodat ze later niet weer een CPU moeten kopen en de AIO of koeler verwijderen, en weer opnieuw thermalpaste moeten toevoegen

Een GPU is veel gemakkelijker te vervangen dan een CPU.
Ander probleem is dat je waarschijnlijk naar een andere socket (bv AM4 naar5) gaat en dan je moederbord ook moet vervangen.
Precies dit. Gpu heb ik in paar minuten vervangen. Nieuwe cpu moet ik alles eruit halen en komt mobo en Ram er was ook nog bij.

En games zoals factorio of Dyson sphere leunen wel op de cpu

[Reactie gewijzigd door Barsonax op 31 augustus 2025 08:50]

Een AM4 X3D processor vervangen is dus gelukkig ook niet nodig voor gaming! (Jammer dat deze niet als referentie in de tests zit) Als de AM4 X3D eigenaar het geld van de AM5 upgrade bij het budget voor de GPU legt speelt deze heerlijk op een 5070ti of 9070XT. (Tenminste als je geen hekel hebt aan hoog stroomverbruik zoals ik)

P.S. In ieder geval : waarom zou je druk maken om de mindere prestaties bij een 8Gb GPU terwijl je dus voor het bespaarde geld bij het niet kopen van een low budget AM5 systeem upgrade een veel betere videokaart met 16Gb hebt?

[Reactie gewijzigd door AtariXLfanboy op 30 augustus 2025 13:52]

Ben ik nu de enigste die het raar vind dat hij het over percentages heeft die we niet kunnen zien in de grafieken die hij laat zien in beeld. Had dan ergens het lagere percentage in beeld gebracht zodat je het gemakkelijk kan zien.
Sorry, maar wat een nutteloze test. Je gaat de CPU toch niet testen in games die afhankelijk zijn van de GPU? Dan moet je juist games gaan testen die CPU intensief zijn. Alle assassin creed games, world of warcraft en andere MMO's, strategie games, battlefield multiplayer games etc. Daar zijn echter geen echte benchmarks voor om echt te vergelijken. Maar reken maar dat in dergelijke games een betere CPU significant beter presteren. Dat betekent niet direct meer frames, maar wel minder drop en hogere 1% lows. Deze test zegt dus helemaal niks. Enkel voor de mensen die bovenstaande games niet spelen, dan kom je inderdaad weg met een budget cpu.

[Reactie gewijzigd door biggydeen2 op 31 augustus 2025 11:52]

Helemaal mee eens, waarom een CPU test en dan vooral games gebruiken die juist op de GPU leunen en GPU-limited zijn?
Zo zie je in het stukje "Snellere GPU" rond 5:00 dat je ineens een veel hogere FPS ziet voor die X3D cpu. Wat dus aangeeft dat je test met tragere GPU deze GPU limited is. Natuurlijk maakt de CPU dan een stuk minder uit.

Pak dan spellen die WEL goed gebruik kunnen maken van multi-core systemen waarbij de GPU ondergeschikt is.

Zoals idd onderandere diverse simulation games (Stellaris, Sins of a Solar Empire 2, Anno), MMOs, etc
Vooral Sins of a Solar Empire 2 heeft enorm goede multithreading in hun simulator.

Tweakers, denk even na bij de game selectie en HW selectie als je verschillende tests wilt doen.
Als je ook met AI wil spelen, bijvoorbeeld genereren van foto's, muziek of video of een gaaf lokaal taal model zoals GPT-OSS 20b draaien, kies dan in ieder geval voor een 16GB kaart en als het budget het toe laat een NVIDIA kaart.

[Reactie gewijzigd door djwice op 30 augustus 2025 08:33]

Wat heeft een budget game PC met modellen te maken? Compleet andere use case.
Beide hebben een GPU als het belangrijkste/ duurste component. Als je een game PC nieuw koopt is het handig om je af te vragen of je die GPU ook voor andere dingen wil gebruiken. Als je dan €86 of €124,- meer uitgeeft dan de 8GB kaart en daardoor 16GB hebt en daardoor ineens ook AI goed kunt doen en de PC ook voor gamen daardoor veel langer mee gaat i.v.m. het meer geheugen, kan dat het waard zijn om door te sparen.

Ik zeg kan, net zoals ik als in mijn vorige bericht zette. Je kunt het overwegen.

Ik heb zelf mijn NVIDIA RTX 2070 Super om die reden - meer geheugen - ingeruild voor een NVIDIA RTX 5060TI/16GB en ben er super bij mee.

Ook krijgen steeds meer games AI componenten, het is dan handig als je wat extra geheugen hebt waar die in passen. Het zou zonde zijn als je die uit moet zetten.
Denk aan real-time wereld generatie bijvoorbeeld. Zie bijvoorbeeld https://matrix-3d.github.io/ (dit voorbeeld heeft 62GB nodig, maar als een game maker het model specifiek maakt voor zijn context is het vele malen kleiner).

[Reactie gewijzigd door djwice op 30 augustus 2025 09:28]

Waarom Nvidia aanraden? Ik dacht dat AMD juist drivers beter zijn qua cpu overhead? Ai is een leuke gimmick meer dan dat is het niet.
De meest AI modellen draaien via Python, de libraries voor AI zijn met name geoptimaliseerd voor NVIDIA.

Daarom moet je als je een AMD systeem hebt vaak meer moeite doen, zoals compileren, om een model of software goed werkend te krijgen.

Met een NVIDIA kaart is het simpelweg checkout en draaien.


Maar zie ook upgrade onder Best Buy Guide: De beste 1080p-game-pc

[Reactie gewijzigd door djwice op 30 augustus 2025 22:55]

Voor game AI zullen dev dit niet toe passen tenzijn nv langs komt om het een verkapte nv AI tech demo game te maken. Dev en hun publishers richten zich op mainstream. Dus als ze AI toepassen zal het op,alle gpu merken moeten werken en dus gestandaardiseerd en op mainstream gericht dus 16gb kaart voldoet dan of intel AMD of nv is. De AI pro wereld richt zich op AI overpriced hardware en loop daarom voor in software stack maar rocM vulkan komt ook oo gang omdat ipv factor 4 kwa kapitaal neer te leggen je met helf of kwart zelfde kan halen alleen moet dan zelf AI apllicatir en optimalisatie in eigen beheer nemen.

Zo draai ik apple silicon LM studio met MLX LLM en is er ook RocM keuze voor wie AMD g-kaart heeft. Alleen zal de default en 1st implementatie cuda nv zijn. Dus je hebt met nv meer keus en nieuwe llm zijn daar 1st beschikbaar.

Maar ja ik gebruik het voor hobby sporadisch en daarme abbo niet iets voor mij en lokaal een optie,Ik zou iig niet die overpriced nv AI monopoly instant willen houden.

Nv met 16GB is sneller dan mijn mac studio , voor wat in 16GB past, maar ik kan met 64GB een 42GB lokal LLM draaien voor betere kwaliteit output. Wat 16gb 32gb g-kaarten niet kunnen of dan erg traag in zijn.

Nv overheersing en grote vraag naar AI chips heeft de TSMC wafer prijzen en allocatie concurrentie flink opgedreven en daarmee ook consumenten g-kaarten flink duurder in kosten boven op inflatie. Maar ja de marge op 96GB RTX 6000 Pro is extreem.

Voor de corporaties die groot genoeg zelf afnemen dat ze software stack en chips beter zelf kunnen maken zoals google omdat nv zeer greedy bezig is. En kleinere corporatie staan te trappelen voor alternatieven van intel en AMD. Want als minder maar boven de helft presteerd, maar 1/3 of kwart van de kosten dan is dat markt gat. Wat intel en AMD kunnen vullen met nog steed gezonde ASP.
In China lossen ze dit probleem op door het bord van een GPU te vervangen en dubbel.zo veel geheugen op de kaart te zetten.
Zo heb je de 4090 D 48GB bijvoorbeeld.

Ik heb zelf ook een Qualcomm X Elite laptop met 45 TOPS en 32GB geheugen, - Dell heeft ook een 128GB variant - maar een model als GPT-OSS 20b draait daar veel trager op dan op de 5060TI/16GB. Zeg maar wachten op woord voor woord traag versus vliegen over het scherm. Het zelf omzetten naar int8 voor de NPU is een karwei, het voordeel van NVIDIA is dat dat niet hoeft.

Dus vandaar, als je een een game PC koopt zou ik adviseren 16GB en NVIDIA. Ook omdat dingen als Bricklink Studio überhaupt de rendering niet wil draaien op AMD. En zo zijn er meer projecten waar de ontwikkelaars simpelweg niet de tijd hebben of nemen voor de omzetting naar iets anders dan NVIDIA CUDA.

[Reactie gewijzigd door djwice op 31 augustus 2025 12:47]

Best wel veel. Je ziet namelijk al use cases waar spellen gebruik maken van lokale llms in gameplay. Bijvoorbeeld. Personages dialoog, plaatjes generatie, etc.


Dit gaat steeds meer spelen
Game PC”s, de GPU’s dan, zijn zeer geschikt om locaal AI modellen te draaien.
. (dubbel sessie fout)

[Reactie gewijzigd door djwice op 30 augustus 2025 09:30]


Om te kunnen reageren moet je ingelogd zijn