voor iets meer geld
Ik snap je standpunt wel als je echt alleen maar games speelt op dat ding, maar heb je wel in de gaten hoe groot het prijsverschil gaat worden?
7700X is de 5800X van deze generatie. De 7700X kost nu €370. Tegen de tijd dat de X3D variant beschikbaar is krijg je de 7700X voor nog wat minder, zeg €340. De 7800X3D gaat straks voor minimaal €500 over de toonbank. De laagste prijs van de 7700X 'at launch' was namelijk €485. Het prijsverschil is in de praktijk dus minimaal €160 oftewel 47% en waarschijnlijk flink meer dan dat. Dit noem ik niet "iets meer geld". Ik gok dat het zeker wel 200 euro scheelt omdat de 3D-cache variant's MSRP hoger wordt dan die van 'het origineel'.
het wachten waard
Het probleem met wachten op een release is: het impliceert dat je de launch prijs betaalt tenzij je nog een half jaar extra gaat wachten en dan heet het geen wachten meer maar "niet upgraden". Voor het reeds bestaande product betaal je niet de launch prijs, dus het prijsverschil in de praktijk is niet het kleine verschil in MSRP dat AMD er aan geeft. Het is veel meer.
En de performance..daar doe je nogal aan cherry picking. Het X3D voordeel in games op 4k (de resolutie waarop ik speel) is vaak 0%, soms 3% en in een handjevol gevallen maximaal een whopping 8%, en ik speel geen enkele van die 4 games. Zo was de verhouding tussen de 5800 vs 5800X3D in een benchmark met meer dan 20 games op 4k. Voordat je roept: ja maar dat is alleen op 4k dus dan is het logisch: ik speel nu eenmaal op 4k en GPU bound wordt je systeem evengoed, ook op 1440p want je gaat niet elke paar jaar een GPU kopen van €1200+. GPU bound maakt het al helemaal bijna geen verschil meer of je die cache hebt of niet. Maar het heeft je CPU wel 50-60% duurder gemaakt.
Als je van die €200 extra cores koopt i.p.v. cache gaan non gaming taken, bijv. videocompressie niet 0 tot 8% sneller maar VEEL sneller: dat schaalt nagenoeg 1 op 1 met investering in CPU cores, games schalen nauwelijks met CPU als geheel en dus ook nauwelijks met CPU cache. Als het puur om games gaat kan je die 200 euro veel beter in een snellere GPU steken dan in L3 cache voor je CPU. "Ja maar mijn 0.1% lows dan", die zijn sowieso al hoog genoeg, zéker als je op AM4 of AM5 zit. Microstutter voorkomen (lees: frametimes stabiliseren) doe je niet met meer CPU cache maar met een fps cap (in combinatie met g-sync), of met v-sync natuurlijk als je GPU de cap dan maar continu bereikt. Ik draai Cyberpunk op een i7 (Z97 mobo) met DDR3 en dat is met een 3080 geen enkel probleem. De fps zakt niet onder de 75, uitgezonderd enkele extreem zware locaties (daar alsnog boven de 60), en de frametimes zijn gewoon strak. En dat met >90% CPU load gecombineerd over 8 threads. Maar met een Ryzen 9 zou je ineens zonder extra cache je games niet soepel kunnen draaien?
De huidige games gebruik nog lang niet de volledige capaciteit van een 8 core
Blijkbaar draait Cyberpunk parallel genoeg om alle 8 van mijn threads vol te belasten, dus ik ben niet met je eens dat 8 core genoeg gaat zijn in de toekomst van een build dat je nu maakt. Tenzij je elke 4 jaar upgrade; ik doe dat elke 8 jaar. Als je 2x upgrade in 8 jaar ben je namelijk meer geld en tijd kwijt dan wanneer je maar 1x upgrade in 8 jaar. Wedden dat de consoles over 8 jaar op minstens 16 cores zitten? Ga maar uit van 24. Game engines zullen wel moeten doorgaan met steeds meer parallelliseren want CPU-fabrikanten kunnen de kloksnelheid moeilijker verhogen dan het aantal cores en wat ontwikkelaars uiteindelijk willen is meer rekenkracht. Nog veel verder parallelliseren is de manier waarop ze dat voornamelijk krijgen, dus gaan ze manieren vinden om dat te doen.
Als een game niet 100% smooth kan draaien op een AM4 of AM5 machine zonder extra 3D V-cache dan zit daar een dev die niet kan programmeren, een gebruiker die niet weet wat hij doet, of beide. De meeste spelers hebben die cache niet en ook op hun machines moet de game zonder gestotter kunnen draaien. Dat is een verantwoordelijkheid van de programmeur. Laat de dev die verantwoordelijkheid liggen, dan heb je 9 v/d 10 keer ook mèt de extra cache alsnog problemen. Speel dan gewoon een betere game... In de benchmarks zie ik de 0.1% lows met non X3D chips gewoon boven de 60 zitten en vaak zelfs boven de 100 (want ze testen op 1080p) dus wat is nou het probleem? CS:GO op 1080p krijgt 630 fps ipv 610, nou geweldig. Totdat je terug schakelt naar 3440x1440, 3840x1600 of (zoals in mijn geval) 4k in een nieuwere game en dan had je die €200 véél beter in de GPU kunnen stoppen. Of als je meer doet dan alleen gamen, in meer cores.
https://tpucdn.com/review...ance-games-38410-2160.png
5800X: 98,7% t.o.v. 5800X3D, alle games in de test gecombineerd.
meer cores gaat de stutters in slecht geoptimaliseerde games ook niet oplossen. Extra cache wel.
Callisto Protocol stuttert / stutterde omdat de Unreal engine shaders ter plekke compilet in plaats van van tevoren. Daar gaat de L3 cache niets aan veranderen. En zo zijn er nog duizend en één voorbeelden te noemen waarom game code kan haperen die niks met L3 cache te maken hebben.
[Reactie gewijzigd door Roenie1 op 29 juli 2024 05:01]