Door Reinoud Dik

Redacteur Componenten

AMD's nieuwe ultieme gamingprocessor

Ryzen 7 9800X3D Review

06-11-2024 • 15:00

234

Singlepage-opmaak

Conclusie

De AMD Ryzen 7 9800X3D is de snelste gamingprocessor die we ooit hebben getest. In games komt hij gemiddeld uit op 269fps op 1080p en bij 1440p is dat gemiddeld 227fps. Daarmee is de 9800X3D zo'n 7 tot 10 procent sneller dan zijn voorganger, de Ryzen 7 7800X3D, als het op gemiddelde framerates aankomt.

Gemiddelde framerates zeggen echter niet alles over de consistentie van opvolgende beelden, dus hoe vloeiend een spel aanvoelt. Daarvoor keken we een paar pagina's terug uitgebreider naar het 99e percentiel van de frametimes. Daarin presteert de Ryzen 7 9800X3D zelfs tot 16 procent beter dan de 7800X3D en tot 29 procent beter dan de 5800X3D. Intels gloednieuwe Core Ultra 9 285K zet ondertussen een gemiddeld 99e percentiel neer vergelijkbaar met die oudere 5800X3D. Dit illustreert mooi hoe de grootste concurrentie in gaming voor de 9800X3D niet eens meer bij Intel vandaan komt, maar bestaat uit AMD's eigen X3D-processors.

Hoewel de gemiddelde framerates in onze prestatiescores dus niet meer dan 10 procent winst voor de 9800X3D over de 7800X3D laten zien, valt dat verschil bij het 99e percentiel van de frametimes groter uit. Dat is indrukwekkend, omdat X3D-processors sowieso al bekendstaan om hun goede frametimeconsistentie en de 7800X3D bepaald geen trage gamingprocessor is. AMD zet met zijn 9800X3D dus een iets grotere stap vooruit dan op het eerste gezicht wellicht lijkt en krijgt vanwege deze ongeëvenaarde gamingprestaties een Ultimate-award.

De Ryzen 9800X3D moet 539 euro gaan kosten en voor dat aanzienlijke bedrag is de volgende vraag voor wie deze processor dan interessant is. Voor eigenaren van een 7800X3D is de upgrade naar een 9800X3D waarschijnlijk niet zinnig, omdat de prijs niet in verhouding staat tot de toename in prestaties. Vanaf het AM4-platform is de prestatiewinst groter, maar daar blijft de Ryzen 7 5700X3D een aantrekkelijke en makkelijke upgrade. Die processor biedt grofweg driekwart van de gamingprestaties van de nieuwe 9800X3D voor ongeveer een derde van de prijs, wat zijn prijs-prestatieverhouding haast onverslaanbaar maakt.

Voor wie een nieuw luxe gamingsysteem samenstelt of wie momenteel een 'normale' AM5-processor zonder 3D-cache gebruikt, is de 9800X3D een makkelijkere keuze als ultieme optie. Dat komt vooral doordat de meerprijs ten opzichte van de 7800X3D momenteel klein is en het voor velen waarschijnlijk wel waard is. Als de 7800X3D afgelopen maanden niet zo in prijs was gestegen, zou die keus niet zo makkelijk zijn geweest. Nu dus wel, want de 9800X3D is niet alleen beter in gaming, ook is de processor sneller in productiviteit, makkelijker te koelen en overklokbaar. Dat zijn stuk voor stuk noemenswaardige pluspunten ten opzichte van de 7800X3D.

Daarmee is de 9800X3D onder de streep dus de beste gamingprocessor om de maximale prestaties uit de snelste videokaarten van dit moment en natuurlijk ook de volgende generatie te halen. Die nieuwe generatie videokaarten komt pas vanaf begin volgend jaar uit, maar AMD heeft met zijn Ryzen 7 9800X3D alvast met afstand de beste processor om de grafische rekenkracht van deze zwaargewichten in games optimaal te benutten. Daarin lijkt voorlopig ook geen verandering te komen, aangezien Intel met zijn nieuwe Arrow Lake-processor niet eens in de buurt komt.

De AMD Ryzen 7 9800X3D wordt verkocht vanaf donderdag 7 november om 15.00 uur.

Reacties (234)

234
233
85
5
0
107
Wijzig sortering
En zo zie je dat AMD ook een beetje concurrentie kan gebruiken. €539 voor een 8-core CPU, nadat de eerdere generatie zijn prijs opgedreven zag worden. En dan een snelheidsverbetering van 7%.. Ik hoop dat Intel zijn boeltje voor elkaar krijgt en er weer iets tegenover kan zetten.
Vroeger kosten de top-CPU's van Intel vaak 1000 dollar. Dat was ook wel een beetje een grap aan het worden. Dat waren dan meestal wel het topje van de binning natuurlijk, niet zozeer een andere CPU intern.

AMD heeft nu een processor die de andere flink achter zich laat en vraagt er 540 euro voor. Veel moederborden zijn al duurder dan dat, en het is ook flink minder dan een snelle GPU. Ja, natuurlijk is ie niet spotgoedkoop maar dit is een prima introductie-prijs naar mijn mening.

Intel heeft net z'n kruit verschoten, het zal nog wel even duren voordat ze echt een antwoord hierop zullen hebben. [EDIT] Het huidige topmodel van Intel is flink duurder dan deze processor.

[Reactie gewijzigd door uiltje op 6 november 2024 15:21]

Vroeger kosten de top-CPU's van Intel vaak 1000 dollar.
Dat waren meestal server CPU's en die kosten nog steeds heel veel ook bij AMD. Intel Xeon en dergelijke waren nooit bedoeld voor consumenten. Maar het klopt dat Intel belachelijk was in zijn prijzen en dat kwam ook omdat er tientalen jaren geen concurrentie was vanuit AMD in het verleden.

[Reactie gewijzigd door Remzi1993 op 6 november 2024 15:47]

Meestal, maar niet altijd.. vroeger, toen alles beter was...

uitvoering: Intel Core 2 Extreme X6800 Boxed
versus het goedkopere broertje
uitvoering: Intel Core 2 Duo E6600 Boxed

Terwijl je die laatste van 2.4 GHz rechtstreeks, bijna met een boxed koeler naar 3.6GHz kon trekken met 1 instelling. En dan had je 'm sneller dan die x6800.

edit: inflatiecorrected gaat de x6800 naar 1400 euro en de e6600 naar 460 euro

[Reactie gewijzigd door M2M op 6 november 2024 15:44]

Inderdaad, dat waren hele slechte tijden voor ons gamers. Gelukkig is het nu anders en eigenlijk is de CPU niet zo belangrijk meer, de GPU is nu het belangrijkste en daar worden we echt mee doodgebloed. GPU zijn zo duur nu dat ik zelfs aan het overwegen ben om een console te kopen als pc gamer. Ik heb ook de Steam Deck maar het is soms vervelend met sommige dingen die er niet op werken, zoals bijvoorbeeld EA FC 25 (door onnozele anticheat)
Dat is pertinent onjuist, ik graaf even een comment die ik vaker plaats in dit soort topics op:

Vroeger had je elk jaar, of elke 2 jaar, wel een upgrade nodig om de nieuwste SP titels op een, voor die tijd hoge resolutie, te spelen met maximale instellingen. Een Ilyama vision master deed in 1997 al 1600x1200 he, dat is evenveel als een 1080p scherm 27 jaar later. Alhoewel we meestal in 1024*768 speelden, dat was wel de sweetspot.

Tegenwoordig met DLSS/FSR en andere upscalers red je makkelijk een jaar of 5-7. Ik weet niet wel :+ hoe oud je bent, maar toen ik in 1998 mijn Voodoo 2 12MB kocht moest ik een jaar later alweer over naar een Geforce 2 GTS. Een Voodoo 2 had ook nog een dedicated 2D graphics kaart ernaast nodig.

Inflatiecorrector tool
Voodoo 2 MSRP: 299 USD in 1998, gecorrigeerd voor inflatie nu: 571 USD
Geforce 2 GTS MSRP: 499 USD in 2000, gecorrigeerd voor inflatie nu: 928 USD

Dus in 2 jaar tijd moest je zo'n 1500 USD uitgeven wilde je een beetje leuk meedoen. En toen was het écht nodig, omdat met elke generatie er nieuwe rendertechnieken werden geintroduceerd die spellen er daadwerkelijk anders uit lieten zien. Tomb raider 1 met of zonder Voodoo 2 was een enorm verschil vanwege bijvoorbeeld texture filtering.

AMD (toen nog ATI) bestond toen ook al en had wel wat in te brengen, maar hun performance op bijvoorbeeld Alpha Blending was zo laag dat je dat eigenlijk buiten beschouwing kon laten.

PC-Gamers van tegenwoordig hebben geen idee hoe goed ze het hebben, echt niet :)

[Reactie gewijzigd door TV_NERD op 6 november 2024 15:58]

Dat klopt deels omdat game developers geen degelijke optimalisaties doen en het is echt dweilen met de kraan open. Dat het vroeger erger was wil niet zeggen dat het nu beter kan. Gelukkig gaan game engines meer optimalisaties doen maar game developers moeten deze wel aanzetten of doorvoeren.
Nee, het komt omdat we de laatste jaren naar een veel hogere resolutie zijn gegaan en ook nog eens op een veel hogere verversingssnelheid willen spelen. 4K heeft letterlijk vier keer zoveel beeldpunten als 1080p en als je dan van 60Hz (Vsync waar mensen vroeger op speelde) naar 120Hz gaat, verdubbelt de rekenkracht die nodig is weer. Menig gamer vindt 120Hz al te weinig. Daarboven op is raytracing gekomen.

Spelers die op 4K willen spelen, gaan betalen, spelers die op 1080p of 1440p spelen, kunnen vreselijk lang met hun machine doen. Helemaal nu videokaarten DLSS ondersteunen.

Ik moest vroeger om de 18 maanden een nieuwe machine kopen, terwijl de resolutie niet omhoog ging. Ik kon zelfs op lagere resolutie gaan spelen, wat vaak niet hielp. Ik haalde vaak de 30fps niet meer na 18 maanden. Destijds was echt veel duurder dan tegenwoordig, daarom ben ik (heel even)naar console gaming geswitcht.

[Reactie gewijzigd door ABD op 6 november 2024 21:20]

We worden ook wel aangespoord om minder te upgraden met deze gpu prijzen. Ook is er afgelopen 10-5 jaar een tijdperk van indiegames aanbroken btw. Betere graphics zijn niet zo heel belangrijk meer vs gameplay en inhoud. Voelt een beetje als de jaren begin jaren 90 grunge era, games zijn zo over de top visueel met gekke kapsels en inhoudloze nummers. Doe maar weer beetje normaal en kijk eerst naar de ziel van de game met Baldure gate 3 als hoogtepunt. Betekend wel weer een slecht tijdperk van boybands in her verschiet over 5 jaar.
Gfx is juist bij indie games onderschat. Het oog wilt daar ook wat. Niet mooi heb je daar 10000 andere games. Indie games is concurreren in jungle. TripleA bos parcel.
Naast goed uitgewerkte gfx en content is goed uitgewerkte game en gameplay belangrijk. Maar dat is niet marketable. Je moet ten eerste opvallen . Als bijval heb mond tot mond reclame. Bij indie games zijn sleeper hits zeer gangbaar. Omdat er zo veel games zijn en moeilijk is om op te vallen. Is de kans dat gamers je niet vinden. Ben je wel gevonden kan het in jaren omhoog gaan als de game goed is. Leuke content defelijke gfx en polish kunnen je game laten opvallen als die goed is kan succes sneller gaan. Triple A zijn er niet zo veel van meestal IP seqeul en zijn zeer bekend. Marketing budget zijn daar groot dus die vallen wel op. Trekt gamers aan ook fans van IP top gfx vaak ten koste van fps is gameplay ruk buggy weinig polish kan game worden afgefakkeld.
Ja en nee want dit geld voor elke game. Voor veel indiegames gaat het meer om gameplay dan graphics. Zit jij niet in de originele indiegamehoek dan maken graphics weer meer uit idd, zeker om je te onderscheiden. Maar dat hoedt niet perse high end te zijn als je artistiek goed in elkaar zit.
Vroeger was 30 fps echter wel nog om aan te gluren. Dit vanwege de CRT. 60 fps vsync kwam pas met LCD opduiken.

Je laatste zin geeft ook nog een hint waarom het tegenwoordig veel langzamer gaat: de consoles.

Zeker sinds de Xbox 360 / PS3 generatie is console leidend geworden waardoor de daar gebruikte techniek effectief voor een bevriezing van de systeemeisen heeft gezorgd. De PC is toen verworden tot het platform waar je dezelfde games speelde maar dan in dubbele resolutie met de dubbele framerate. Als het geen brakke port was tenminste.

Daarvoor waren PC versies vaak compleet andere versies, soms zelfs andere games. Historisch gezien super interessant maar wat je zegt, dat upgraden om bij te blijven was echt prijzig.
De release cycles voor GPUs zijn ook omlaag gegaan van 1x per 18 maanden naar typisch 1x per 2 jaar. En de GPU is nu eenmaal een groter aspect als het op gaming performance aankomt dan de CPU.

Met de stijgende prijzen (voor het gevoel, want met een inflatie correctie berekenaar zie je effectief de prijzen rond dezelfde koers blijven zitten) is ook het upgraden van de GPU gegaan van iedere generatie naar iedere tweede generatie en soms zelf iedere derde generatie.

Zeker omdat de prestatie verbeteringen per generatie minder geworden zijn, dus je kunt ook langer gebruik blijven maken van een oudere GPU, zeker als deze aan de bovenkant van de range zit.

Ook dit speelt een rol: i.p.v updates iedere 18 maanden, zit je dan op iedere 2, 4 of 6 jaar.
Ik speel meestal op 1080p of 1440p in combinatie met 60Hz tot 144Hz omdat dat de sweet spot nu is qua prijs/kwaliteit verhouding. En op de Steam Deck is het 720p en toch ervaar ik dat games echt bagger geoptimaliseerd zijn en de settings doe ik vaak laag of medium.

Ik voel me vaak als pc gamer tweede of zelfs derde rangs burger. Ik ben pc gamer en ik game vaak op Linux dat maakt mij een kleine doelgroep door marktaandeel. Als de Steam Deck in de toekomst door meer mensen wordt gekocht zal dat wel mogelijk veranderen. Tot die tijd heb ik qua optimalisatie soms pech en vooral pech met anti cheat software die vaak niet op Linux werkt.

[Reactie gewijzigd door Remzi1993 op 7 november 2024 01:23]

Dat klopt deels omdat game developers geen degelijke optimalisaties doen
Dat is een beetje een dooddoener. Als een moderne game inderdaad "geen degelijke optimalisaties" zou krijgen zou je op 1 FPS gamen.

Je kan altijd verder gaan met optimalizeren. Naar mate games complexer worden worden de laatste optimalizaties ook complexer en wordt ergens een afweging gemaakt. Maar al het laaghangend fruit wordt bij een gemiddelde game echt wel geplukt. "Even aanzetten" is zelden een kwestie van gewoon een vinkje aanklikken.

Natuurlijk heb je altijd uitschieters.
Dev gebruiken een engine die verder ontwikkeld wordt en data driven als leger content artist moeten asset pipeline productief efficient gebruiken. Game engine team profiled dan of er knel punten zijn maar ook gpu profiling en optimaliseren als game feature klaar is. Data is tegenwoordig zo enorm dat niet alleen engine geoptimaliseerd wordt maar ook de assets. En denk dat als je niet enigszins optimaliseert 1fps niet gehaald wordt. Naast dat bugfixen optimaliseren en polish allemaal extra tijd en breed q&a traject eist dat zijn ook productie kosten naast productie tijd.
Publisher kiest liever voor 30fps dan game lichter maken om 60 fps te halen.
Vr titel hakt liever in game om die 90fps te halen omdat dan kots bevorderende game experience wordt. Als de engine maar ook data veel meer geoptimaliseerd zou worden dan kan de game load ook zwaarder. Er is dan meer mogelijk.

Probleem is je hebt licenceerbare engine. Optimalisatie is dan extern . Je ontwikkeld de data voor de game om fps target te halen. Maar ook runtime memory footprint.
Publisher kiest liever voor 30fps dan game lichter maken om 60 fps te halen.
Inderdaad, en dit is het grootste probleem. Voor mij is 60 FPS echt het minimale zodat je als je variable refresh rate aan hebt dat het nog smooth is als het soms wegzakt naar 40 FPS (ik zeg maar wat). Bij 30 FPS heb je die speling niet dat zie je soms en haalt je echt uit het spel. Ik ervaar dit soms op de Steam Deck dat game devs vaak 30 FPS targetten, daarom zou 60 FPS targetten beter zijn in mijn opinie.

[Reactie gewijzigd door Remzi1993 op 7 november 2024 12:04]

Je hebt wat onrealistische verwachtingen van de Steam Deck.
Deze is op de markt gekomen en de consensus was dat het een leuk apparaat is voor graphics uit het PS4 tijdperk, in handheld vorm, op 800p.

We zitten nu midden in de PS5 generatie. Alles is flink zwaarder geworden. Nogal logisch dat de Deck dan moeite heeft met nieuwe games. De PS4, maar ook zelfs de Xbox Series S, trekt dat ook niet meer. Dat heeft niks met optimalisatie te maken, maar gewoon met het feit dat we een generatie verder zijn.

Dan is op een gegeven moment de keuze tussen lagere instellingen of lagere framerate ook geen optie meer. Je dient beiden te accepteren.

En voor de PC is het ook niet anders. Games maken is duurder dan ooit. Het is een commerciële business. Daar kiest men tussen optimaliseren of een grotere scope. Kleine games worden verketterd, zie Senua, dus die keuze is makkelijk. Dan maar een iets lagere adaptieve resolutie.

Hetzelfde geldt voor graphics targetten die op een PS4 nog goed zouden draaien. Ook daar krijg je dan weer te maken met commentaren als "oogt als een PS4 remake" en "leuke game, maar graphics kunnen zich niet meten met Horizon, 7/10". Zie Rise of the Ronin. Mindere graphics worden nog altijd harder "gestraft" dan een lagere framerate.
De Steam Deck kan de meeste games op 60 FPS en 720p draaien, het zijn vooral sommige AAA games die slecht geoptimaliseerd zijn.

En je hebt gelijk dat ik vaak oudere dingen (zoals GameCube of Nintendo DS) emuleer maar ook vaak oude games speel.

[Reactie gewijzigd door Remzi1993 op 7 november 2024 12:06]

Je kon om de 6 maanden in die tijd je systeem volledig upgraden om het zo te zeggen. Een jaar met een systeem was toen als ... god hoe traag is dit als je wat nieuwers had gezien.
Dat kon maar is zeker niet nodig.
Crysis zag ruk uit op low setting, farcry zag goed uit op low.
Sommigen moeten alles spelen in extreem , ultra settings.
Een high ultra extreem setting is verschil zo subtiel. Sommige features geven meer performance hit dan kwa value veel toevoegt. Dit is ook form van optimalisatie om zware features die fps kosten en subtiel of nauwelijk waarde toevoegen aan gfx beeld te mijden. Als ergen mipmap level moet reduceren van 1024 texture naar mac 512 tot 256 dan ga dat dramatisch merken 8500 PS1.4 shaders kon BF2 aan maar mipmap levels bleef niks over toen met noodgang g-kaart geupgrade.
Novalogic voxel software rendering ooit geupgrade cpu PIII 450
Er is ook een hele tijd geweest dat midrange videokaarten prima betaalbaar waren. Bijvoorbeeld 140 euro voor een GTX 260 en vervolgens 165 euro voor een GTX 460 (Hawk, die 960 Mhz draaide). Ik heb daarvoor nog een 5900XT en een Ti 4400 en een MX200 gehad en dat viel ook allemaal wel mee. Alleen de 8800 GTS 640MB was duur, die ging richting de 500 euro. Qua resolutie is 1600x1200 nooit een sweet spot geweest. Het begon met 640x480, voor Age of empires had je 800x600 nodig, daarna werd 1024x768 de standaard en vervolgens 1280x1024 en tot slot 1680x1050. Daarna begon het 1920x1080 tijdperk maar dat ik heb ik persoonlijk zo lang mogelijk uitgesteld zodat ik meer fps haalde. Zo was bijvoorbeeld GTA 4 bij launch wél te spelen. Sterker nog persoonlijk heb ik 1920x1080 overgeslagen en ben ik naar Ultrawide overgestapt; 2560x1080, maar dat was natuurlijk wel niche.

Hoe dan ook is het zeker nooit nodig geweest om elke 2 jaar 1500 USD uit te geven.

Is het dan nu zoveel gekker? Het probleem is vooral dat oudere kaarten niet echt meer in prijs zakken. Vroeger zag je die dingen echt halveren in prijs. Een 3060 uit 2021 is nu nog altijd 269 terwijl een 4060 uit 2023 op 292 zit (beiden Ventus). Dat schiet natuurlijk niet op. Echt koopjes zijn er niet meer, je kunt meestal net zo goed bij launch kopen.

[Reactie gewijzigd door sdk1985 op 6 november 2024 18:36]

Ik heb crysis gespeeld met low fps 8600gs nv en 2900xt r600
Nv medium te lage fps in edit mode, 1st crysis vista run ATI mix medium /high setting
Dat zag er geweldig uit.
Maar zieltjes met veel poen konden 8800ultra niet extreem settings aan , crytech werd toen afgefakkeld en verdween naar consoles
Vroeger wilde het nog weleens heel erg per game schelen. Zie bijvoorbeeld Call of Duty World at War waarbij de 8800 GTS 640 (die had ik destijds) gemiddeld 49.8 fps haalde terwijl de 2900XT daar 30.8 fps haalde. En crisis was het dan juist weer omgekeerd 34.5 tegen 37.1 in het voordeel van de 2900XT. Zie YouTube: GeForce 8800 GTS 640 vs Radeon HD 2900 XT - GPU Duel (ep. 3). Beide kaarten zaten overigens rond de 330 euro.

De 8800 GT 512MB was iets later overigens een zinnigere koop dan beide kaarten, vrijwel even snel maar slechts 239 bij launch. Wat nogmaals bevestigd dat de suggestie dat je vroeger in 2 jaar tijd 1500 USD moest uitgeven van @TV_NERD voor die tijdspanne onjuist is.
Nondeju. De voodoo kaarten. Het smijten met geld. Te lang wachten op een videokaart die ik niet kon betalen. De Nostalgie..
Ik heb alleen van 3dfx banchee 2d/3d kaart gehad ook dual boot suse linux erop had maand moeten wachten op linux drivers.
Het is tegenwoordig een beetje lachwekkend.

In de meeste gevallen gaan we van belachelijk-veel-fps naar belachelijk-nog-meer-fps.

Het grootste deel van games is ruimschoots speelbaar op een locked 60fps.
Waarbij men zich tegenwoordig overtuigd is dat meer echt noodzakelijk is.
Bijzonder, want veel game consoles doen het prima voor minder.

Of dat men "competitive" speelt.
Alsof iedereen ineens uit het niet een full-time professioneel betaalde gamer is geworden :+

Ik zat gisteren hardware unboxed te kijken en ik kreeg hetzelfde gevoel toen ik naar de prestaties van de 5800X3D zat te kijken.
Die is nu 2.5 jaar, draait zelfs nog op een ouder platform, maar laat prestaties zien die een meer dan prima ervaring zullen geven.

In het Pentium 1, 2 en 3 tijdperk was 2.5 jaar ongehoord.
Nieuwe games kon je echt niet meer spelen.

Sterker nog, mijn systeem van bijna 10 jaar geleden komt nog best wel mee.
Qua computer hardware lijkt alles links en rechts een plafond te raken.
Ik denk dat de CPU toch iets belangrijker is dan je zou denken. En dan heb ik het niet per se over high-refresh rate / high fps gaming, maar vooral over gamen op hoge instellingen met een 'lage' framerate van 60 fps.

De 1% en 0.1% lows van snellere CPU's zijn vaak hoger, wat betekent dat je minder vaak een hapering of stotter ervaart.

Ook is de frametime-consistentie doorgaans beter met snellere CPU's, wat zorgt voor vloeiender beeld en een soepelere ervaring.

Misschien heb je het zelf wel eens gemerkt: 60 fps voelt niet altijd even soepel. De ene keer voelt het beter aan dan de andere keer, wat meestal te maken heeft met onevenredige frametimes. Zelfs als het gemiddelde aantal fps hoog is, kunnen inconsistente frametimes leiden tot een minder vloeiende ervaring.
Zelfs als het gemiddelde aantal fps hoog is, kunnen inconsistente frametimes leiden tot een minder vloeiende ervaring.
Daarom is er variable refresh rate (VRR) wat voor een goede ervaring zorgt. Bijna elke monitor ondersteund het wel mits je niet de goedkoopste van het goedkoopste koopt.
Je ik ben bekend met VRR (gebruik het al jaren) Een variabele refresh rate mitigeert een deel van de inconsistenties maar niet alles, en zeker geen frame spikes.

Ik ben van een 12700k naar een 7800X3D gegaan icm met een VRR scherm. Beiden prima CPU’s die prima 60fps kunnen renderen in alle games, en toch is mijn speelervaring soepeler. Je hebt minder spikes/hogere 1%, 0.1% lows en meer consistentie.

Om nou te zeggen dat zo’n upgrade een must is, nee. Maar het maakt wel verschil.
Ik geloof je maar ik ga niet te veel geld eraan gooien dat doe ik liever voor een betere GPU
Ohh nee zo bedoelde ik het zeker niet.

Verstandig, een GPU upgrade heeft doorgaans een veel grotere impact. Mijn punt was meer dat een betere wel CPU iets meer doet dan het wellicht lijkt op papier.
Vroeger ging de game PC ratrace veel sneller. Als je nu een beetje investeert gaat je computer zo 5 jaar mee.

Ik weet niet of het nu allemaal zoveel duurder.
Omdat dieshrinks veel prominenter en sneller gingen. De stappen nu zijn moeizamer en duurder en zijn zeer grotere investeringen geworden.
Hier nog een e8600 op 4.2Ghz laten lopen... stock aircoolertje, en dagelijks gebruik :P
Moederbord had r naar n paar jaartjes geen zin meer in, wel heel veel lol aan gehad.
Ah aan je naam te zien was je een jaar of twaalf toen Intel met de Extreme editions kwam van rond de duizend dollar.
Dit waren normale consumenten CPU’s. Het marketing verhaal was dat ze speciaal gebinned waren, maar ik heb geen idee of dat waar was.
Ik heb ze wel gekocht tbv Workstations voor architecten. Er waren geen CPU’s sneller in AutoCAD bijvoorbeeld.
Hedt platformen bestonden nog niet.
Dit was een beetje het begin.
Een nachtmerrie om te supporten omdat de moederborden voor consumenten waren, niet gemaakt om een aantal uur achter elkaar 100% stabiel te blijven.
En dan moest je nog opletten omdat ze alleen werkte met bepaalde chipsets. Voor elk moederbord leek er een andere lijst te zijn met gecertificeerd geheugen.
En je moest het wel op voorraad hebben voor het geval dat.
Hoe veel beter was het platform dat na de Prescott Pentium 4 kwam.
AMD kwam met dual cores die direct met elkaar verbonden waren (de Intel extreme editions waren twee CPU’s die wel samen in een pakket zaten maar communiceerde via de chipset, zoals de dual CPU’s ook deden).
En de eigenlijk server CPU’s voor op een consumenten moederbord hadden voor het eerst een onboard geheugen controller. Vergeleken met de 1000dollar Frankenstein CPU’s van Intel, waren de Opterons en Athlon 64 X2 echte dual cores, maar waren in AutoCAD een fractie langzamer, echter met het halve energie verbruik, en een veel lagere prijs.
Daar bovenop werkte het met elk A merk geheugen en bestonden er borden voor workstations.
Vlak daarna werd intel wakker en ging prachtige hardware maken, en lag AMD weet ik veel hoe lang aan het infuus.

Wat een tijden in CPU land.

Dan is het de afgelopen 10 jaar maar saai.
Ryzen was een mooie verassing.
Maar dit soort nieuwe dingen waren toen bijna jaarlijks het geval.
Grootste concurrent van Intel voor de 9800X3D is ook de 265K en niet de 285K. De 285K is te goed in andersoortige taken. Daarom is die duurder.

Nu alleen hopen dat Intel nog wat BIOS wijzigingen kan doorvoeren en MS wat Windows updates, dat heeft Intel nog wel nodig.

[Reactie gewijzigd door kujinshi op 6 november 2024 16:27]

Grootste concurrent van Intel voor de 9800X3D is ook de 265K ...
Bedoel je daarmee; 'de 265K is de concurrent van Intel voor gaming'?

De 265K haalt 207,4 fps (Tweakers 1080p gem.) voor €440 (adv. prijs), cost per frame is dus €2,12 en heeft daar 0,68 Watt per fps (in CP 2077) voor nodig.

De 9800X3D haalt 269,1 fps (Tweakers 1080p gem.) voor €539 (adv. prijs), cost per frame is dus €2,- en heeft daar 0,5 Watt per frame (in CP 2077) voor nodig.

Conclusie; als het gaat om Intel en gaming is van 'concurrentie' momenteel überhaupt geen sprake, ongeacht of je de 285K, 265K, 14900K, 14700K (of wat dan ook) als uitgangspunt neemt tegenover de 9800X3D (en de 7800X3D).
Het ziet er ook niet naar uit dat Intel dit gat in prestatie/prijs/efficiëntie verhouding 'relatief snel' op orde gaat krijgen, helaas; omdat goede concurrentie altijd belangrijk blijft voor ons als consumenten.
Beide intel snelste is ook intels topmodel en sterkste in alles onder intel lijn.
9800x3d is beste voor games, maar niet alle disiplines.
285k is als gamen maar ook ander4 taken belangrijk zijn
265k als puur wilt gamen maar die andere MT schaling niet belangrijk vind en daar kwa gamen op inleveren wilt.
AMD vroeg voor z'n Athlon FX-60 in 2006 ook ruim 1000 Euro, voordat Intel t met centrino t/m Nehalem het stokje overnam. AMD Threadrippers werden ook rap onbetaalbaar

Het maakt dus niet uit wie er leidt, als ze kunnen en wij het kopen vragen ze beide wat ze willen

uitvoering: AMD Athlon 64 FX-60 Boxed
Het gaat om ASP waar bulk van volume sales ergens midden onderaan zit. Die is heel belangrijk dat bepaald of je in groene cijfers komt en nextgen kan ontwikkelen. Dan krijg je een sku lijn waarvan MSRP prijs pool positie word verweven. Met ook sku lijn van concurrent. En dan krijg de kroon sku flinke prijs. Alleen is dit mogelijk maar promiel van volume en telt voor de omzet en winst marginaal.
Als je de global spreiding van sku sales zou weten dan kan meer over zeggen.
Als elke tier een stapje heeft kom zelf bij groot nummer.
Naast x3d kost meer om te maken.
En vergeet niet, waar je vroeger na 2-3 jaar de CPU en GPU al bijna weer aan vervanging toe waren is voor de meeste zaken op een game PC de CPU echt niet meer de bottleneck.

Ik koop met liefde deze nieuw allersnelste CPU, als je nagaat dat je door die investering met gemak 6 tot 8 jaar weer vooruit kunt. Blijft over dat je misschien ergens halverwege de GPU een keer moet vervangen.
Moederbord van 500+ ?? Toe maar.
Ik ben er bang voor. AMD is danig goed bezig dat het onverslaanbaar lijkt.

=Als eerste nieuw leven blazen in de AM4 serie wat consumenten veel geld scheelt en zo nog wel even door kunnen (5700/5800X3D). Dan trek je een grote doelgroep aan.
=Als tweede zijn hun CPU's gewoon zuinig te noemen.
=Als derde is de 9800X3D nu de snelste gaming CPU op de markt en de 7800X3D is dus (ook na vandaag) nog steeds bloedsnel en vaak ruim voldoende.
=Als vierde kun je iets in kosten besparen op het RAM geheugen want lagere timings zijn beter dan snelheid. De L3 cache is hier leidend. Dat 5600 mtps nu de mainstream is zegt al genoeg als er ook al 8000 mtps kits op de markt zijn. Die heb je niet nodig.

Wat wil Intel doen om dit te evenaren? Intel is zeker niet slecht. Intel blijft het beste als je minder om games geeft en een content creator bent. Maar nu richt ik me op gamers.

Hier een 7800X3D op waterkoeling en ik heb nog nooit zo'n stil systeem gehad. Mijn AIO zit gewoon uit zijn neus te eten als ik flink met CP77 bezig ben. Ik benut mijn CPU flink want ik game op 1080p @360Hz met een rtx4080 en die CPU kan dat makkelijk bijbenen. Toch kan mijn CPU de 90 graden aantikken als ik hem ga stresstesten, maar dat kan geen kwaad en hij blijft zijn turbo gewoon vasthouden. De 9800X3D is zeker de moeite waard als je het beste van het beste wenst, maar je systeem goed afstellen kan meer opleveren dan het verschil tussen de 7800X3D en 9800X3D, iets wijst er naar VBS kernisolatie O-)
Heb je gekeken naar DerBauer's vid? Die heeft even een korte de-lid / overklok met watercooling gedaan, en kwam 10% hoger uit voor de 9800X3D vergeleken met stock. CPU was 50 graden tijdens bench en max 68 graden ofzo in games. Er lijkt dus flink wat headroom te zijn.
Hetgene waar ik me in kan vinden is de review van Hardware Unboxed is dat vermoedelijk de IO die nu de bottleneck is...
De vraag is dus of de volgende generatie een nieuwe IO die krijgt...
Nou ja die lopen inderdaad ook qua procestechniek flink achter op de CPU. Dus het opschalen zal vooral een kwestie van centen zijn. Tevens moet het natuurlijk AM5 socket compatible zijn, of AMD moet twee processors uitbrengen, eentje voor AM5 en eentje voor een nieuwer platform.

Het aanbieden van nieuwere geheugenstandaarden, en 2 x USB-4 + HDMI op integrated graphics zou een goede reden kunnen zijn. Aan de andere kant kunnen ze dat ook voorbehouden laten aan low power APU's. Hopelijk kunnen ze wel qua geheugen ondersteuning wat schalen op AM5.

En meer PCIe lanes is altijd beter voor hackers zoals ik, maar da's voor de gemiddelde consument waarschijnlijk geen verkoop-reden. Het omzetten van PCIe 5 lanes in e.g. 4 x zoveel PCIe 3 lanes zou ook mogelijk moeten zijn in de southbridge , want voor het meeste is PCIe 5 toch overkill.

Bijna iedereen heeft genoeg aan 2x SATA, slopen ze de rest er maar uit. Ik snap nooit dat er geen mobo's zonder dit soort legacy support op de markt zijn. Niemand heeft wat aan 10 x USB-2, 6x SATA etc. etc. Zal wel niks kosten ofzo.
Als je Der8auer volgt, ben je waarschijnlijk redelijk thuis in de CPU-wereld. Weet jij toevallig of de 9800X3D wederom vereist dat je je koeler met een 'offset' installeert als je optimale koeling wilt hebben? Ik ben hier nog geen informatie over tegengekomen.

(Voor mijn 7800X3D moest ik mijn koeler wat lager plaatsen, waardoor die nu mijn GPU raakt)
Wat ik begrepen heb is dit simplelweg vanwege de plaatsing van de die's in de CPU module. De IO die zit nog steeds op dezelfde plek, wat betekend dat de Ryzen cores en de hotspot "hoger" lager zit (de IO die wordt vaak onderin weergegeven, maar daar zitten de cores). Dit zal niet (veel) veranderd zijn met de vorige CPU's. Ik ben zelf geen overklokker (eerder een onderklokker), dus dit is alleen theoretisch voor mij. Ik dacht juist dat DerBauer hier wel wat over zei in z'n vid, maar ik kan dat mis hebben.

Het zou me zeer verbazen als dat echt veel invloed heeft op het systeem eerlijk gezegd. Een koeler bestaat uit een grote heatsink waarin de temperatuur zich relatief snel zou moeten verspreiden. Maar goed, voor de overklokker zijn alle beetjes meegenomen.

[Reactie gewijzigd door uiltje op 8 november 2024 17:40]

Ik ben ook geen overclocker maar bij de 7800X3D schijnt het aardig wat verschil te maken. Zo veel zelfs, dat in de instructies van mijn Noctua-koeler het advies stond om de koeler 'offset' te plaatsen bij deze CPU's. Er zit een aangepast bracket bij om dit mogelijk te maken.

Tof dat ze het doen, maar helaas is het extreem krap en raakt het dus mijn videokaart haha 😅

Misschien kan ik alsnog een 9800X3D kopen en de koeler zonder offset plaatsen omdat de 9800X3D een stuk minder heet wordt van zichzelf...
Ik zou hem eerst zonder offset plaatsen en dan kijken wat er gebeurd. Je kan het altijd aanpassen in het onwaarschijnlijke geval dat het niet werkt. In dit geval zit er geen laag van 3D cache tussen waardoor de warme "heen getrokken" moet worden door een groter temperatuur verschil; de cores zitten recht onder de heat spreader van de CPU zelf. Dus logica zegt me dat het bij de 9800X3D minder uit zou moeten maken (en een betere airflow bij de GPU kan ook nog wat uitmaken).
Dank voor het advies👍. Ik denk dat ik binnenkort een 9800X3D ga bestellen en het ga testen.
AMD kan dus nu vragen wat ze willen voor de beste CPU voor de desktop. Dat deed Intel namelijk ook toen ze koploper waren en dat komt inderdaad door de duopolie van AMD en Intel, Qualcomm ARM desktop CPU's zijn nog niet goed genoeg om er op te kunnen gamen, maar binnen 10 jaar tijd gaat Qualcomm dus de 3de partij worden. Dan heb je nog steeds met een oligopolie te maken (een klein aantal aanbieders die op dezelfde markt hun producten of diensten aanbieden) wat slecht is voor gezonde concurrentie en dus prijs/kwaliteit voor de consument.
Bij buldozer piledriver hebben jullie allemaal AMD ook laten vallen als baksteen.
Die marge nu is ook dat meer ruimte hebben om te innoveren met zen 6 zen 7 zen8.
Als Radeon groot wilt zien hebben ze veel meer nodig. Gelukkig dat Epyc heel goed gaat.
Toen was ik nog niet 18. Ben nu 31 jaar 😀 Maar even serieus ik laat bedrijven sowieso als een baksteen vallen als ze een slecht product afleveren en de concurrent of concurrenten met een beter product en/of dienst aankomen. Ik heb totaal geen merk/bedrijf loyaliteit.
Das toch heel normaal.
Inderdaad, helaas hebben we veel fanboys en hooligans die extreem trouw aan een bedrijf of merk zijn wat er ook gebeurt. Er zijn nu nog steeds sneue mensen die nog steeds als gamer Intel kopen omdat ze een keer AMD hebben gekocht toen AMD nog die bulldozer architectuur had. Die snappen niet dat het nu Intels beurt is om troep te verkopen.

[Reactie gewijzigd door Remzi1993 op 7 november 2024 11:57]

Ja en numterecht dat voor top moet betalen zo ook nv gebruikt de duurste nodes kost veel met bigchipmdus wilt marge hebben maak hardware ook duurder.
Als je het te duur vind zijn er lagere sku.
Uiteraard is dat heel normaal
Het is ook heel normaal dat jij bepaald wat je ervoor wilt geven. Daar zit ook waardering achter en die is er niet.
Het is ook heel normaal voor wat je voor je eigen huis of auto wilt vragen. De andere party bepaald dat niet. Dat is handel je komt overeen of niet. Maar dat geld ook voor bedrijven. Zij bepalen wat schappelijk is. Dat heeft niks met fanboy te maken dat is is handelen de verkoper bepaald de koper gaat er mee in of niet.
Ze kunnen niet vragen wat ze willen ,ze zijn gebonden aan concurrentie en vraag en aanbod. Is commercieel niet rendabel zoals EVGA dan verlaat je de markt.
10000€ voor 9800x3d zal niet werken, vraag zal 0 zijn.
Die lagere ASP doet intel nu ook pijn . Als men dat duur vind is ieder zijn recht. Maar dat blijft opinie en geen feit.
AMD bediend de markt vraag en aanbod. Hypothetisch als niemand dit ervoor over heeft max 100,- wilt betalen dan is totaal niet rendabel en stort industrie in
En zo zie je dat AMD ook een beetje concurrentie kan gebruiken. €539 voor een 8-core CPU
Of 539 euro voor (met afstand) de snelste gaming-CPU van het moment, klinkt mij meer dan redelijk...

De 3D-cache zorgt dat die vergelijking op (enkel) cores imo niet terecht is.
Mijn 5800x heb ik gehaald voor 480 bijna 4 jaar geleden. Ik vind deze prijs op zich wel mee vallen voor de beste gaming CPU op dit moment.
Had een 3900x voor 592 euro in 2019.
Je houdt geen rekening met inflatie in vergelijking met 7800X3D lanceerdatum. Ook raad ik je aan om meer ( en betere) bronnen te raadplegen dan Tweakers. Dan zal je zien dat de gemiddelde prestatiewinst een pak hoger is dan 7%.
Inmiddels €600 bij Azerty..
Heb je hier ook wat aan? Ik zie dat het slechtste testresultaat van de langzaamste CPU in de test nog boven de 70PFS minimum zit. Realistisch gezien zal de GPU dus de bottleneck zijn en kan je beter besparen op de CPU, of is dat te kort door de bocht?
Dat is in feite de noodzakelijke reality check die relevant is zodra het niet meer gaat over wie de snelste is, maar wat de beste koop is.

Wat hier vooral handig zou zijn, zijn een aantal grafieken die dus de prijs/prestatie verhoudingen plotten. Eventueel met afsnedes voor 60fps / 100 / 144 / 240 fps.

Als je budget hebt voor een systeem op basis van een 9800X3D en een 4070, dan is het advies vrij simpel: Neem een 9700X en stop die 200 Euro in een snellere GPU.*

Is een 4070 afdoende omdat je een monitor hebt die niet hoger gaat dan 1080p, doe jezelf dan een plezier en investeer eerst in een 1440p scherm.*

Ruim 500 Euro voor een CPU is gewoon serieus geld. Ja, het is de snelste, alles boven de 7600X is sowieso meer dan afdoende om leuk te kunnen gamen, op wellicht wat simulatie-gedreven games na. Maar dan had je waarschijnlijk toch al een 5800X3D of 7800X3D en zit je ook niet slecht.

* Tenzij je expliciet en bewust op 1080p zit vanwege ultra hoge framerates. In dat geval is het schuiven met prioriteiten natuurlijk logisch.
Als rimworld fan durf ik te stellen dat het niet zo simpel is.

Mijn framerate hangt totaal niet af van mijn videokaart ongeacht de resolutie. Lategame is het 100% de cpu waarom ik maar 18 fps haal op een RX 6800 op zowel 1080 als 4k. Voor mensen met mijn game voorkeuren is de cpu veel meer zn geld waard dan een hogere tier GPU.

Of deze cpu zijn geld waard is hangt niet alleen of van de overige onderdelen in je pc, maar ook je usercase.
Voor CPU tests zou ik een test scenario van het meten van tijd van een AI beurt in CIV op turn 200 op een huge map best waarderen, weten dat je daar 20 seconde per beurt bespaard zou waardevolle info zijn.
GamersNexus had vroeger Civ turn time in hun benchmark suite zitten, tegenwoordig is het zo te zien Stellaris: YouTube: RIP Intel: AMD Ryzen 7 9800X3D CPU Review & Benchmarks vs. 7800X3D, ...
25.8s simulation time vs de ~31 van de Intel Core Ultra 9 en 7800X3D etc.
Met een oudere CPU (3000 en 2000 AMD serie bijvoorbeeld) kan de tijd zelfs oplopen tot boven de minuut!

Dus het scheelt zeker echt een boel, en zover ik me herinnerde ook wel bij Civ
Daar stip je inderdaad een goede uitzondering aan.

Vraag me af of ze die game ook testen met een AMD kaart om de driver overhead van Nvidia buitenspel ze zetten.

Heb zelf ook een 5800X3D gehaald omdat ik graag eens wat van Paradox op mag starten. Zelfde verhaal daar.
Ditzelfde geld ook voor World of Warcraft om een ander voorbeeld aan te halen. Vooral gelimiteerd door de CPU, zeker in raids/steden.
Het hangt er ook vanaf voor hoe lang je je pc bouwt.

Pci express is goed qua backwards compatibility, als je dat al nodig hebt, dus een nieuwe GPU is er zo ingezet.

Met de AM sockets kun je vaak wel even toe, naar Intel verwisselt regelmatig van socket, waardoor je dan snel ook een nieuw moederbord nodig hebt bij een zinvolle upgrade. Daarbij moet je dan ook de koeler loshalen, en opnieuw plaatsen. Allemaal prima te doen, maar wel meer moeite dan een nieuwe GPU.

Neem daarbij mee dat in het verleden je sneller tegen gpu limieten aanliep, dan cpu limieten, en het kan zomaar wel eens de moeite waard zijn om een ietwat overkill cpu te kopen als je een cpu wil gebruiken tot ie niet meer voldoet bij games.
Als ik de benchmarks bekijk van andere sites dan biedt de 9800x3d serieus meer fps dan de 9700X. Daarnaast is hij in vrijwel alle gevallen sneller op productiviteit tov 9700X.
Ik adviceer een 55inch 4K Oled TV op 120 hertz als je daar aan gewend bent wil je nooit meer anders .
Zeker als je ziet hoe goedkoop een TV is
Dat is niet wat een bottleneck betekent.
Een bottleneck betekent dat het desbetreffend component de performance tegenhoudt. Volgens jou is dat dan de GPU maar dat zie je totaal niet terug in de tests.
In deze tests is de CPU de bottleneck, want de FPS varieert sterk afhankelijk van de geteste CPU.

Maar als jij gaat voor 60fps op 1080p dan kun je inderdaad een goedkopere CPU nemen,maar dus ook een goedkopere GPU...
In deze test zal een RTX 4090 gebruikt zijn zodat de bottleneck bij de CPU komt te liggen. De meeste mensen kopen alleen niet zo'n dure GPU. In veel nieuwere AAA games heb je met een betaalbare GPU echt moeite om de 60FPS te halen. Dus leuk dat je CPU 240FPS kan maar je daadwerkelijke framerate zal veel lager zijn.

[Reactie gewijzigd door Wolfos op 6 november 2024 15:42]

Wanneer je zulke tests uitvoert wil je dan ook zo veel mogelijk normaliseren en de variabelen inperken. Door te testen met een systeem dat vrijwel onveranderlijk is beperk je de variabelen, en door de dikste GPU te gebruiken beperk je dat je resultaten worden scheefgetrokken omdat je GPU gewoon te zwak is. Zo kan je je resultaten isoleren als CPU-resultaten en zien wat effectief de verschillen zijn per CPU.

De cijfers zijn dus een indicatie van de prestaties van de CPUs onderling, en zeggen natuurlijk niet veel over de prestaties wanneer jij er eentje in je systeem plaatst, omdat de componenten in jouw systeem ongetwijfeld verschillen dan die in de reviews. Zoals @koelpasta ook zei, als jij mikt op een van de langzamere CPU's in de lijst omdat die "boven de 70FPS minimum zit", dan kan je ook beter een zwakkere GPU kiezen aangezien bij veeleisendere games of settings je CPU jou gaat tegenhouden (oftwel de bottleneck zijn).
Dat is een vaak besproken argument dat naar mijn mening weinig hout snijdt: ik wil geen studie naar de invloed van diverse componenten - hoe interessant ook. Het gaat erom of ik bij een niet onbegrensd budget dat geld vaak beter in een zwaardere GPU kan stoppen dan in een nog sterkere CPU. Wat de framerates op 1080p voor 9800X3D + RTX 4090 zijn is voor mij van geen enkel belang.

B.v. 4K gaming: RTX 4070 + 9800X3D of liever RTX 4080 Super + 5800X3D?
Ik en vele anderen wil weten of het zin heeft voor een gegeven budget zin heeft nog €200 extra in een CPU te stoppen voor 4K gaming i.c.m. een RTX 4080 Super, of dat ik dat geld beter opzij kan leggen om alvast voor een RTX 6090 te gaan sparen.

Dat is natuurlijk een complexe vraag, afhankelijk van resolutie game en GPU. Maar in het voorbeeld boven denk ik dat het veel zinvoller is de GPU te verbeteren als de CPU.


Gewijzigd: de prestatiescore aan het eind helpt inderdaad niet.
Maar de testen op 2560x1440 op ultra, zelfs met een RTX 4090 laten al zien dat er dan soms wel, soms niets meer te halen valt t.p.v. een 7600X, dus geeft op zijn minst een eerste indicatie of je je geld beter in meer GPU dan CPU moet stoppen en dat helpt al. @Trygve Alleen jammer dat de prestatiescore dan ook voor "hoge resoluties" niet berekend wordt, dat zou helpen een eerste indruk te krijgen.

[Reactie gewijzigd door batteries4ever op 6 november 2024 19:25]

Maar dan moet je alle configuraties gaan testen? Dit is zoveel meer werk en zegt niet bijzonder veel.

Als je van een game weet wat de invloed van je CPU is en GPU dan kan je vanuit daaruit bedenken wat je combinatie is.
Je weet dat game X cpu limited is dus dan kijk je voor game X naar de verschillen tussen de CPU's om te kiezen welke je wilt. Extra GPU's gaat daar niks aan toevoegen.

Het hele doel van een 4090 gebruiken is om de GPU uit te sluiten. Vanuit daaruit kan je performance voor jou situatie afleiden.
Aan de andere kant, juist een CPU wil je langer blijven gebruiken vaak. Na een generatie of 3-4 kwa cpu’s zit je vaak ook bij een andere socket en soms nieuw geheugen type, terwijl een gpu upgrade vaak nog wel kan zonder verdere aanpassingen. Als je nu een cpu voor de lange termijn koopt is dit dus een hele goede.
Er even een andere GPU in the prikken is natuurlijk veel eenvoudiger als alles vervangen.
Maar de GPU vervanging kost vaak meer dan de CPU+MB+RAM vervanging, dus de gedachte om veel geld uit te geven aan die drie om daar mee de "GPU's van de toekomst" te bedienen is wellicht ook niet optimaal. En dan heb je ouderwetse USB aansluitingen/WiFi/RAM etc. zodat een nieuwe PC te bouwen en de oude in V&A te verkopen of aan je neefje te geven wellicht slimmer is.
Ik zou ook graag ieg een aantal meer realistische benchmarks zien op 4K. (Ja.... bottleneck etc....)
1. mensen gaan er sowieso om vragen en 2. het gaat om meer dan alleen max fps.
Niet dat elke reviewer elke game op elke resolutie moet gaan testen maar kies een X aantal uit.
Je zal toch ook moeten testen met alle variabelen
Naast cpu vs gpu schaling.
Je koopt nu hardware als cpu op user case van heb een 4090. Game op 720p 1080p. Gebruik 144+++ monitor.
En wat als 4060 kan zijn dat de beste marginaal beter is.
In deze test zal een RTX 4090 gebruikt zijn zodat de bottleneck bij de CPU komt te liggen. De meeste mensen kopen alleen niet zo'n dure GPU.
Maar wel een relatief dure CPU?

Iemand met een low of mid-end videokaart is hier toch niet de doelgroep van?
Een kaart van 4090 en een resolutie van 1080p/1440p is natuurlijk totaal geen combinatie die je in de praktijk terug gaat zien, en dan zie je bij sommige games al een CPU-bottleneck in de grafieken terug. Een 9800X3D met een RTX4080 en 4K is en een recente X3D-CPU is helemaal niet gek en dan zal de CPU niet snel het probleem meer zijn.

Al verschilt dat natuurlijk enorm per game. In cities: skylines 2 is een extreme CPU geen overbodige luxe, om maar wat te noemen.
Misschien is gamen op 1080/1440p met een 4090 volgens jou niet de norm. Maar ik denk dat er een aardig deel van de 4090 kopers kiest voor de hoogste fps in shooters etc. op deze resoluties.

En de X3D chips verbeteren op vrijwel alle resoluties en vooral/sowieso met de 1% lows. Dus sowieso een stabielere ervaring.

Zelf ben ik ruim tevreden met de 5800X3D en een RX7800XT. Ik game naar volle tevredenheid op 1440p op Linux
Nee, het is niet zinnig om een RTX4060 te combineren met een 9800X3D. Dat is redelijk uit verhouding.
Nou ja, het is makkelijker om de GPU te vervangen later.
Tenzij je simulatie spelletjes (rimworld, factorio, prison architect bv) speelt en dan is die 4060 overkill, maar gaat die cpu enorme verschillen maken.

Toen ik mijn cpu veranderde werd mijn rimworld meer als 2x zo snel (van een haswell naar een 11e generatie intel), maar toen ik mijn amd 580 verving door een RX6800 deed dat niks voor me. Niet iedere gamer speelt games waar de belasting voortkomt uit mooie graphics
Heb de Asus RTX 4090 OC er al weer 2 jaar in hangen. Tenminste ik kocht hem op de lanceerdag .
Als je bij het kopje "extra test, flight simulator" kijkt en 1920x1080 ultra selecteert zie je een cpu op 55 fps staan. En dat is de gemiddelde framerate.

[Reactie gewijzigd door haarbal op 6 november 2024 15:37]

Wel als je World of Warcraft speelt. GPU is daar ondergeschikt, CPU is alles. Ik ging van een AMD 3900X (4,6GHz boost en 24 threads) naar een 5700X3D (4,1GHz boost en 16 threads) - dat lijkt een downgrade, maar een enorm verschil in sommige games (WoW, Doiablo 4) op 1440p. Zo'n 1,5x tot 2,5x meer fps.
Een CPU die in idle meer dan 30 Watt verbruikt vind ik niet normaal. Zeker als je het vergelijkt met de 5000 reeks. het hoge idle verbruik was al een pijnpunt bij de 7000 reeks en ik had gehoopt dat ze er bij de 9000 reeks iets gingen aan doen, maar helaas...
Ik blijf nog even bij mijn monolithische 5700G die ook als U-variant in laptops zit. Een octocore die in idle maar 2 Watt verbruikt. Ideaal voor een allways on pc.
Het design met losse IO die is gewoon slecht voor Idle power draw. Dat gaan ze niet op kunnen lossen met eenzelfde design. De keuze die Intel gemaakt heeft lijkt daarin flink beter met zo goed als geen extra power draw ondanks tiles.
Ook Intel borden zijn zuiniger zo lijkt het. Dat maakt AMD te duur voor wat het is want deze chip is flink duurder de borden zijn duurder als een vergelijkbaar Intel bord en het geheel kost over de jaren ook nog eens meer via de stroomrekening.

Helaas is dat waar we het mee zullen moeten doen want Intel gaat nog wel een paar generaties nodig hebben om een fatsoenlijk product neer te zetten voor gamen. Er zijn duidelijk fouten gemaakt qua design.
Het kan wel iets zuiniger, maar over de EPS is dit wel het minimale. Als je een bord neemt met maar 1 chipset zou de 12V ATX nog wel wat omlaag kunnen. Evt 5V afhankelijk van RGB.
Ook Intel borden zijn zuiniger zo lijkt het. Dat maakt AMD te duur voor wat het is want deze chip is flink duurder de borden zijn duurder als een vergelijkbaar Intel bord en het geheel kost over de jaren ook nog eens meer via de stroomrekening.
Er aan voorbij gaan dat als je het systeem daadwerkelijk gebruikt, Intel systemen toch veel meer verbruiken, want qua effiencentie is AMD gewoon echt een klasse hoger

Overig hebben we het over een verschil van 20Watt met de 285k (iets van 65 euro per jaar als je de pc 24/7 aan laat staan

Moederborden weet ik zo even niet hoeveel daar het verschil is

Dus einde van het jaar meer betalen met AMD lijkt me zeer sterk.. behalve als je pc dag en nacht standby staat.. maar dan moet je wellicht gaan denken waarom

[Reactie gewijzigd door Sinester op 7 november 2024 11:22]

Deels waar. Ik zie het altijd als volgt: bijna de hele dag is mijn pc in idle/ single core light load zoals browsen en lezen van zaken en af en toe een videotje. Dat is echter op een Intel zuiniger bewezen als een AMD systeem. Ga je dan gamen wat mijn enige andere zware load is dan is AMD flink zuiniger.
Van de 16 uur per dag dat mijn systeem aa staat game ik 2 a 3 uur en de rest is dus idle of zo goed als idle (ook onder single core is intel meer efficiënt).
Onder de streep compenseert bij een 14900k vs 7800X3D het idle verbruik het enorme game verbruik of andersom en dus was het om het even qua stroom kosten.
Deze chip is dus tot 60% minder zuinig in gaming en NUL procent zuiniger in idle en dus is deze in mijn scenario duurder dan een Intel rig en dat is een teleurstellend feit.
En 20 watt 12-14 uur per dag over 5 jaar teld hard aan en als je dat bij de prijs van de cpu op teld is het ineens zon koopje niet meer. Was de cpu 350 euro dan verschuift dat het verhaal. Ik kijk ALTIJD naar prijs van de upgrade + stroomverbruik over 5 jaar omdat dat nog wel eens een mega verschil kan maken. Al met al is dit dus een teleurstelling.

Maar ik wacht toch nog tot januari voor de idle hoop dat de 9950X3D dual DIE cache heeft. En hopelijk zijn er nog wat wegen gevonden tegen die tijd om het verbruik wat te sussen voor zo goed als geen prestatie verlies. Ik lever graag 2-4% in voor 40% minder verbruik.
Dat doe ik met mijn 6900XT ook die draait op 2350mhz ipv 2504 met een undervolt en verbruikt nog maar 145 watt ipv 300. De kaart gekocht tijdens de shortage voor bijna 1074 euro maar door de underclock en het feit dat dit een snellere kaart is als ik wou toch nog een hoop aan het besparen op stroomkosten voor maar een paar procent verlies in prestaties. over 5 jaar scheelt dat me toch al snel 270 euro gezien hoe mijn energie contracten waren en zijn. Dat maakt de prijs van de gpu netto een stuk meer acceptabel rond de 800 euro. en als hij langer mee gaat dan nog lager dus. Mijn 9900k is ook langer mee gegaan als verwacht. Die stond voor vorig jaar al in de planning om te vervangen.

En ik kijk voor verbruik vaak naar data van chip only en total system power zodat je beide componenten bij elkaar hebt. Blijft helaas een feit dat beide flink omdahoog gegaan zijn afgelopen jaren. mijn guidige pc idled op 32 watt system only en dat is met 4 ssd's en 2 hdd's en onzuinig ddr4 4266 cl16 wat een paar watt scheelt in vergelijking met een meer stock test bench.

Ik weet dat sommigen er niet veel om geven en niet naar verbruik kijken maar ik kan mijn geld maar 1x uitgeven en wil die 100 inch 8k tv er nog komen komende jaren kan ik niet klakkeloos geld uit geven. Dat is waarom te veel mensen van dag tot dag leven qua geld. Er word niet vooruit gedacht in geld.
Lees de charts nog eens goed. Verschillen zijn wat betreft 'idle' klein.
Als je bedoeld idle vs andere AMD chips waar we de G chips die monolithic zijn negeren dan heb je een punt. Vs Intel scheelt het een behoorlijke puist. Zelfs met de tile based 285k. Het IO die systeem van AMD is gewoon minder zuinig en dat komt waarschijnlijk puur en alleen door het verbrui van de IO die.

Dat moet overigens wel te fixen zijn als ze zouden willen want ik zie geen reden waarom een IO die zoveel stroom nodig heeft.
review: AMD X870-moederborden - Update - De beste AM5-borden met USB4 en PCIe...


Er zit dus wel wat verschil op "idle" afh van toeters en bellen en vendor blijkbaar

[Reactie gewijzigd door d3x op 6 november 2024 19:51]

Dan ben je geen doelgroep voor de X3D cpu... het kost je wel minder geld om deze CPU te koelen en hij verbruikt gewoon significant minder stroom tijdens load. Dat heft het idle verbruik wel op... kijk maar naar de efficiëntie tabel:
review: Ryzen 7 9800X3D Review - AMD's nieuwe ultieme gamingprocessor
Shut up and take my money. Ik zit al Megekko te refreshen voor deze CPU als vervanger voor mijn Ryzen 9 7900X. Weet iemand hoe laat de verkoop start? Heel uitgebreide recensie, lees ik later wel (video wel bekeken). Het is de eerste CPU die mij hetzelfde enthousiasme brengt als een nieuwe console. Overigens ben ik nu all in op PC gaming (met RTX 4090) overgegaan. Ik hou van die heerlijk hoge framerates.
Ik ben zo benieuwd of je huidige frames per second van je favoriete games zo irritant laag zijn dat je meteen halsreikend naar de nieuwe CPU uitkijkt zodat je eindelijk fatsoenlijk kunt gamen? Ik schets het een beetje overdreven natuurlijk, maar ik ben zo benieuwd hoe groot het -merkbare- verschil gaat zijn tussen deze dergelijke CPU's op zo'n zwaar gaming platform als welke jij hebt. Ik denk dan aan zoiets dat je framerate een keer onder de 144 is gezakt en dat het compleet onacceptabel is dus tijd voor de upgrade :)
Het is allerminst irritant laag. Sterker, het is nog altijd comfortabel hoog. Maar ik upgrade niet wanneer mijn rig het niet meer bij kan benen. Ik hou het in top conditie. Ik draai mijn games altijd op hoogste preset, Raytracing altijd aan indien aanwezig. Ik ben een early adopter en Tweaker, die elk druppel performance eruit wilt persen. Dus ben ook bezig met undervolten van CPU en XMP/EXPO. Alles voor die extra frames. Ik trek alleen stutters heel slecht en hoop dat 3D cache dat zal verminderen. Al zal dat mogelijk niet lukken met UE5 games. PC games worden tegenwoordig in vrij matige staat gereleased. Alleen Nixxes PC ports zijn top en de laatste Bioware (Dragonguard) loopt vanaf dag 1 ook erg soepel.
Goed te horen dat je daarvoor gaat en enthousiast wordt met een dergelijke nieuwe CPU omdat je dan weer een stap verder kunt! Zelf ben ik die (typische?) prijs/presatie zoeker dus vroeg mij eerlijk af in wat voor scenario je meteen de nieuwste CPU zou willen maar dat heb je best goed uitgelegd ;)
Tja die paar fps ga je toch niet merken. Dus tis hoofzakleijk geld over de balk heen smijten. Gewoon upgraden als de fps echt in kakt. Heb gewoon een 5800x3d en een 4090 haal nog steeds in de meeste games 100+ fps.
Als je voor een RTX4090 gaat hoef je niet meer te onderbouwen waarom het goed is. Je wilt gewoon de top, dan is die 9800X3D erg voor de handliggend.
De AMD Ryzen 7 9800X3D wordt verkocht vanaf donderdag 7 november om 15.00 uur.

laatste regel van de conclusie pagina
Aha dank, review nog niet kunnen lezen. Doe ik vanavond. Morgen CPU bestellen, koelpasta alvast in winkelmandje gezet.
Al die embargo's en vanaf x tijdstip mag je het pas te koop aanbieden...

Ik zie het al weer helemaal gaan zoals met de introductie van de 7900 xt/xtx. 10 minuten wachten op de beste prijs bij alle shops en als je de knoop doorhakt is die overal uitverkocht of zijn de webshops aan het shillen scalpen door enorme prijsverhogingen.

[Reactie gewijzigd door BLACKfm op 6 november 2024 19:25]

ik snap de frustratie maar al te goed

zelf wacht ik lekker op de RTX 5000 series voordat ik een aankoop doe
Gisteren 1 gekocht je had gelijk :)
Zal vandaag wel niet meer binnen komen.
Kan nog even duren begreep ik van Alternate. Misschien bij Megekko meer geluk.
Megekko heeft een placeholder al, Azerty geeft een 404 error. Alternate nog niks. Ik begreep dat gelijk na de reviews de verkoop zou starten.Youtubers zoals Gamers Nexus en Hardware Unboxed en sites als guru3d hebben de reviews al geplaatst.
Zet ik mijn 7800x3d vast te koop :) De verstandigste upgrade van de eeuw. Maar goed een mens wil wel eens wat.
Na ja, je kan zat terugkrijgen voor je 7800x3d dus zo duur zal het niet uitpakken. Moet je hem wel meteen aanbieden natuurlijk voordat deze in prijs daalt. Het zal niet zo lang duren totdat de 9xxx CPU's met meer cores op de markt komen.
Ik wilde dus eind vd maand gaan shoppen voor mijn overstap naar pc gaming. Ga ik deze mislopen!? Mijn budget is 2500 euro. Eisen : cyberpunk/rocketleague/gta rp op max settings kunnen spelen, beetje foto en video editing.

Linus tech tips zegt dat 1tje ouder met flinke upgrades net zo duur kan zijn?
Wat is je target resolutie, 1440 of 2160? Jammer dat de 7800X3D in prijs omhoog is gegaan want met 2500 euro had je zeker iets moois kunnen halen. Misschien kijken naar een 5800X3D CPU en een Nvidia 4000 serie GPU zodat je beschikt over Frame Generation. Of misschien een AMD GPU met FSR aangezien die meer bang voor je buck biedt. Eventueel Lossless scaling erbij aanschaffen in Steam voor wat extra frames, overigens geen ervaring ermee.
Ik snap dat dit tweakers is en ik enigzins kennis van zaken zou moeten hebben maar….. heh!? Hahaha dit is echt russisch voor me. Ik ben heel december vrij dus dit word een leuke reis! Ik wil graag 2160 maar als 1440 perfect kan dan dat. Upgraden kan altijd nog (daarom ook naar pc!)

Het liefst drop ik een zak geld en een wenslijstje bij een pro en laat ik t allemaal doen maar zelf aanpakken en leren ook leuk!
Opinievraag - bij release kopen (morgen), of kijken dat hij op BF in een aanbieding komt?
Als ze niet opgaan geen reden om niet te wachten toch...
Ik verwacht dat het hard gaat. Wat voor korting verwacht je op BF?
Het lijkt mij zeer onwaarschijnlijk dat deze CPU tijdens BF al wordt afgefikt.
Ik ga er twee halen, dus als het al twee tientjes scheelt zou dat toch al aantikken. Maar ja, geen idee, meestal koop ik geen nieuwe generatie chips. Had heel graag de vorige gekocht, maar die is met ruim 100 euro duurder dan de vorige zijn glans ook verloren.
Ik heb mijn 7800x3d te koop staan en doet niet onder voor een nieuwe. Wellicht kunnen we elkaar helpen?
Ik zou niet rekenen op een prijsverlaging met BF omdat deze nagenoeg voor de deur is. Ik zie ze eerder stijgen in prijs dan dalen zoals de huidige 7800X3D.

Als je ervoor wilt gaan dan direct bestellen morgen. Je kan bij de meeste shops de cpu toch binnen 30 dagen retour sturen. Mocht die dan toch goed zakken stuur je die terug onder de 30 dagen omruil.

Maar ik denk dus niet dat die mogelijkheid eraan komt.
Jammer wel dat deze processor minder zuinig is geworden.
Omdat het zo'n nieuw product is, verwacht ik 0% korting op BF.
Zou best hard kunnen gaan, het is met grote afstand de snelste gaming cpu die je kan kopen, het zal er aan liggen hoe groot de voorraad is.
Ja ik baal dat die vorige zo drastisch verhoogd is in prijs.
Die zakt denk ik wel in prijs als de 9800x3d (genoeg) op voorraad is. Ze moeten immers van de "oude" voorraden af.
De 7800x3d is een dijk van een proc, even geduld hebben om hem voor een leuke prijsje te kunnen kopen.
Als ze niet al lang en alvast de voorraad sterk beperkt hebben. Ik zou bang zijn voor ps5 situaties. Scalp for the win:(
De "oude voorraden" zijn er momenteel bijna niet meer, in elk geval bij de distributeurs. Daarom schiet die prijs zo de lucht in.
Lijkt me niet dat je daar korting op gaat krijgen. BF is doorgaans opruiming voor oudere generaties.
Zal er aan liggen of hij voor deze prijs goed verkoopt of niet.
Helemaal niets over de overklokbaarheid? ;) Het blijft toch Tweakers toch? Of komt daar een apart artikeltje over?
Zou beter moeten zijn gezien deze cpu volledig unlocked is vergeleken met de 7800x3d
Benieuwd wat Intels antwoord wordt op deze 9800X3D.
Het zal in elk geval, net als deze, ook een unlocked "K" processor worden.
Is daar al iets over bekend? Wat Intel's eerst volgende desktop CPU wordt?
Ze hebben net een nieuwe gelanceerd...
Zie YouTube / DerBauer. Een makkelijke 10% met een delid & watercooling, max 70 graden tijdens gaming en flink hogere base-clock. Als je van overklokken houdt dan kan je zeker wat doen met deze processor.
@Trygve Hebben jullie de nieuwe CPU getest met de nieuwe Turbo Mode of zonder?

Zie https://www.tomshardware....rmance-boost-on-x3d-chips
Wij hebben zonder Turbo Mode getest, die optie zat nog niet in het beschikbare bios tijdens onze test. Afgaande op de beschrijving lijkt deze modus voor de 9800X3D sowieso minder relevant omdat deze processor net als de 7800X3D maar 1 CCD heeft, en Turbo Mode op Ryzens met meer dan acht cores één van de twee CCD's uitzet.
Als ik het goed lees hebben jullie versie Agesa 1.2.0.2a gebruikt van de BIOS. Deze versie zou het ook ondersteunen.
Daarom was ik wel benieuwd wat die resultaten waren en het verschil ten opzichte van de niet turbo test.
Klopt, onze bios was al wel versie 1.2.0.2a, maar nog zonder de Asus Turbo Mode beschikbaar. Deze extra functie moet handmatig ingeschakeld worden, en ik zou in een artikel duidelijk vermelden als er met zo'n alternatieve modus is getest :)
Goede review! Wat ik me nog wel afvraag: heeft het nou nut om voor een 9800X3D te gaan ipv een 9700X als je 4K of desnoods ultrawide (3440x1440) gamed in combinatie met een wat redelijker geprijsde GPU, denk aan een 4080S of 7900XT(X)?

1080p en 1440p met giga framerates (250+) vanwege de 4090 GPU zijn leuk, maar niet perse representatief voor het gemiddelde gebruikscenario. Tenzij je van de high-refresh monitoren bent.
Zeker wel.. de frametimes zijn zoveel beter en consistenter... max FPS is niet alles... maar die frametimes zorgen er voor dat je vloeiend beeld heb.

Toen ik naar de 5800X3D ging vanaf een 5900X... was een mega verbetering. Van de 5800X3D naar de 7800X3D was ook een merkbare verbetering.

Als je gamed... is een X3D processor eigenlijk een must... de 9800X3D is bij release denk wel wat te duur. Maar een (tweedehands) 7800X3D is zeker een no brainer.. of als je op AM4 blijft de 5800X3D.
Ik heb even de prestatiescores obv frametimes onder elkaar gezet. Naarmate de resolutie oploopt en de videokaart dus meer een bottleneck wordt lijkt het verschil kleiner te worden. Ik verwacht dat dat effect met een mindere kaart dan de 4090 alleen maar groter zal zijn. Wat zal het uiteindelijk zijn op 4K (~7,6M pixels) als ik hem doortrek? Iets van 30 verschil ofzo?

Ook weer niet werdschokkend terwijl er wel €200 tussen zit. Dat is bijvoorbeeld ook het verschil tussen een 7900XT met een 9800X3D en een 7900XTX met een 9700X. Lijkt mij niet zo makkelijk beslist dat het eerste alternatief beter is?

1080p
~2M pixels
9800X3D: 224
9700X: 167
Verschil: 57

1440p
~3,7M pixels
9800X3D: 210
9700X: 161
Verschil: 49

[Reactie gewijzigd door Evanesco op 6 november 2024 16:31]

Het is niet alleen het aantal frames... maar vooral hoe stabiel/consistent de frames afgeleverd worden. Hoe meer dit fluktueerd.. hoe minder vloeiend de ervaring.. ok al gebruik je GSync of FreeSync... dit is precies wat de X3D processoren oplossen. Ik game op een 4090, maar met mijn vorige kaart de 3080 was het verschil even goed merkbaar.
Als je consistentie wil meten moet je naar de minimum frametime kijken en niet het gemiddelde. Daar zie je in deze benchmark ook het grootste verschil tegenover de 7000X3D serie.
Heb ik gedaan, voor de duidelijkheid ook even bold gemaakt ;)
Waarschijnlijk te laat, maar niet gevraagd etc :
Zou het mogelijk zijn om bij de extra test, Microsoft Flight Simulator 2020, ook de 7950X3D mee te nemen in de test ?
(of indien dit gedaan de uitslag erbij te voegen)
Ze hadden in de tekst erbij gezet, dat vanwege de bewerkelijkheid om dit te testen, er niet veel processoren getest zijn.
Mijn ervaring hiermee is, dat M FS 2020 geen eigen benchmark heeft en externe benchmark software niet fijn samenspeelt of betrouwbaar genoeg is.
Ze zitten natuurlijk ook gewoon met een beperkte tijd om deze testen te doen en de review tijdig (dus voordat de verkoop begint) de deur uit te hebben.

Ik denk dat ze hier gekozen hebben voor een best effort tegenover hoeveel extra data ze echt eruit halen, tegenover alle andere spellen die ze wel volledig getest hadden.
rsnubje Testlabcoördinator @Silentek6 november 2024 15:50
Dat vat het wel ongeveer samen ja. MSFS2020 geeft sowieso al rare resultaten vind ik zelf. Ik hoop dat 2024 toch wel wat logischere resultaten laat zien.
Het spel lijkt af en toe inderdaad slecht geoptimaliseerd voor bepaalde architecturen.
Maar ik moet ook zeggen dat sommige andere spellen die ze testen ook niet altijd even goed werkt over alle typen CPU's en GPU's heen.
Ik schrik van t energieverbruik, soms wel het dubbele in sommige slides tegenover de 7800x3d. Klinkt als lui product, maar waarom zouden ze meer hun best doen omdat het qua prestaties de beste is.
Idd zeer teleurstellend! 60% meer als de 7800X3D voor 8% meer prestaties.

Dat kan 3 dingen betekenen:

- Als je dezelfde power limiet als de 7800X3D hanteert is hij even snel of trager.

- De 7800X3D draaide op de perfecte sweetspot voor prestatie per watt en deze hogere clocks maken de 9800X3D inefficiënt

- Deze architectuur met cache onderop is minder zuinig.
22%, niet 60%. Minder efficient, en niet inefficient. Voor de rest is het spijkers op laag water zoeken. Het is bovendien een top of the line product, en die zijn lang niet altijd energie efficient als producten uit het lagere segment. Zou je immers moeten weten.
In cyberpunk, een game met hoog cpu verbruik en dus ook toekomstig gebruik omdat steeds meer games een hoog cpu gebruik hebben verbruikt hij toch echt 60% meer voor 8% meer prestaties. En dat is veel meer dan spijkers op laag water zoeken. Dat is gewoon gezien de runtime van de cpu komende 5 jaar 60 euro in extra stroom kosten. Effectief kost deze cpu dus geen 540 maar 590 euro.
Dat maakt een 7800X3D met een 21% lagere prijs en 11% gemiddelde mindere prestaties een stukje interessanter.
En de 7800X3D was bij dezelfde definitie dan een top of the line product en de 7900X3D en 7950X3D bestonden niet? Dus ook daar ga ik niet in mee.
Wat een onzin verhaal. Cyberpunk; 6,6% meer fps en 17.7% meer energieverbruik t.o.v. 7800X3D. Kortom, je eerste post sloeg al nergens op..en het vervolgend verhaal al helemaal; waaronder het natte vinger gebrabbel over stroomkosten ..mijn hemel.

ps. Topsegment bestaat niet per definitie maar uit één product. Je leest echt slecht is mijn indruk.
YouTube: AMD Ryzen 7 9800X3D Review, An Actually Good Product!
+
YouTube: AMD Ryzen 7 9800X3D Review, An Actually Good Product!

= FACTS

58 watt +60% is 93 watt.
202 fps + 8% = 219 fps.

De data liegt niet. Geen idee waar je je 6.6% en 17%% vandaan getoverd heb maar ik vind Hum 1 van de meest betrouwbare bronnen getest in real world scenario's ipv nutteloze loop tests.
Niks facts. Je haalt een compleet andere review aan. Waar ik die cijfers vandaan haal?! Uit de charts hierboven. Nogmaals, je leest niet of ronduit slecht.

Op dit item kan niet meer gereageerd worden.