AMD Ryzen 9 7950X3D presteert 5,6 procent beter dan Intel Core i9 13900K

De Spaanse techwebsite HDTecnologia heeft testresultaten van AMD kunnen inkijken waaruit blijkt dat een Ryzen 9 7950X3D-cpu gemiddeld 5,6 procent sneller is in games dan een Intel Core i9 13900K. Beide computersystemen beschikten over een Radeon RX 7900 XTX-gpu.

Uit de documenten blijkt dat de pc’s waarmee AMD de test heeft uitgevoerd, 32GB aan DDR5-6000-geheugen aan boord hadden, en een Samsung 980 Pro-ssd met 1TB aan opslagruimte. De test bevatte 22 games die op 1080p-resolutie werden gedraaid. Op de lijst prijken gametitels zoals Cyberpunk 2077, F1 2021, Shadow of the Tomb Raider en Horizon Zero Dawn. Het is niet duidelijk welke grafische instellingen er bij elk van deze games zijn toegepast.

De Ryzen 9 7950X3D-cpu werd ook uitgetest in combinatie met een Nvidia GeForce RTX 4090-gpu. In dezelfde test presteerde de AMD-cpu gemiddeld 6 procent beter ten opzichte van de Intel Core i9 13900K met de RTX 4090. De 7950X3D zou ook 16 procent beter presteren in games tegenover de reguliere AMD 7950 X-cpu die niet over 3D V-Cache-geheugen beschikt.

De documentatie van AMD herbergde ook enkele andere benchmarkresultaten die een indruk geven van de prestaties van de Ryzen 9 7950X3D. De cpu zou een beter resultaat in 7Zip en DolphinBeach neerzetten dan de Core i9 13900K. In CineBench R23 en Geekbench deed de cpu van het Intel het dan weer beter.

De Ryzen 9 7950X3D-desktopprocessor is gebaseerd op de Zen 4-architectuur en beschikt over gestapeld 3D V-Cache bovenop de cpu-chipset als aanvulling op het al aanwezige cachegeheugen. De 7950X3D beschikt in totaal over 144MB cache en een TDP van 120W. De 7950X3D is beschikbaar vanaf 28 februari en kreeg een adviesprijs van 699 dollar mee.

Testresultaten AMD Ryzen 7950X3D
Testresultaten AMD Ryzen 7950X3DTestresultaten AMD Ryzen 7950X3DTestresultaten AMD Ryzen 7950X3D

Door Jay Stout

Redacteur

25-02-2023 • 11:05

130

Submitter: Xtuv

Reacties (130)

130
128
104
14
0
6
Wijzig sortering

Sorteer op:

Weergave:

5,6 procent op 1080p.

Maar wie speelt er nou op 1080p die dergelijke bedragen aan cpus uitgeeft?

E sports pros misschien, maar dat is een niche groep.
Dat doen ze bewust zodat de GPU niet de bottleneck is en door de hoeveelheid frames die je dan hebt als resultaat een hogere belasting voor je CPU is.
Dat doen ze bewust zodat de GPU niet de bottleneck is en door de hoeveelheid frames die je dan hebt als resultaat een hogere belasting voor je CPU is.
Natuurlijk, maar wat betekenen de resultaten dan voor degenen die op 1440p spelen bijvoorbeeld?
https://youtu.be/Zy3w-VZyoiM

Als je de waarom wilt horen van Benchmarkers zelf
Dat je ruimte hebt om je GPU een keer te kunnen upgraden later, iets wat vaak veel makkelijker is dan een CPU upgrade, en dat je nu het maximale uit je esports titles haalt.
Dat geld inderdaad voor Intel dan heb je ook een nieuw moederbord nodig dat is waarom ik weer voor mijn oude liefde Amd ga. Dan gaat je moederbord ook meerdere generaties mee.
Zelfs dan nog is een GPU upgrade een stuk makkelijker dan een CPU upgrade! Een CPU upgrade is fysiek meer gedoe, de pins zijn ook veel kwetsbaarder, je moet er aan denken om je BIOS te flashen, en er is totaal geen garantie dat je RAM nog geschikt is. Als de infinity fabric en snelheid van het RAM uit elkaar lopen begint Zen daar onder te lijden.

Genoeg gebruikers die liever zorgen dat ze in 1x genoeg ruimte hebben voor een GPU upgrade, het is een stuk makkelijker, zeker als je niet heel erg technisch bent.
Je zoekt het allemaal wel heel ver... Pins, ifabric bios

Ddr4 3200 is jaren de standaard en kon je al vlot kopen op een 370x mobo van Ryzen 2000 tot 5000

Bios ja dat doet niemand die in de loop van het levensduur upgraden 8)7 ook zo moeilijk

Pins... Heb je al gezien dat deze generatie geen pins meer heeft?

Je hebt natuurlijk van die gasten die het altijd beter weten tot het er op aan komt.... :Y)
Je comment leest (voor mij) erg warrig?

- AM5 gebruikt nu exclusief DDR5.
naar verwachting zal de clocksnelheid van de infinityfabric van volgende series cpu's alleen maar toenemen waardoor je bij een upgrade een snellere kit RAM wilt om de gewenste 1:1/1:2 verhouding tussen ram en infitiyclock te behouden.
Anders haal je niet de beste prestaties uit je cpu upgrade.

-een ryzen 5000 cpu kon je zonder bios update niet gebruiken in 300 of 400 serie moederboard omdat deze zonder extra instructies gewoon niet weten wat ze met de processor aanmoeten.

- de pins zijn niet weg, ze zitten nu in het socket op het moederbord net als intel.
Een moederbord vervangen is vaak goedkoper dan je cpu maar de discussie ging in het begin over gemak :?


Het argument is dat een sterke cpu nu (bijna) het maximale uit een flagship gpu kan halen op 1080P en in de toekomst (nog) niet de bottleneck zal zijn op hogere resoluties (1440P/4K) met een dan flagship gpu.
En dat het wisselen van gpu + driverwipe (ddu bv) veel minder tijd en moeite kost en je daarvoor niet je halve pc uit elkaar hoeft te halen maar slechts 1 component (gpu) wisselt
Ook nog de knoei met koelpasta en koeling bij het installeren van een nieuwe cpu. Zelf sommige programma's die moeilijk doen. Lga775 pentium naar core 2 duo was ook een grote verandering voor software ook 64bit toen
Het zijn relatief academische tests om de verschillen bloot te leggen. "Beste koop" is vaak welke beste bang/buck geeft. Maar uiteindelijk de beste koop voor 1 persoon zelf is wanneer die het minst uitgeeft voor de dingen die hij/zij wilt doen: nu, over 2 jaar, maar ook over 5+ jaar. Alles bij elkaar genomen is zo'n 1080p benchmark de beste voorspeller hoe sterk een CPU in gaming blijft over enkele jaren. Anders kan je zeggen dat een 5600X ook 60fps op 4K kan doen, bijvoorbeeld, maar wellicht met de volgende generatie GPUs+games al niet meer.

TLDR: Dat als je over paar jaar een GPU upgrade doet, je deze CPU langer er in kan laten zitten.
Ja alleen weet je niet hoe het landschap er over 5+ jaar uitziet. Wellicht zijn alle cpus uit deze range tegen die tijd voor gpu's over 5 jaar bottlenecks. Lijkt me best waarschijnlijk aangezien je hier wellicht iets van 10% meer performance weet te halen met deze modellen. Cpus gaan over 5 jaar hopelijk wel significant meer dan die 10% sneller zijn.

Feitelijk betaal je hier waarschijnlijk iets van 25-40% meer voor een halve generatie aan performance verbetering in een paar hele specifieke use cases..

[Reactie gewijzigd door africangunsling op 25 juli 2024 00:49]

Dikke kans dat je dan op een GPU bottleneck zit en dus niks hebt aan de snellere CPU. Dat maakt 'm nog wel sneller.
Dat snap ik, maar op een bepaald moment ben je zaken aan het meten die geen enkele relatie meer hebben met de praktijk. Extreem voorbeeld: Je zou het oorspronkelijke Doom kunnen benchmarken. Die ondersteunt geen GPU, dus CPU is volledig de flessehals. Je haalt dan 10000 fps of zo en kunt processoren vergelijken, de één zal sneller dan de andere zijn.

Maar is zo'n benchmark nog zinnig?
Tjah, wat wil je dan horen? "Gerucht: de 13600, 13900K, 5700X en 7900X3D scoren allemaal exact gelijk in games"? Want dat is wat je typisch hebt bij gamen, aangezien de bottleneck al snel bij de GPU ligt.

Les 1 bij het doen van metingen: zorg dat je bepaalt waarin je geinteresseerd bent, en meet dan alleen dat door andere factoren uit te sluiten. Dus bij een review van een CPU ga je je niet drukmaken over GPU-bottlenecks. Dat doe je in een BBG. Ja, dat is zinnig, want je wil de prestaties van de CPU beschouwen.

[Reactie gewijzigd door bwerg op 25 juli 2024 00:49]

Wat ik zou willen horen is dat men opzoek gaat naar spellen waar de processor nog steeds relevant is (bij 300 fps maakt het immers niet uit welke processor je hebt). En die spellen op een realistische resolutie benchmarken.
Nah, Dan testen ze alleen voor het heden. Een pc moet een tijdje mee, dus dit is ook niet super zinvol… wat nu X is op 1080P zal met een nieuwe generatie games in 2-3 jaar een stuk minder zijn - en dan is het de moeite waard. Al weet ik ook niet of dat nu verstandig is, je kunt ook vaker upgraden. Nu ja, linksom of rechtsom ik denk dat de kopers in deze klasse toch niet naar het geld kijken.
Leuk, benchmarks met 10 keer hetzelfde getalletjes voor 10 verschillende CPU's. Weet ik nog niet wat nou de prestaties van die nieuwe CPU zijn.

Nogmaals: met jouw benchmark ben je twee verschillende dingen tegelijk aan het meten en dan weet je niet meer welk van de factoren de prestaties bepaalt. Het bepalen van gebalanceerde configuraties is ook interessant als artikel, maar dat is dan een ander artikel dan een CPU-review.

[Reactie gewijzigd door bwerg op 25 juli 2024 00:49]

Dat weet ik, maar dat staat er niet bij op de marketing slides.

In de realiteit betekent het dat de meest mensen die op dit soort hardware spelen niet in de buurt zullen komen van dergelijke percentages.
Duh, maar het is niet praktisch op niche na. Naast vync on gegamed wordt.
Naast dat je niet kan verwachten dat massa daar ook van bewust is.

Het probleem hier in is dat reviews die alleen maar 1080p doen aan top high-g-kaart het publiek een verkeerd non relevante use case laat zien aan 99% van volk wat niet gamed met top end g-kaart en of niet in 1080p en of niet online gamed laat staan esports. En meer slowpace games doet.
Waar die 4 a 15% pakken van kroon in hun geval 1% is wat zelfs bij gelijke setups variatie kan zijn.
Die 1440p en 4k horen erbij zodat duidelijk wordt dat voor velen die zeer beperkte review niet eens relevant zijn.
Naast dat ipv top tier g-kaart er ook midrange bij zo moeten zitten voor gpu schaling.
Bij gros van de mensen voldoet elke vorige en huidige gen cpu met hun instap tot midrange g-kaart. Naast dat de budget gamer wel aan 1080p mogelijk nog zit met oude monitor aan 60hz limiet. Maar daar zal je ook voornamelijk tot midrange g-kaarten gangbaar zijn. Van ook nog een verschillende generaties.

En daarmee net zo beperkt relevant als synthetische benchmarks.
Dit soort tests op lagere resolutie hebben een hogere voorspelbare waarde. Kijk bijvoorbeeld eens terug naar de reviews van coffee lake (8700K etc) en Ryzen gen 1 (1700X bijvoorbeeld). Op de hogere resoluties en ultra settings lijkt het niet veel te schelen. Je concludeert dan ten onrechte dat het niet uit maakt. Echter op de lagere resoluties zag je toen al wel grote verschillen. Enkele jaren later en de Ryzen 1 bleek volstrekt tekort te schieten in de courante games terwijl de 8700K anno 2023 nog steeds mee kan komen.

Disclaimer ik heb zelf zowel een 8700K, 5600 en 5600H (laptop).
Enkele jaren later en de Ryzen 1 bleek volstrekt tekort te schieten in de courante games terwijl de 8700K anno 2023 nog steeds mee kan komen.
Klinkt wat overdreven.. als je nu nog benchmarkt bekijkt van de 1700x presteert hij nog steeds goed genoeg om mee te kunnen gamen, en het verschil in prestaties met de 8700K lijkt nog steeds ongeveer het zelfde te zijn als bij release
Vind je? Een game als GTA V is eigenlijk al niet te doen is zonder tegen een enorme cpu bottleneck aan te lopen. Terwijl de 8700K (zonder OC) gelijkwaardig aan de 3600X presteert. Zie bijvoorbeeld gamernexus. Dit terwijl de cpu's even duur waren. Die 8700K hoef je niet te vervangen, die 1700X wel. Zeker wanneer je een iets nieuwere GPU hebt.

Pak een game in 4K en je ziet en concludeert dat de cpu niet uitmaakt. Maar een paar jaar verder dat gaat niet meer op. Het is eerder zo dat de 1080p verschillen van nu met een nieuwe gpu generatie ook zichtbaar worden op 1440p (of zelfs hoger). Als je nu een 4090 pakt met die cpu's dan ga je op 4K ook die verschillen zien puur omdat die videokaart zo snel is.

[Reactie gewijzigd door sdk1985 op 25 juli 2024 00:49]

Dat klopt helemaal :-)
CPU belasting schaalt minder hard met resolutie dan GPU belasting, dus als je CPU belasting wil testen is het gebruikelijk een lagere resolutie te kiezen.
Ik snap het best, maar het zegt gewoon zzo weinig over praktijk prestaties, maar is uiteindelijk vaak wel de marketing waardoor zoiets aangeschaft wordt.
Het zegt 'iets'.
Het laat namelijk hoe de CPU presteert als de GPU geen bottleneck is.
En dan laat een 4K benchmark met het gros van de huidige GPU's dus niet zien welke CPU er beter vanaf komt.
Wat heb je aan die info ?
Stel je bent toe aan een CPU upgrade, daar wil je minimaal 5 jaar mee doen, maar je huidige 2080/3080 voldoet nog steeds. Maar over 2 a 3 jaar wil je een Geforce RTX6080 gaan aanschaffen. Tzt. is 4K (waarschijnlijk) geen bottleneck meer, zodoende heb je vandaag de dag een betere CPU voor deze kaart gekocht.
Idd ik game hier op 4K met een 9900K. Het prestatieverschil op deze resolutie tussen een 9900k en 13900k is verwaarloosbaar. En dan heb ik een 3080 in mijn pc gestoken.Daarom heb ik een upgrade tot nu toe niet gedaan.

[Reactie gewijzigd door DutchRookie007 op 25 juli 2024 00:49]

Het zegt helemaal niet weinig, maar het laat precies zien wat we willen testen: de CPU prestatieverschillen.
Dat je in, zoals jij het noemt, 'de praktijk' op b.v. op hogere resoluties gamed met een vele tragere GPU(bottleneck dus), dat mag dan zo wezen, maar dat doet niets af een het feit dat we hier een CPU willen testen.
Sorry maar je komt een beetje over als een zeur, deze test laat gewoon een feit zien, de cpu is gemiddeld X % sneller, niks meer, niks minder.

En dat dat de verkoop helpt zal best, maar wat dan nog?, je laat het zo negatief klinken, alsof je hier misleid word ofzo..
CPU belasting schaalt minder hard? Schaalt zelf onevenredig. Als de resolutie bijvoorbeeld 16K is zit de CPU niet op 100% te draaien maar op 10% want de GPU doet een paar seconden per frame waardoor die CPU vaak zit te wachten op de GPU.

Dit maakt deze benchmark niet minder stom. Je bent er letterlijk niets mee want bijna niemand gaat een RTX 4080 en een Ryzen 9 7950X3D op 1080fps draaien. En bijna niemand vind het belangrijk dat je 200 fps hebt of 211fps hebt. Die 11 frames meer of minder in de hoge fps is niet merkbaar en dus niet relevant.

Op 4K + RTX zal je zien dat AMD en Intel het gewoon even goed doen. Het geeft dus geen zin om je laatste nikkel aan de CPU te geven, als het moeilijk wordt gaat uw GPU zweten en zakt de workload van uw CPU toch.
Bijna niemand. Maar ik heb hier ook een gamer in huis met een 5800X3D en een 3070Ti die alle settings op potato zet behalve dynamische schaduwen om e-sport shooters te spelen op 360Hz.
Dat je 300fps wil halen snap ik, maar of het nu 306fps of 336fps is, wat maakt het uit?
64.83% volgens de steam survey van januari met zelfs een lichte stijging tov de vorige, de correlatie met de gebruikte cpu kan je uit die cijfers niet maken.

[Reactie gewijzigd door dasiro op 25 juli 2024 00:49]

Zoals Rick ook al aangeeft gaat het om aan te geven wat het potentieel van de CPU's is. Als je er maar een snel genoege GPU aan hangt kan je dat soort framerates ook op hogere resoluties halen. Best wat mensen doen langer met een CPU en upgraden de GPU wat vaker.

Ik speel zelf veel oudere games die erg veel baat hadden bij de X3D cache van de 5800X3D. Games zoals SCII, Mechwarrior online en vooral Stellaris doen het veel beter dan met de 5800X.
Vooral stellaris is meer dan 50% sneller dat is echt bizar hoe dat spel nu vliegt.

Dus je moet ook heel erg kijken naar je use case. Als jij een 4K60FPS gamer bent heb je helemaal geen zware CPU nodig maar alleen een krachtige GPU. Ben je een esports gamer is een snellere CPU weer belangrijk om boven die 240FPS te komen op low detail en kan het best zijn dat een 6700XT/ RX6800 of 3070TI al genoeg is qua GPU power.

Het is dat ik het AM5 platform veel te duur vind maar ik zou best wat meer performance voor de games die ik speel kunnen gebruiken. Die draaien lang niet altijd 144FPS GPU usage is dan lang geen 100%.

[Reactie gewijzigd door Astennu op 25 juli 2024 00:49]

Cool, 5% sneller en cpu alleen meer als 20% duurder. Neem je een heel platform is het nog slechter gesteld net de prijs.

Hij zal dus snel flink in prijs moeten zakken. Het is AMD flink naar de bol gestegen.

[Reactie gewijzigd door computerjunky op 25 juli 2024 00:49]

Tot 26% sneller, in gemiddelde FPS bij populaire gamers, terwijl daar helemaal de echte kracht van de x3d's CPU's niet ligt. De echte kracht van de x3d's CPU's zijn en de 1% lows, helemaal in de wat minder goed geoptimaliseerde Indy games, en CPU limited simulatie games. De 5800x3d was bijvoorbeeld 50% sneller in factorio als de 5800x.

En wat gaming betreft verwacht ik niet de 7800x3d flink onder gaat doen voor de 7950x3d, terwijl die beduidend goedkoper is, en goedkoper als de 13900k, die voor gaming ook maar 8 bruikbare cores heeft.
Goed omschreven net over naar een 7900x daarvoor jaren met een i7 5775c 128mb L4 nagenoeg stuttervrij gegamed en moet zeggen de 7900x is dat ook.
Goed nieuws. Is het niet zo dat de 7800 nog betere resultaten gaat neerzetten gezien de 3d cache op de 7950 maar op 1 van de 2 ccd's zit?
Mogelijk wat consistenter omdat er een kans is dat de Sku's met 2 CCD's waarbij er maar 1 V-Cache heeft (in het begin) mogelijk in sommige games / applicaties nog wat scheduler issues kunnen hebben. Het is immers niet bekend of AMD dit bij release gelijk volledig op orde gaat hebben door samenwerking met o.a. MS en de betreffende DEV's of dat daar wat tijd overheen gaat.

Maar zelfs dan zou ik geen enorme verschillen verwachten, mogelijk dat een 7800X3D in titles problematisch voor de 7950% een paar % sneller is.

Ik verwacht echter wel dat prijs / prestatie uiteraard voor de pure gamer de 7800X3D de betere optie gaat zijn, en dat mogelijk daardoor deze ook later uitkomt. AMD wil, verwacht ik in ieder geval, eerst de Sku's aan de bovenkant van de markt uitbrengen om die te verkopen aan de mensen die al maanden vol spanning wachten op deze release.
Zullen we de echte tests gewoon even afwachten? Dit is documentatie van AMD zelf. Iets met de slager keurt zijn eigen vlees?

Niet dat ik het niet geloof ofzo hoor haha. Maar we roepen allemaal dat ons product de betere is toch?
Gewoon deze site afwachten -> https://cpu.userbenchmark...en-9-7950X/m2000819vs4133 - Zodra de 7950X3D al een tijdje aanwezig is, acht ik deze site een overzichtelijke samenvatting.

Best wel jammer, n.a.v. replies, doorgestreept.

[Reactie gewijzigd door SkyStreaker op 25 juli 2024 00:49]

Die site kan je niet meer serieus nemen, helaas. Het "redactioneel commentaar" zou bij Tweakers een -1 opleveren en dan bekijk ik het nog gunstig.
Ik kijk liever bij notebookcheck.
Nooit beseft, jeetje :|
Zoals al wordt aangegeven niet de beste site voor vergelijkingen: reddit

(reddit natuurlijk geen officiele bron of wat dan ook maar staat wel wat verdere uitleg in)
Volgens banned zelfs het intel subreddit posts van die site omdat het zo ongelofelijk biased is.
Maar 5,6% beter in eigen gecureerde tests is toch eigenlijk niet heel goed?
Correct, maar nu kunnen ze weer zeggen dat ze de snelste zijn voor games. Bijkomend zullen er wederom meer GPU reviews zijn met de AMD CPU's.

Ondertussen kan je op WCCFtech nog verdere leaks terugvinden:
AMD Ryzen 9 7950X3D vs Core i9-13900K CPU (1080P Gaming):
Assassins Creed Valhalla (Ultra): +35% Faster
Far Cry 5 (Ultra): +12% Faster
Shadow of The Tomb Raider (Highest): +11% Faster
Metro Exodus (Extreme): +5% Faster
Star Control (Great): -2% Slower
Average: +12% Faster

Toont een beter beeld, wat vreemd is gezien AMD's eigen testing.
We zullen het volgende week weten. Benieuwd naar het verschil in stroomverbruik. Eveneens het resultaat bij undervolting zoals bij de 5800X3D.
Under promise, over deliver. Voor brand perception van onschatbare waarde. Er zijn de laatste maanden heel wat negatieve punten aangehaald ivm AMD. Gaan ze nu plots beter leveren dan dat ze zelf beloven dan komt dat heeeeeel goed over.
Hangt er natuurlijk ook wat van af tegen welk stroomverbruik :)
Klopt, maar als je de benchmarks bekijkt van AMD van de afgelopen jaren kloppen die meestal wel.
toch niet die van de 7900 XTX... daar hadden ze met selectieve benchmarks wat verkeerde verwachtingen geschept ( en dan druk ik me zacht uit )
Maar het blijft het nieuwswaardig. Intel heeft ook interne benchmarks die soms op straat komen te liggen.
7950X kost 599,- nu, een 13900K 625,- nu. Wat gaat een 7950X3D kosten en wat zijn de prestaties op 1440p. Ken werkelijk niemand die een 7700X of sneller voor 1080p koopt. En die kopen ook geen 7900XTX, maar RTX4080 of sneller
7950X kost 599,- nu, een 13900K 625,- nu. Wat gaat een 7950X3D kosten
De adviesprijs is 699 dollar. In de praktijk zal daar dus zo'n 100 euro bij komen. In Frankrijk is hij bijvoorbeeld al gespot (als pre-order, uiteraard) voor 800 euro. Zie dit artikel.
De adviesprijs van een 7900XTX was destijds $999 wat neerkwam op €945, en met 21% btw zou dat dan €1144 zijn en uiteindelijk kon je 'm gewoon kopen voor €1159.

Met datzelfde rekensommetje $699=€660*1.21=€799 waardoor dat wel aardig klopt.

Pas wel op met bestellen van winkels die veelal in de Pricewatch staan maar die het product dat je wilt kopen nog niet hebben gelist in de pricewatch. Je betaalt zo €50 tot €250 te veel. Met de 7900XTX heb ik een aantal winkels in de gaten gehouden die ik niet bij naam zal noemen, en de kaarten gingen van €1160 naar €1350 binnen een dag terwijl je bij andere winkels die doorgaans niet in de pricewatch staan de kaart nog gewoon voor €1160 kon krijgen.
Ik wil de Duitse buren ook nog wel eens in de gaten houden of de Belgen, wil nogal eens behoorlijk wat schelen, de Nederlandse BTW komt er gewoon bij.
[...]


De adviesprijs is 699 dollar. In de praktijk zal daar dus zo'n 100 euro bij komen. In Frankrijk is hij bijvoorbeeld al gespot (als pre-order, uiteraard) voor 800 euro. Zie dit artikel.
Voor die evt 5% extra winst niet waard in aankoop tov 13900K
Maar de 13909J is het al niet waard over een i5/R5 dus als je in de markt bent voor de snelste is het vanaf de 28e simpelweg AMD. De prijs doet er op dat niveau toch niet toe? Als je meer dan 300 euro uitgeeft aan een cpu voor gaming moet je al minstens 1500 euro hebben betaald voor je gpu voor je dat überhaupt moet gaan overwegen.
Maar de 13909J is het al niet waard over een i5/R5 dus als je in de markt bent voor de snelste is het vanaf de 28e simpelweg AMD. De prijs doet er op dat niveau toch niet toe? Als je meer dan 300 euro uitgeeft aan een cpu voor gaming moet je al minstens 1500 euro hebben betaald voor je gpu voor je dat überhaupt moet gaan overwegen.
Apple v pears.

De vergelijking van mij is onderdeel van dit hele artikel
Nou ja je maakt een argument op basis van value for money. Wat ik wil zeggen is dat dat überhaupt geen argument is bij deze CPU’s. Als je deze in je systeem hebt zitten is 100 euro erbij voor 5% winst het absoluut waard want het hele systeem kost sowieso al meer dan 3000 euro dus 100 euro is 3% duurder, voor 5% sneller - totaal het geld waard.
Ik weet nog wel dat voordat de 5700G officiëel in de retail-verkoop was een aantal mensen hem al hadden weten te krijgen. En die mensen waren flink teleurgesteld toen bij de officiële launch-datum de prijs ineens met 80 euro naar beneden donderde. :P

Ten tijde van schaarste (toen bijvoorbeeld de Ryzen 5000X's nieuw waren) kan pre-order relevant zijn maar de markt ligt nu zodanig op zijn gat dat je de 7000X3D's waarschijnlijk gewoon voor een nette prijs kan kopen in de week na de officiële start van de verkoop.
En over een paar maand komt intel met X cpu die sneller presteerd dan deze.
Het koste intel 2 jaar om de 5800x3d te verslaan (net) in gaming met de veel duurdere 13900k.
5800X3D is nog geen jaar op de markt.
laatste geruchten waren dat het niet echt top gaat met de ontwikkeling van de volgende cpu en die alleen in low en mid range vorm komt omdat het een port van de laptop cpu is.
Ik denk dat de meesten over het hoofd zien, dat die 7950x3d dat doet met een tdp van 120 watt, wat toch een hele prestatie is.
Doe mij er zomaar 1 dan een. Intel variant.
Daar was ik ook benieuwd naar. De Intel heeft een dubbel zo hoge tdp? Klopt dat? Dan is het een nog grotere prestatie.
Dat klopt idd rond de 250 watt tdp.
Dat klopt niet, Intel heeft een 125W PL1 (base power) voor de 13900K, waar AMD een 120W TDP heeft voor bijvoorbeeld de 7950X3D.

Intels PL2 (Intels term voor maximaal verbruik tijdens Turbo wanneer je de stock settings respecteert) is 254W, AMD's PPT (AMD's term voor maximaal verbruik tijdens Turbo wanneer je de stock settings respecteert) is 162W (bij AMD is dit namelijk TDP*1,35)

Sommige moederborden doen bij Intel wel PL1 = PL2, waardoor je op bepaalde (vaak highend) moederborden geen beperking ziet in verbruik, terwijl andere moederbord wel de 125W PL1 en 254 PL2 respecteren.

[Reactie gewijzigd door Dennism op 25 juli 2024 00:49]

Bij de pricewatch zag ik wel een tdp van ik geloof 250 watt langskomen voor die cpu.
Ja hij behaalt de scores dus met een tdp van 254w je gaat immers geen cpu testen op 50% van zijn vermogen
Nee, hij haalt de scores met een verbruik van maximaal 254W als de stock settings gerespecteerd worden (maximaal verbruik is niet gelijk aan TDP, TDP is iets voor de koeler specificatie, niet om verbruik te duiden), net als dat AMD cpu's hun scores behalen met een verbruik van maximaal 230W (Sku's met 170W TDP) of 162W (Sku's met een 120W TDP) of 88W (Sku's met een 65W TDP).

Let er ook op dat dit het maximaal verbruik is tijdens stock, denk aan een Cinebench MT test, ga je gaming testen dan ga je dit soort verbruik normaliter niet tegenkomen.
Ja hij behaalt de scores dus met een tdp van 254w je gaat immers geen cpu testen op 50% van zijn vermogen
Ook dat klopt niet, bij benchmarks zul je vaker niet dan wel zien dat een cpu zijn maximale verbruik aantikt. Dat gebeurt normaliter alleen in vrij specieke Multithreading tests die de cpu echt volledig belasting. Gaming komt daar normaliter niet in de buurt. Kijk bijvoorbeeld deze tests maar eens door, waar de 13900K onder gaming op geen enkele resolutie gemiddeld meer verbruikt dan 70W: https://www.igorslab.de/e...the-last-big-monolith/11/

[Reactie gewijzigd door Dennism op 25 juli 2024 00:49]

Dat is wel een beetje het verhaal wat een Intel-verkoper zou houden. Ja, het klopt, maar de processor is zo ontworpen dat hij net lang genoeg op 254W blijft draaien om belangrijke benchmarks te kunnen voltooien en dus kun je stellen dat de resultaten met 254W zijn behaald en niet met 120W
Dat is wel een beetje het verhaal wat een Intel-verkoper zou houden. Ja, het klopt, maar de processor is zo ontworpen dat hij net lang genoeg op 254W blijft draaien om belangrijke benchmarks te kunnen voltooien en dus kun je stellen dat de resultaten met 254W zijn behaald en niet met 120W
Dat is al 2 generaties niet meer, afhankelijk van instelling door de moederbord fabrikanten (en de high end borden waar de reviewers mee testen zijn normaliter zulk getunede borden) hebben de K-Sku's geen turbo duur meer en kunnen dus ongelimiteerd op 254W zou er vraag naar zijn vanuit de applicatie (wat uiteraard in de meeste gevallen niet het geval zal zijn). Echter is dat nu juist het punt, veel van de matige reviewers testen verbruik alleen met een nT benchmark en roepen dan omg! de 13900K verbruikt wel 254W, wat uiteraard in zo'n benchmark zo is, echter ze geven niet de duiding die Igor wel geeft, dat op andere workloads, waaronder gaming, het een ander verhaal is. Waardoor je o.a. hier, maar ook andere forums of reddit constant commentaren ziet van mensen die denken dat een 13900K contant 254W (of meer) verbruikt, ongeacht de workload.

En dat is juist waar ik op doel, kijk de naar de review van Igor zie je dat de Intel Sku's, terwijl ze 254W zouden mogen gebruiken, gemiddeld genomen in gaming workloads nooit meer verbruiken dan 70W, waarbij bijvoorbeeld in gaming, uiteraard niet in rendering, de 13900K efficiënter is dan bijvoorbeeld een 7950X, 7900X, iets dat mensen niet verwachten wanneer ze een review bekijken van een reviewer die alleen bijvoorbeeld Cinebench nT gebruikt om het verbruik te meten. Ga je echter renderen met bijvoorbeeld Cinema4D is het plaatje volledig omgedraaid en is de 7950X ruim efficiënter.

[Reactie gewijzigd door Dennism op 25 juli 2024 00:49]

Je hebt technisch gelijk, maar het gaat hier om vergelijking van 2 processoren. Dat Intel niet altijd 254w verbruikt begrijpen we wel. Maar als je het maximale eruit perst dan verbruikt hij dat wel, terwijl AMD 162W verbruikt voor net iets meer prestaties. Laten we voor het gemak zeggen dat ze hetzelfde presteren op max, dan doet de AMD dat dus 36% goedkoper, moederbord buiten beschouwing gelaten.
Als je dan aanhaalt dat Intel tijdens gamen eigenlijk gemiddeld 70watt verbruikt, dan moet je dat ook voor AMD benoemen om het eerlijk te houden. Ik weet niet wat AMD dan gebruikt, technisch gezien zou dat dan ook lager moeten zijn als het goed is geïmplementeerd.
En dat klopt dus niet, wat je gezien zou hebben als je de link had bekeken die ik nu al enkele malen gepost heb. Het verschil is een stuk kleiner dan tijdens cinebench nT, maar bijv in gaming verbruikt de 7950X gemiddeld 71W op 720P, waar de 13900K 68W gemiddeld verbruikt, op 1080P is het 69W voor de 7950X en 64W voor de 13900K en op 1440P is het 65W voor de 7950X en 54W voor de 13900K.

En dat is nu juist dus wat ik aangeef, een gamer verwacht niet dat wanneer ze zien dat een matige reviewer alleen Cinebench nT test en een verbruik van 230W voor AMD optekent bij de 7950X en 254W bij de 13900K dat ineens op lichtere workloads de 13900K ineens efficienter kan zijn dan een 7950X.

Of dat straks bij de 7950X3D nog steeds zo gaat zijn is uiteraard de vraag, ik vermoed van niet. Maar nog altijd zal het verschil in verbruik en dus efficiëntie in gaming nog altijd een stuk kleiner zijn dan in andere workloads.
Verbruikt de betreffende AMD processor minder stroom, dan de Intel processor?
Dat hangt volledig af van de workload die je zal uitvoeren. Zie opnieuw de review die ik al linkte: https://www.igorslab.de/e...the-last-big-monolith/11/

Dan je zie dat een AMD 7950X in deze test meer verbruik tijdens gaming dan de Intel 13900K, iets wat je op basis van het iets lagere TDP of lagere maximaal verbruik in turbo mogelijk niet zou verwachten, maar dat de Intel 13900K, zoals te verwachten op basis van de PPT waarde van de AMD cpu, of de PL2 waarde van de Intel, meer verbruikt in bijvoorbeeld rendering in Blender.
Intel is alleen zuiniger op de dingen rond de cores (zoals front side bus etc), en op 1 core naar 5.8 ghz jagen. Al de rest is Intel minder zuinig op. Op schaalbaarheid komt dat goed naar voren. Raptor lake is géén slechte cpu maar ook niet uitmuntent. Het feit dat Meteor lake op energie zuinigheid zal focussen zegt voldoende vind ik. AMD kan op helft van haar verbruik 0-7% (met zeldzame 13% uitschieters) aan prestaties verliezen, wat niets is. Bij Intel is dit meer.

Die 243 watt mag wel aangehaald worden want cinebench belangrlijke benchmark in vele cpu review sites zal altijd zoveel verbruiken, no way dat die tests met 120 watt Intel limitatie gedaan zijn. Net zomin dat je kunt ontkennen dat de ryzen 7950x op stock véél verbruikt (in multithread). Die 38000 cinebench lijkt impressionant (40% beter), maar verbruik omhoog, wannneer je verbruik terug naar 105 watt (140 watt ppt) normaliseert), heb je nog minstens 35000 cinebench, denk zelfs nog wat meer. Nog altijd heel goede score. Intel verlies grotere hoeveelheiden bij afkappen van maximum watt. Intel heeft duidelijk voor soort 'netburst' achtige architectuur gekozen. Ze klokken beter dan AMD, en kunnen die gulzigheid ook over langere tijd zonder problemen vasthouden, maar... verbruik = amd beter, zeker bij slim gebruik, alleen bij single core gaming/idle gaming is Intel heel klein beetje better.

De X3D 7000 serie zal het verbruik /gaming nog verbeteren, de 5800x3d heeft dat al bewezen. Dus gelieve die 243 watt (er is zelfs een 343 watt), en 12900k is ook 241 watt, niet te ontkennen, de cinebench nummers zijn op die verbruiken gebasseerd.
Er is ook niemand die dat verbruik ontkent, ik weet niet waar je dat vandaan haalt, wat echter niet correct is, is alleen een cinebench test uitvoeren en dan claimen dat de 13900K '254W verbruikt' als blanket statement (waardoor veel mensen gaan denken dat dit soort verbruikt eerder regel is dan uitzondering, terwijl een gamer die 254W normaal nooit gaat aantikken, of zelfs maar in de buurt zal komen, juist zo'n blanker statement is waar deze discussie enkele posts hierboven gestart is), dat doet die namelijk wel in die test, maar in andere tests, o.a. gaming duidelijk niet. En die duiding maken de minder goede reviewers niet, die komen alleen met de cinebench waarde aan en baseren daar hun review op.

Terwijl je juist verwacht van een goede reviewer dat deze zijn publiek onderwijst dat een verbruik getest in cinebench niet relevant is voor gamers, maar alleen voor mensen die cinebench achtige zaken gaan gebruiken als hun primaire workload en dat het verbruik in gaming en andere lightly threaded workloads vaak heel anders is. Igor is daar echt een uitzondering in die dit soort tests goed uitvoert, zelfs gerenommeerde reviewers als GN en HUB laten daar steken vallen.

En op zich is dat voor mij als AMD aandeelhouder niet verkeerd, want dat soort fouten zal mij geld opleveren :P Maar als hardware liefhebber en techenthousiast stoor ik me wel aan het gebrek van goede efficiency en verbruikstesten bij veel reviewers.
De X3D 7000 serie zal het verbruik /gaming nog verbeteren, de 5800x3d heeft dat al bewezen.
Dat verwacht ik ook, als ik kijk wat mijn 5800X3D verbruikt, zou het jammer zijn als de 7000 serie daar niet op voort gaat borduren. Ik tik bijvoorbeeld Max PPT niet eens aan met Cinebench.

[Reactie gewijzigd door Dennism op 25 juli 2024 00:49]

Tjah Ik ben het gewoon beetje beu dat Intel mensen hun verbruik verdedigen (sinds 7000 serie op stock settings is amd ook niet te verdedigen). Maar de Non X and X3D versies fixen dat al.

En dat van die 'is op Gaming veel zuiniger' geld ook voor 7950x op stock. Een 65 watt eco mode versie is in games even snel. Intel is net iets soepeler in speed-step lijkt deze generatie, maar vanaf je een 13900k koopt waarvoor hij dient (anders zijn die 16 e-core nutteloos), en op stock laat draaien (maar dus ook in verminderde wattages) dan scoort Intel slechter tot slecht. En het feit dat de benches op die 'zogezegd' nooit gehaalde wattages gehaald zijn stoort me. Dan moeten alle benches herdaan worden. Want zo krijgt Intel een boost 'die het niet verdiendt behalve in games'. Hun multicore scores moeten dus met zout genomen worden (of met de 241-343 watt). Your choice. En nogmaals 13900 modellen zijn dom voor gamen, koop dan ten minste trap lager 13700k.

En de X3D zal verbruik per game prestaties (zeker minimum frames) sterk omhoog doen en goed zo niet beter dan Intel presteren, misschien zelfs ook minder verbruiken door lagere boost clock dan Intel plots. Dan is het laatste verdediging 'Intel is toch zuiniger dan je denk' plots veel minder sterk argument.

Kortom, sinds 10900k, 11900k, 12900k en nu zéker 13900k in performance mode, zeur Intel paar procenten in benches OF moet je ze al niet zuinig zien in multicore benches. Your choice, pick a poison, maar ontken het niet. Je hebt het hiervoor zo vaak ontkent dat het echt irritant werd. Mind you ik ben ook boos op AMD voor 230 watt stock verbruik van 7950x in cinebench. Maar gelukkig hebben de schaling testen getoond dat amd gewoon zich te veel door Intel heeft laten bangmaken, terwijl Raptor lake op alle mogelijk manieren géén zuinige cpu is (bv mijn Ivy bridge op 100% verbruik minder dan raptor lake in gaming, voor hoe goed die cpu is, zou hij toch nóg minder mogen verbruiken. Ik blijf ook in meteor lake gerruchten een 'ik geef toe ik was fout om veel te verbruiken', van Intel.

Bij ryzen 5950x is deze shit allemaal niet van toepassing, het is een correcte cpu, met correct verbruik, correcte hitte, correcte benches, correcte efficientie. Ik mis dat bij huidige generatie en zeker Raptor lake 13900K(S).
De benches worden natuurlijk gedaan op DDR5. En dan aangeven dat het zo'n voordeel is dat die CPU ook met DDR4 kan werken...
Ik heb nog altijd geen idee wat je bedoeld met 'ontkennen', nogmaals, niemand ontkent dat Intel 254 (of 241W) verbruikt in bijvoorbeeld rendertesten zoals Cinebench.

Maar dat is heel het punt niet, je leest simpelweg totaal mijn post niet zo lijkt het wel. Uiteraard moet je een 13900K voluit testen in Cinebench en dan zal je inderdaad zo'n verbruik zien. Waar het misgaat is dat een matige reviewer alleen Cinebench test qua verbruikstest en dan gaat optekenen 'deze cpu verbruikt 254W', maar niet verder test en zo laat zien dat in andere workloads, een stock 13900K (of 13700K zoals je wil) efficiënter kan zijn en minder kan verbruiken dan bijvoorbeeld een zijn een stock 7900X of 7950X.

Waardoor je hier, maar ook op andere forums of reddit mensen ziet (zoals degene waar ik initieel op reageer) die geen idee hebben van TDP's en werkelijk verbruik in verschillende workloads bij zowel Intel als AMD cpu's en bijvoorbeeld denken dat een 13900K altijd 254W verbruikt, terwijl dat voor een groot deel van de aspirant kopers vrijwel nooit het geval gaat zijn omdat ze niet de workloads draaien tijdens hun dagelijks gebruikt waarbij de cpu zoveel vermogen zal vragen. En dat is gewoon jammer, daar dit enkel komt doordat veel reviewers hun werk niet fatsoenlijk doen. Reviewers zouden er simpelweg goed aan doen een goed beeld te schetsen van het verbruik van de diverse cpu's in alle soorten workloads en niet enkel een cinebench of blender zoals velen doen. Ook voor AMD zal dat een stuk gunstiger lijken sinds ze gekozen hebben voor 230W PPT's.

Ik vind trouwens wel dat AMD daar een wat dommige fout gemaakt heeft, in plaats van voor 230W PPT's te kiezen en Intel achterna te gaan, en een nieuwe eco mode te implementeren op het 'oude' 142W PPT's niveau vond ik geen slimme zet. Ik had liever gezien dat 142W PPT het standaard PPT was gebleven en dat ze een 'performance' mode zouden toevoegen met 230W PPT en dat dan de eco mode enkel 65W was gebleven zoals voorheen. Dan behoud je op stock je enorm betere efficiëntie in zware workloads, terwijl er over de performance mode met bijbehorend hoger gebruik en verminderde efficiëntie minder geklaagd zal worden, want die is optioneel.

Daarnaast denk ik zeker niet dat je Intel moet gaan aanprijzen omdat ze een paar W minder kunnen verbruiken in gaming. En dat zul je mij bijvoorbeeld ook zeker niet zien doen, ik denk dat ik al in een tijden meer high end Intel cpu heb aangeraden aan iemand, zeer specifieke scenario's uitgezonderd. Ze gaan immers met iets meer efficiëntie in gaming de oorlog niet willen, maar je moet het wel benoemen.
Tjah Ik ben het gewoon beetje beu dat Intel mensen hun verbruik verdedigen (sinds 7000 serie op stock settings is amd ook niet te verdedigen). Maar de Non X and X3D versies fixen dat al.
Ik hoop dat je mij daar niet mee bedoeld, want dan ken je me echt niet :P Mijn systemen zijn full AMD en ik ben al jaren AMD aandeelhouder ;) Ik ben daarnaast echter ook Techenthousiast en vanuit dat oogpunt zou ik het fijn vinden voor mensen die leunen op reviews dat deze simpelweg een volledig beeld geven, en dat gebeurt nu vaak niet.

[Reactie gewijzigd door Dennism op 25 juli 2024 00:49]

Onder andere, je koopt toch ook geen processor om 24/7 te benchmarken?
Dat hoop ik ook niet.
En alle benchmarks door reviews worden gedaan op pl2.

En die intel kan dan in games beperkt verbruiken, heeft dan ook maar beperkt aantal pcores.

Dus voor puur gaming kijk je binnenkort naar 78003dx VS top Intel.

Maarja wat boeit het, volgens tweakers is de 10400-11400-12400-13400 altijd de beste cpu. Want er is geen budget en iedereen wil geen toekomst platform en speelt op high Res low fps en heeft niks aan minframes.. :Y)

[Reactie gewijzigd door d3x op 25 juli 2024 00:49]

Het is een manier van vergelijken, maar vertelt natuurlijk niet het hele plaatje.

Beetje oneerlijke vergelijking door zelfde type RAM te gebruiken voor Intel; AMD kan niet veel sneller dan 6~6,4k DDR5, terwijl Intel 8k+ haalt en daar ook zeker van profiteert.

Ben vooral benieuwd naar de 7800X3D, dat zou een hele mooie prijs/prestatie verhouding moeten zijn verwacht ik.
Leuk om hier wat te staan te verkondigen dat max schaling geheugen veel doet zonder enige info en link.

Dan maar eentje erbij genomen:
https://www.guru3d.com/ar...ry-scaling-review,16.html

Het is de moeite dus niet tov meerprijs }:O
Misschien een idee om je toon wat te matigen, maar goed.

nieuws: AMD maakt adviesprijzen en releasedata Ryzen 7000X3D-cpu's bekend.
Verwachte prijs van €800 voor 7950X3D, €160 meer dan de 13900K.

Beetje geheugen richting 7600 kost je +/- €100 meer dan zelfde true latency 6000. Welke meerprijs bedoel je precies?
categorie: Geheugen intern

[EDIT] Daarnaast is de vraag of je om €100 gaat liggen twijfelen als je €600+ voor een CPU gaat neerleggen.

[Reactie gewijzigd door FlowSnake op 25 juli 2024 00:49]

Toon matigen? Ik antwoord gewoon op je bemerking dat Intel veel beter af is met hoger freq geheugen. Ik heb het nergens over prijsvergelijk cpu.

Trouwens je geeft nog steeds geen enkele link naar de perf verbeteringen.

En waarom zou je 100eur twijfelen als het geen toegevoegde waarde is. }:O

Met dat 100eur verschil heb je betere cpu dus die de helft verbruikt O-)

[Reactie gewijzigd door d3x op 25 juli 2024 00:49]

Ho, je hoeft mij niet te overtuigen dat de X3D een betere keuze is, ik ga all in op het 3D kamp. Trotse eigenaar van mijn 5800X3D op 350B bordje.

Maar desondanks vind ik toch dat beide systemen in de eigen optimale settings vergeleken moeten worden. Then again, niet alleen Tweakers doet het zo, maar vind wel dat als je algehele platformen met elkaar wil vergelijken, dan ook dit meegenomen mag worden.
Die 8k+ is niet gegarandeerd is bij intel.
Op een franse retailer website staat de 'Ryzen 9 7950X3D' voor €800 te koop.

Dat is wel aanzienlijk duurder dan de 'Core i9 13900K' die voor €628 te koop is en niet veel slechter presteert in games.

Ik ben benieuwd naar meer prijzen en benchmarks.
Staar je niet blind op de prijs van de eerste aanbieder, die is altijd te hoog. Het is gewoon een manier om in de picture te komen (de eerste zijn = gratis reclame). Iedereen weet dat van zodra er meer shops het aanbieden, de prijzen vanzelf naar beneden zullen gaan. Dat heet men concurrentie.
Als eerste aanbieder is je doelgroep early adopters die niet kunnen wachten tot de prijzen genormaliseerd zijn.
Nou ja die 13900K presteerde amper beter dan cpus van 300 euro. Als je een 13900K overweegt doe je dat omdat je niet naar kosten kijkt maar het beste wil, dus maakt nog eens 100 euro ook niet uit. Ik zou het zelf nooit kopen maar goed ieder hun meug.
Ben vooral wel benieuwd hoe het met de minimum framerate of 99% percentile zit. Dat was immers waar de 5800X3D het grootste verschil kon maken.

@cricque
Ik ben het opzich niet opeens met je betoog (al heb ik de Voodoo tijd nooit bewust meegemaakt :+ ), maar ben toch wel benieuwd vanuit het Tweaker perspectief naar wat de snelste desktopproccesor allemaal kan op dat gebied , als die gemiddeld al 16% sneller is dan de 7950X3D dan kan het qua minimum alleen maar beter worden kijkende naar de 5800X3D vs 5800X :P

Overigens denk ik dat voor puur gaming een 7800X3D veel interessanter gaat zijn dan deze, 16 cores blijft realistisch gezien nog wel even overkill daarvoor.

[Reactie gewijzigd door !mark op 25 juli 2024 00:49]

Vroeger was je gewoon blij als je een game kon spelen ten tijde van een voodoo en daarvoor. En dat het eens wat stotterde tsja dat nam je er bij. Alles is sterk vooruitgegaan, maar weet je het is nog niet het ergste dat je eens een framedrop heb, het kan veel erger zijn. Zolang je niet competitief speelt en het niet online in team is, kan het kwaad dat je eens ergens geen 200fps haalt ?
Nu in elk geval is dit wel echt gericht op de gamers, en voor kleine meerprijs is dit denk ik echt wel de moeite waard. Nu alleen nog wachten op de prijs en dan bekijken is het waard om over te stappen lijkt mij. Prijzen van geheugen zijn aan het zakken en snellere timings, dus begint nu wel een pak interessanter te worden om van een 3 of 5 serie over te stappen als je daarvoor in de markt bent
De minimum frame rate is zeer belangrijk in VR, zelfs wel belangrijker dan max of gemiddelde framerates. Leuk dat je gemiddeld 200 fps haalt, maar als daar regelmatig 40 fps tussen zit en de rest 300 fps, is dit heel erg vervelend in VR. Liever stabiel 90 fps dan gemiddeld 200 fps.

Bij mij heeft de overstap van een 5600X naar een 5800X3D de minimum framerates enorm doen verbeteren icm met een RTX3080 en HP Reverb G2. Ik ben dan ook erg benieuwd hoe groor de verbetering zal zijn met de 7800X3D.
t'is niet enkel vervelend, je kan er letterlijk ziek van worden in t'hoofd.

Op dit item kan niet meer gereageerd worden.