Door Tomas Hochstenbach

Redacteur

Ryzen 9 7950X3D vs. Core i9 13900KS

Heeft AMD of Intel de snelste gaming-cpu?

27-02-2023 • 15:00

237

Singlepage-opmaak

Conclusie

AMD en Intel proberen met hun nieuwe processors allebei hetzelfde: de titel 'snelste gamingprocessor' claimen. De aanpak verschilt daarbij nogal.

AMD Ryzen 9 7950X3D: de efficiëntiekoning

AMD Ryzen 9 7950X3DAMD past weer 3D V-Cache toe en dat ontgrendelt in sommige games een hoop extra prestaties. In sommige titels steekt de 7950X3D dan ook met kop en schouders boven de concurrentie uit. Er zijn echter ook games waarin de extra cache weinig oplevert, en de processor door de lagere klokfrequenties zelfs langzamer is dan de reguliere 7950X.

Dat AMD deze techniek nu ook in een 16-coreprocessor beschikbaar maakt, is aan de ene kant fijn, want je hoeft nu niet meer per se te kiezen tussen uitstekende gameprestaties en uitstekende multithreaded prestaties. Aan de andere kant brengt het ook wat gedoe met zich mee, want je krijgt dus een 8-core-ccd met extra cache, maar de aan de gebruikte techniek inherent lagere kloksnelheden, en een 8-core-ccd dat hoger kan klokken, maar niet bij die extra cache kan. De Windows-scheduler snapt dat standaard niet, dus heb je extra drivers en software nodig. Die doet zijn werk op zich prima, maar bij de 7800X3D met maar één ccd hoef je hier straks allemaal niet over na te denken.

Wat wel een sterk punt is van de 7950X3D, is zijn efficiëntie. Die benadert nog niet helemaal die van de 5800X3D uit de vorige generatie, maar de lagere kloksnelheden die AMD gedwongen wordt te gebruiken, vertalen zich in vrijwel alle taken naar een betere verhouding tussen prestaties en stroomverbruik.

Intel Core i9 13900KS

Intel Core i9 13900KS: de pyrrusoverwinning

Ja, de Core i9 13900KS is de snelste gamingprocessor van dit moment. Maar wel met slechts gemiddeld 1 procent voorsprong op de bestaande 13900K, terwijl het al zeer forse stroomverbruik van die processor alleen maar verder uit de hand is gelopen. Met een 7950X3D lever je slechts 2,5 procent aan gameprestaties in, terwijl die processor in-game ruim 40 procent minder verbruikt, en in een allcoreworkload zelfs ruim de helft.

Dat stroomverbruik vormt ook een praktisch probleem bij het koelen van de Core i9 13900KS. Zelfs onze 360mm-waterkoeler kon deze processor niet zonder enige throttling zijn werk laten doen, waardoor bij langdurige maximale belasting een temperatuur van rond de 100 graden geen uitzondering was.

De echte winnaar?

Zou je een van deze nieuwe processors moeten kopen? We vinden het sowieso lastig om de Core i9 13900KS aan te bevelen; het enorm hoge stroomverbruik en de meerprijs wegen niet op tegen de minieme prestatiewinst. Bovendien is de cpu in de praktijk amper te koelen.

De Ryzen 9 7950X3D is juist zuiniger dan zijn reguliere variant, dus dat houdt ons in elk geval niet tegen om het aan te bevelen. Wel vinden we de meerprijs van in de praktijk rond de 200 euro stevig voor de geboden extra gameprestaties. Hoewel we de innovatieve manier om die te bereiken meer kunnen waarderen dan Intels brute kloksnelheidgeweld, bekruipt ons een beetje hetzelfde gevoel als toen de 5800X3D uitkwam. Lange tijd bungelde die onderaan de populariteitslijst in de Pricewatch, totdat AMD met de prijs begon te stunten. Zodra je over een meerprijs in de orde van grootte van 50 euro spreekt in plaats van het viervoudige, zal de 7950X3D met zijn uitstekende gameprestaties en efficiënte werking pas een aantrekkelijke optie worden.

Onder de streep zijn beide producten niet compromisloos genoeg om in aanmerking te komen voor een Ultimate-award, die we dan ook op zak houden.

Lees meer

Reacties (230)

230
225
131
19
0
62
Wijzig sortering
*knip*

Een review speciaal voor gaming en dan 5 spellen meenemen in de test. Dat is hetzelfde wanneer TU Delft zijn test voor 100.000 uur verkort tot 100 uur omdat ze geen tijd hebben en zeggen dit is wat het is.

Ook gaf AMD aan dat men 6000 mhz cl 30 ram gebruikt moest worden en zelfs een lijst met te behalen FPS en indien deze afweek dit aan te geven!

Bij bv Hardware unboxed zien we een heel ander beeld van deze CPU. Ook dien je de laatste chipset drivers te installeren welke meer performance geeft.

En hoewel er nog zeker wel bugs zijn waardoor prestaties terugvallen die ongetwijfeld opgelost zullen worden kon je zien dat over 12 games de 7950 X3D iets sneller was dan de 13900KS met 7200 ram!

*knip*

Want veel files download je, niet uploaden.
Ik ben benieuwd naar de 7800 X3D dat gaat vermoedelijk de nieuwe game koning worden.

*knip*

Admin-edit:Bedankt voor je feedback. Commentaar voor de redactie hoort echter thuis in Geachte Redactie. Hier staat het de inhoudelijke discussie niet in de weg en kan de redactie het eenvoudig terugvinden.

[Reactie gewijzigd door AlphaRomeo op 22 juli 2024 17:32]

De feedback dat je meer games getest zou willen zien bij een review die om op gaming gefocuste cpu's gaat, daar kunnen we wat mee en die gaan we serieus meenemen bij de evaluatie van deze review.
Ook gaf AMD aan dat men 6000 mhz cl 30 ram gebruikt moest worden en zelfs een lijst met te behalen FPS en indien deze afweek dit aan te geven!
Wij 'moeten' niks van AMD (of Intel for that matter), en op het moment dat dat wel zo zou zijn, accepteer ik geen reviewsamples meer van ze. Wij testen op onze manier, waar goed over nagedacht is, en die wijkt soms af van het ideale scenario dat een fabrikant in zijn marketingmateriaal schetst.
Ook dien je de laatste chipset drivers te installeren welke meer performance geeft.
Uiteraard is dit getest met de laatste chipsetdrivers, die staan zelfs uitgebreid beschreven op pagina 2.

Met je insinuaties over partijdigheid en 'Intel-zout' kan ik natuurlijk helemaal niets, en dat is niet alleen pijnlijk voor mij, maar ook voor het hele team achter deze productie (testers, eindredacteur, video-editor etc). We hebben in de paar dagen dat we deze processor hebben onze stinkende best gedaan om een goede, toffe review te maken. Daar mag je het inhoudelijk mee oneens zijn, wanneer goed onderbouwd graag zelfs, maar twijfel aan onze intenties trek ik slecht.
Wij 'moeten' niks van AMD (of Intel for that matter), en op het moment dat dat wel zo zou zijn, accepteer ik geen reviewsamples meer van ze. Wij testen op onze manier, waar goed over nagedacht is, en die wijkt soms af van het ideale scenario dat een fabrikant in zijn marketingmateriaal schetst.
Ik denk dat je die 'moeten' - commentaar verkeerd begrepen hebt. Uiterard MOET dat niet, maar een sportwagen zet je ook niet op een vermogensbank met euro95 benzine...

En hoewel de keuze van 1080p begrijpbaar is om verschillende in CPU bloot te leggen, had er toch een slide met 1440p of 4k bijgemogen vind ik. Ik denk niet dat iemand +700€ aan een gaming CPU geeft om uiteindelijk op 1080p te gamen. ( sommige games, bij HW unboxed zag je het ook, zitten op een CPU limiet met een RTX4090 op 1080p, het zou interessant zijn nog eens te bekijken of je met zo'n CPU wat winst haalt op 1440p dan bijvoorbeeld, of misschien even testen met een AMD 7900XTX ( die minder CPU overhead heeft in zijn drivers tov Nvidia)
Kijk je mag natuurlijk altijd je eigen manier van testen toepassen. Dat is prima. Maar waarom doe je dan niet hetzelfde geheugen zowel bij AMD als Intel?

Bij AMD nemen jullie 5200 en Intel 5600 mhz. Het is alom bekend dat AMD met haar infinity fabric enorme baat heeft bij sneller geheugen. En ik begrijp heus wel dat je de standaard specs van de website neemt mbt eventuele instabiliteit mbt geheugencontroller.

Maar nagenoeg alle goede moederborden met de juiste bios en agesa update draaien geheugensnelheden die AMD zelf ook aanbeveelt. (ik bv met mijn Ryzen 9 5900X met 3600mhz ipv 3200)

Het probleem waar ik bij jullie meer en vaker over struikel is dat jullie dus uitspraken doen die dus niet correct zijn. Want de stelling dat bv de 13900ks de snelste gaming CPU blijft is dus niet zo.

En uiteraard maakt het niet uit of AMD of Intel die 1% heeft. In de praktijk zal dat weinig uithalen.
Meer fair is dan dat je zegt dat ze beide gelijkwaardig zijn en het vooral afhangt van welk spel je speelt.

Maar ook mbt wat ik al aangaf. Win Rar inpakken. Veruit de meeste mensen pakken uit namelijk, want veel files zijn gecomprimeerd als je ze download.

Gebruik dan gewoon meer dagelijkse programma's die mensen veel gebruiken.

En het laatste punt waar je het al mee ens was de marginale hoeveelheid spellen getest voor een test puur voor GAMING.

In al jullie reviews staan wat mij betreft echt veel te weinig spellen die jullie gebruiken. Heel veel mensen gebruiken namelijk hun CPU voor gaming. En elke review staan er vaak maar 5 spellen die getest worden.

Dan staan er veel testen tussen die veel mensen minder interesseert zoals compute en compile want het meeste dat jullie daarvan testen is niet echt iets wat mensen gebruiken.

Ik zou zeggen doe ze beide. Tracht als Tweakers meer real world use case programma's in je testen te sluiten zoals Mozillabuild file comp enz

Want als tijd het probleem is, maak dan liever een case scenario waarin vooral testen staan die het gros van de mensen aangaat.

Ik zou veel elke CPU test die er toe doet, dus niet een Celeron CPU(mocht die er nog zijn) meer spellen met een minimum van zeg een 8 games en voor een echte game test review 10+ om het beeld wat meer compleet te krijgen.

Hett gekke is dat jullie vaak wel ongeveer dezelfde resultaten hebben als de grote reviews maar over de conclusie vaak dan opeens afwijken.

Ik geloof graag dat jullie als team jullie stinkende best doen, ik verwacht niets anders, anders zou ik reclame lezen!

Hardeware unboxed en bv Gamersnexus en Jay2 cents en Linus tech zijn allemaal review platforms die zeer kritisch durven te zijn maar wel op een eerlijke manier.

Hier vind ik dat geregeld ontbreken. Vroeger had ik nooit dat idee en waren jullie meer kritisch.
En denk soms ook eens wat meer out of the box. Wees niet volledig rigide in je testen en denk mee wat echte TWEAKERS zouden doen!

Het platform hier wordt echt niet door opa en oma gelezen die geen enkele affiniteit hebben met deze materie. Ik bedoel bijvoorbeeld: zet een CDD uit als je ziet dat er issues zijn met drivers of onlogische prestaties, dat is wat ons Tweaker bezig houdt. Hoe los je dit op namelijk!

De naam van jullie site vertegenwoordigd vaak niet meer de content namelijk! Doe eens gek, overclocken met vloeibaar stikstof enz...

Het is vaak wat flet en kunstmatig waarbij ik bij de sites die ik noem humor en anders denken veel voorbij zie komen. En nogmaals iets waar deze site is mee groot geworden.

Dat bedoel ik met partijdigheid ook meer...geef niet die mogelijkheid dat te denken. Want vele denken dat namelijk en ik geloof dat in de essentie dat niet jullie doel en streven is.
Ik ben het niet vaak met de redacteur eens maar hier heb je gewoon een punt. Aandachtspunt blijft wel idd dat het aantal games wat getest is iets groter had kunnen zijn.

Is er rekening gehouden met engines?
Dit is wat ik mij ook afvraag. Ik zou graag bij de titels willen weten wat voor engines de games op draaien.
Misschien is daar nog wat relevante data te halen.
Tomas,

In de breedte zijn er minder games getest dan ik zelf persoonlijk had gewild om een naar mijn gevoel goed geïnformeerde keuze te kunnen maken.

Toch denk ik dat de review goed gelukt is door jouw team. Top gedaan!
Het is duidelijk dat hier heel veel werk in zit, echt een mooie complete en breede review.

Maar tegelijkertijd maak je wel een gegeneraliseerde conclusie op basis van vijf games waarvan 20% een bizar verschil van 40% toont, terwijl deze wel evenredig wordt meegewogen. Nu ligt deze set gewoon vast als jullie set van prestatiescore games, dus ik snap het echt wel, maar op deze manier krijg je heel snel een scheef beeld.

Het lijkt overigens een combinatie van omstandigheden, zo trekt de 4090 lekker de FPS op, maar is Warhammer 3 eigenlijk ook een game die standaard vijf treads gebruikt en de 13e generatie Intel's kan daar handig continu op turbo boost blijven hangen, waar de 12e na één minuut weer terug in zijn TDP hok moest. Op dit slechte gedrag is deze game een beetje geselecteerd, maar op vijf games begint deze impact onevenredig groot te worden.

Wellicht is dat iets om tegen het licht te houden of te kiezen voor een duidelijke benadrukking over hoeveel resultaten gebruikt zijn voor de prestatie-index.
Een aantal game producenten zijn ook niet onafhankelijk, want waar ligt je voorkeur bij het programmeren.
Ik geloof dat de testen bij Tweakers onafhankelijk zijn maar in de game industrie weet je het maar nooit waar de intensie ligt. Denk wel dat het goed is om met meer games te testen maar als je er een aantal op de testbank legt krijg je een aardig beeld of je dan een beter beeld krijgt met meer games betwijfel ik, je bent nattuurlijk ook afhankelijk van de game zelf (fouten en bugs) dat kan de test van de CPU's vertroebelen want dan is het maar afwachten of het aan de prestatie van de game zelf ligt die niet alles of verkeerd gebruik maakt van de CPU. er bestaan games die de prestatie van een CPU behoorlijk naar beneden halen omdat er een bug in zit of niet goed geprogrammeerd
rsnubje Testlabcoördinator @Mindfree27 februari 2023 19:26
7-Zip voor de goede orde, maar uitpakken hebben we ooit geprobeerd, maar daar heeft de cpu veel minder mee te doen, dus veel minder interessant dan inpakken. Dan test je eerder de SSD.

Nieuwe cpu's testen met een andere ram snelheid dan max 'official' supported is een beerput die net zo vervelend is als de manier testen waarop we nu doen. Want er is niet 1 goede snelheid waarop iedereen tevreden wordt gesteld. Zeker als je ook nog eens timings er bij moet betrekken. Wat wij goed vinden per cpu/platform vindt een ander misschien wel helemaal niet goed.

Als AMD, of Intel, zo graag wil dat iedereen test met 6000MHz (strakke timings even daar gelaten) moeten ze dat officieel maken. Schijnbaar kan het prima en is het optimaal voor de cpu, dus waarom niet. Wij testen gewoon het meest neutraal. Per cpu de beste ram settings bepalen = subjectief, alles hetzelfde behandelen = objectief, imo

Uiteraard gebruiken we de aangeraden BIOS en drivers die AMD mee geeft voor deze cpu, dus waarom je dat aanhaalt snap ik even niet. Schijnbaar ga je er meteen vanuit dat we alles fout doen, omdat we ram niet instellen zoals AMD dat wil.

Als laatste, ik zou ook graag meer tijd willen om hele uitgebreide tests te doen, maar dat kan nou eenmaal niet als grote/brede publicatie, die meer doet dan alleen componentjes testen de hele dag. Vergeet ook niet dat veel sites/youtubers ook lekker tot diep in de nacht/in het weekend door gaan. Die luxe heb ik niet.
Als laatste, ik zou ook graag meer tijd willen om hele uitgebreide tests te doen, maar dat kan nou eenmaal niet als grote/brede publicatie, die meer doet dan alleen componentjes testen de hele dag. Vergeet ook niet dat veel sites/youtubers ook lekker tot diep in de nacht/in het weekend door gaan. Die luxe heb ik niet.
Kun je dit hele proces niet automatiseren, zoals LTT dat ook doet? In principe is het niks anders dan CPU er in en op de start knop rammen en je hebt je benchmark. Zou toch niet zoveel tijd moeten kosten als je het automatiseert.

[Reactie gewijzigd door langestefan op 22 juli 2024 17:32]

Echter het automatiseren zelf kost onmogelijk veel tijd. LTT gooit hier ook heel veel geld en development tijd tegen aan.
Maar het verdient zichzelf gegarandeerd terug. In het dev team van tweakers zitten vast een paar programmeurs die een beetje python kunnen en dit in elkaar willen knutselen, vast een leuk project. Echter automatiseer je dan wel je eigen baan weg :)
Ik zeg ook geen nee, maar het zal niet 1-2-3 klaar zijn. Een deel is al automatisch, maar het andere deel is ook dat we maar 1 4090 hebben voor de games en een 2e daarvan kopen is ook een lastige. In de zin van, is het een zinnige besteding van geld.
Ik denk persoonlijk dat het een hele zinnige besteding is van geld. Het heeft mij in een soortgelijk project (testen van HW modules voor een elektronica product van handmatig --> volledig geautomatiseerd) enorm veel opgeleverd. Maar ja, de initiële investering was groot. Toen het eenmaal draaide vroeg niemand daar meer naar. Voor mij was het een no-brainer.
Dat is ook zo. Verschil is wel dat, zeker in dit geval, we veel op 1 platform moesten testen. En gezien de snelle verversing van hardware is het misschien niet heel zinnig om 2 of 3 4090's, 2 X670, 2 Z790 en evt 2x B550/570 moederborden aan te schaffen. Krijgen van fabrikant lukt ook maar tot op zekere hoogte en het jaar daarop kun je het hele riedeltje weer opnieuw doen.
Maar je test nu niet in de nacht neem ik aan? Bij mij was het zo dat ik om 17:00 een test kon klaarzetten en dan kon ik om 9:00 de resultaten analyseren (en evt meteen een nieuwe test starten). Voordeel van geautomatiseerd testen is ook dat je makkelijker sequentieel hetzelfde type benchmarks kan starten, dan kun je daarna een statistische analyse loslaten op de resultaten zoals het bijvoegen van een confidence interval / gemiddelde.
Ja, het script gedeelte zetten we wel savonds aan. Op langzame cpu's spaart dat wel wat tijd uit.
Ik vrees dat je voor elk spel dan opnieuw het wiel mag uitvinden, kijken hoe je de boel geautomatiseerd kunt opstarten, daarna vinden hoe je FPS kunt meten (overlay? In-game report? GPU-stats? ) en dan nog kijken of het wel reproduceerbaar is (moet je toch checken, anders is het geen goeie benchmark). En dan na elke patch (pas je die wel of niet toe?) mag je dubbelchecken of het nog werkt.

Dus ja het kan, en als je a la LTT heel veel wilt testen is het het waard. Voor Tweakers, die niet elke CPU testen, is het dat misschien niet. Of... je zou samen moeten werken met andere review-sites en niet allemaal zelf iets beunhazen.

@RSnubje: ben stiekem wel benieuwd hoe erg die FPS verschilt tussen zeg een 1090 en een 4090, want het idee is juist om de GPU-power buiten beschouwing te laten ;) Volgens mij is het ook zinniger om de hardware langer hetzelfde te houden, dan zijn de resultaten tenminste een beetje vergelijkbaar met die van 3 jaar geleden.
Ik vrees dat je voor elk spel dan opnieuw het wiel mag uitvinden, kijken hoe je de boel geautomatiseerd kunt opstarten, daarna vinden hoe je FPS kunt meten (overlay? In-game report? GPU-stats? ) en dan nog kijken of het wel reproduceerbaar is (moet je toch checken, anders is het geen goeie benchmark). En dan na elke patch (pas je die wel of niet toe?) mag je dubbelchecken of het nog werkt.
Opstarten kan gewoon door de .exe aan te roepen via de commandline. Veel meer dan een paar geautomatiseerde muiskliks zal het overigens niet zijn, dat soort automatisatie bestaat al heel lang. Voor Nvidia cards heb je gewoon FrameView (wat LTT dus ook gebruikt): https://www.nvidia.com/nl-nl/geforce/technologies/frameview/

Ik snap overigens niet dat iedereen zo bang is voor innovatie, notabene op tweakers. Het is geen rocket science he, beetje python en je bent er zo. Voor iedere nieuwe game hoef je niet 'het wiel uit te vinden'. Het is hetzelfde wiel met misschien hier en daar een klik extra, stelt geen drol voor.

[Reactie gewijzigd door langestefan op 22 juli 2024 17:32]

Dat zal wel meevallen. Allereerst zit er ook gewoon werk in het installeren van de hardware, het runnen van de juiste scriptjes en het schrijven van een artikel. Maar daarnaast: na elke (goed uitgevoerde) automatisering hou je in het vervolg extra tijd over die je daarna kan steken in andere verbeteringen. :) Meer benchmarks dan daarvoor mogelijk was, meer analyse, of toch nog wat extra handmatige metingen die achteraf bezien extra interessant lijken.
Allereerst zit er ook gewoon werk in het installeren van de hardware, het runnen van de juiste scriptjes en het schrijven van een artikel.
Prima, dat is het leuke werk. Als een robot benchmarks runnen zou in 2023 eigenlijk niet meer nodig moeten zijn. Maar goed, als het niet geautomatiseert is moet je wel. Mooi bijkomstigheid is dat als je het automatiseert je een grote test kan starten om 17:00 en als je de volgende dag om 9:00 binnenkomt met je koffie in de hand is de test klaar. Daar heb ik persoonlijk heel veel ervaring mee en dat is fantastisch kan ik je vertellen!
Jammer Tweakers...weer een gemiste kans, hoewel ik sterk de indruk krijg dat er meer meespeelt achter de schermen.
Jammer, je betoog tot deze regel is redelijk en naar mijn mening terecht, maar zo'n ongefundeerde steek onder water is nergens voor nodig. Het is altijd erg makkelijk om te suggereren dat een bepaalde review zich heeft laten betalen om een product er beter uit te laten komen, maar als je suggestie is dat Intel hier onterecht wint, heb je het naar mijn mening mis. Ik heb als onbevooroordeelde lezer juist eerder de indruk dat AMD deze vergelijking heeft gewonnen. De Intel-chip verbruikt absurd veel power voor marginaal betere prestaties. Daarbij wordt aangekondigd dat de AMD-chip waarschijnlijk ook nog fors in prijs zal dalen (al bieden ervaringen uit het verleden geen garanties voor de toekomst).

Ik kan oprecht niet bedenken waarom iemand de Intel-chip zou kopen. In deze tijd van sustainability is het ronduit schofterig wat voor performance per watt ze neerzetten.

[Reactie gewijzigd door Grrrrrene op 22 juli 2024 17:32]

Kijk ik kom al heel lang op Tweakers en heb in meer dan 20 jaar tijd de manier van testen en reviewen enorm zien veranderen. En dat vaak niet ten goede.
Naar mijn idee moet je bepaalde stellingen enkel dumpen als ze of helemaal correct zijn en anders genuanceerd.

Dit staat letterlijk in hun conclusie: Ja, de Core i9 13900KS is de snelste gamingprocessor van dit moment

Deze conclusie is feitelijk onjuist! Het lijkt maar een kleine nuance, maar voor veel mensen met minder technisch verstand lijkt het dus nog steeds dat Intel op NR1 staat.

Alles na het woord MAAR is....
Je verwacht van een techsite dat het woord maar niet in deze context staat. Lees even de conclusie. Dat is waar ik mij aan stoor.

Schrijf gewoon dat ze beide vergelijkbaar zijn en het afhangt van welk spel je speelt.

Hardwareunboxed zegt ook gewoon dat de 1% die AMD sneller is gewoon een tie is. Hier staat het als FEIT in de conclusie.

Dat is de reden dat ik zo fel ben. Als je onpartijdig wilt zijn gebruik je dus niet deze zin en woorden!
Deze conclusie is feitelijk onjuist! Het lijkt maar een kleine nuance, maar voor veel mensen met minder technisch verstand lijkt het dus nog steeds dat Intel op NR1 staat.
Zoals ik al zei: ik ben het 100% met je eens dat de conclusie niet klopt, dat de testmethode zeker beter kan. Ik viel over de beschuldiging dat het niet onpartijdig was. Dat statement kun je niet hard maken en wordt door T.net in diezelfde conclusie onderuit gehaald:
De echte winnaar?
Zou je een van deze nieuwe processors moeten kopen? We vinden het sowieso lastig om de Core i9 13900KS aan te bevelen; het enorm hoge stroomverbruik en de meerprijs wegen niet op tegen de minieme prestatiewinst. Bovendien is de cpu in de praktijk amper te koelen.
ALS er al geld van Intel zou zijn betaald om 2,5% beter te scoren dan AMD in deze test, kan T.net met deze uitspraak fluiten naar hun geld :P Voor de duidelijkheid: ik geloof er niks van dat dat zou gebeuren, dat zou de doodsteek zijn voor iedere reviewer en zeker voor een techsite als T.net

T.net legt hier de vinger op de zere plek: zo'n i9-13900ks moet je niet willen: hij is bijna niet te koelen, omdat zijn stroomverbruik buiten proporties hoog is, de prestaties zijn nauwelijks beter dan de gewone 13900k, dus waarom zou je in hemelsnaam zoveel geld uitgeven?
Dat is de reden dat ik zo fel ben. Als je onpartijdig wilt zijn gebruik je dus niet deze zin en woorden!
Ik snap niet wat dit met onpartijdigheid te maken heeft. Leg mij eens uit wat hier onpartijdig aan is? Als de reviewer zo'n Intel-liefhebber was, of aandelen Intel zou hebben of komende zomer op kosten van Intel een snoepreisje mag maken, dan schrijf je toch niet zo'n betoog als ik hierboven quote? Ik vind het niet fair om te impliceren dat T.net hier een partijdig artikel heeft geschreven.

Waar je (maar nu val ik in de herhaling) wel gelijk in hebt, is dat het testen en interpreteren van tests wel wat wetenschappelijker mag. 2,5% verschil valt binnen de foutmarge die je altijd hebt. Test hetzelfde systeem 10x op exact dezelfde manier en je zult een kleine variatie aan prestaties merken door achtergrondprocessen, omgevingsomstandigheden, etc die de prestaties een klein beetje beïnvloeden. Hoeveel procent dat precies is, kan ik je niet vertellen, maar ik heb genoeg wetenschappelijke tests uitgevoerd om aan te voelen dat 2,5% "too close to call" is. En ik vind dat je dus gelijk hebt dat T.net daar beter in moet worden, maar met partijdigheid heeft dat he-le-maal niks te maken.
Ik zeg niet direct dat Intel geld geeft aan ze, maar wees er 100% zeker van dat alle partijen, Intel, AMD, Nvidia enz allemaal de reviews van elke site bekijken waar ze samples naartoe hebben gestuurd.

Hardware Unboxed een YouTube kanaal met bijna 1 miljoen volgers heeft bijvoorbeeld met een Embargo te maken gehad van Nvidia en kregen geen nieuwe videokaarten voor te reviewen.

En dat kwam doordat ze vonden destijds dat Ray-tracing niet zo een grote toevoeging was.
LTT(linus tech tips) GamersNexus en anderen zijn toen gelijk achter hardware unboxed gaan staan en zij hebben miljoenen volgers(zeker LTT) waardoor Nvidia is gezwicht.

Ze verwachten vaak en manipuleren sites om in een beter daglicht te komen staan. Intel heeft jarenlang bv destijds AMD laten weren bij grote retailers of ze moesten anders meer betalen(anderen kregen korting in AMD te weren) Zijn anti-trust zaken van geweest en Intel heeft dat verloren.

Voor Intel en de andere maakt de perceptie van NR1 dus heel veel uit. En je geeft zelf al aan dat binnen 2.5% het de marge van testen is.

Dan kan je niet poneren dat Intel met de I9-13900K de koning van gamen is wat ze wel deden. Dat is gewoon misleidend voor mensen die niet goed lezen of de materie niet goed begrijpen.

Ik kreeg als systeembouwer zo vaak van klanten te horen dat Intel zo goed was en AMD niet. Puur gebaseerd op aannames en reclame die ze horen en krijgen.

Tweakers is een site van en voor Tweakers. Daar verwachten we wat meer van. En dan past die uitspraak van de conclusie gewoon niet.

Ik begrijp heel goed de beweegredenen maar dan zal Tweakers daar maar anders mee om moeten gaan.
Grote bedrijven oefenen vaak onterecht veel druk uit. En ook AMD maakt zich daar schuldig aan hoor, want die zijn ook niet roomser dan de paus.

Maar ik ben blij dat ze toch de kritiek ten harte hebben genomen en een nieuwe review hebben gepost met extra toevoegingen die we graag zien!
Vind dat je gelijk hebt
Ik ben een positievo maar je slaat de nagel op de kop.

Meer games zoals Flightsim, Acetto Corsa, Forza etc punt.
Dat benchmarken van MSFS2020 dan wel DCS world mis ik idd altijd in dit soort reviews.
Nu denk ik tegelijkertijd ook dat dat lastig te doen is.
Op de fora zijn de huilbuien talrijk van mensen die een forse investering deden ( i9 13900, RTX4090, 64 GB) en alsnog tegen beroerde prestaties aanlopen.
Voordat je dit soort sims kunt draaien met alle settings op 'ultra' ( mens, durf te dromen) heb je vermoedelijk een i15/RTX9090/265GB nodig , alsmede een 8K scherm en een extra groep in de meterkast.
Voordeel: je kunt zo'n systeem met een beetje prutsen aansluiten op het watersysteem van de cv en zo heb je én waterkoeling én bespaar je op gas.
MSFS2020 is lastig te testen omdat er teveel variabelen zijn om een standaard testrun te maken. De spelwereld laad immers in via het internet. Een belangrijke reden waarom je dat spel niet vaak zien in CPU/GPU benchmarks.
Ik dacht dat er bepaalde Landing Challenges waren die de meeste van die variabelen standaardiseren. Zo test HWUB FS2020 met de Sydney Landing Challenge (hoewel ik me net bedenk dat zij waarschijnlijk Sydney gekozen hebben omdat ze Australische Tubers zijn).
Ik ben een positievo maar je slaat de nagel op de kop.

Meer games zoals Flightsim, Acetto Corsa, Forza etc punt.
100% mee eens, 5 games is écht te weinig. Er zit nu één GIGANTISCHE uitschieter bij voor Intel, Total War Warhammer 3. Als je die game zou vervangen voor Flight Simulator, waar de 3dx een ENORM verschil maakt is de conclusie ineens 180 graden omgedraait, dan is ineens AMD véél sneller.
Ik vraag mij af, er is daar nog geen duidelijkheid over: Of dat 13de Gen van Intel laatste is, dat op deze socket past? Bij AMD heb je met AM5, nog wat jaren langer plezier met de nog komende generaties.

[Edit] Beste @Tomas Hochstenbach dank u wel. Ik vind dat wel een punt om bij "Conclusie" neer te zetten. Zeker als men toch nieuwe hardware aan willen schaffen. Het is dan ook zeker, dat ze bij socket 1700, over dat EOL struikelen.

[Reactie gewijzigd door Midnight4u op 22 juli 2024 17:32]

De 13th Gen-processors zijn inderdaad de laatste generatie op socket 1700.
Wat betreft die "je kunt nog jaren upgraden" moet ik daar de kanttekening bij maken dat ik op de Discord geregeld vragen rond upgrades zie passeren van gebruikers met een Ryzen 2000 series CPU, die indertijd die architectuur gekozen hebben vanwege de mogelijkheid van upgrade pad, maar die dan toch ineens naar Zen 4 willen gaan vanwege dat upgrade path in plaats van pakweg de 5800X3D. We moeten ze er altijd eerst op wijzen dat het nogal vreemd is om direct naar Zen 4 te willen gaan omwille van dat upgrade path als ze die mogelijkheid niet eerst gebruiken bij hun bestaande hardware.
Wat denk jij dan dat er achter de schermen is gebeurd? En hardwareinfo dood? Qua aantal comments wel inderdaad.
Ik vind de test resoltaten hier in ieder geval een stuk beter dan bij Tom's hardware daar heb ik echt het gevoel dat intel favoriet is en leest ik niets over Bizar hoog stroomverbruik
Thermal throttling, zelfs met waterkoeling wel dat Intel het de (snelste is) stabiliteit is net zo belangrijk en als de temperatuur oploopt tot wel 100 graden ondanks de beste koeling zal dat aardig wat crashes en minder prestaties te weeg brengen (stroomkosten daargelaten). En hoe zit het met de duurzaamheid met deze bizarre temperaturen. 1 procent winst ten opzichte van 13900K (gemiddeld) vind ik echt niet de moeite waard om te overwegen het aan te schaffen.
Huh? De review van Tom's Hardware is juist een van de meer lovende voor de 7950x3d, ze spreken heel veel over de efficiëntie van de 7950x3dm dit is één alinea uit de review:
The Ryzen 9 7950X3D is incredibly power efficient, drawing far less power than either the standard 7950X or the competing Core i9-13900KS, thus delivering superb power efficiency that ranks among the best we’ve ever tested. That means you’ll ultimately benefit from a cooler, quieter system. The chips also drop into AM5 motherboards that support the latest connectivity tech, like PCIe 5.0 and DDR5, and AMD plans to support the platform until 2025+. In contrast, Intel’s current round of motherboards will only support one more generation of chips, so upgradeability remains an advantage for AMD.
Tja, een selectie van 5!!! games voor een gaming gefocuste review en processor blijft elke keer een beperking. Als er dan een game tussen zit zoals Warhammer III met een uitschieter naar een bepaalde fabrikant dan is het beeld geschetst. Een bredere selectie aan games zou deze gevoeligheid voor uitschieters op kunnen lossen en een completer beeld schetsen van de game prestaties van de processoren.
Eens, bij HUB is het verschil over 12 games bijvoorbeeld 9% met de 7950X non 3D, maar is het verschil tussen de 7950X3D en 13900KS ook nihiel (al is de 13900KS een onzinnige cpu, en zou ik, als je perse bij Intel wil winkelen eerder naar de 13700K kijken, en als het echt moet, maar eigenlijk liever niet, de 13900K).

Link naar HUB: https://youtu.be/DKt7fmQaGfQ?t=1087

Ook mogelijk leuke informatie is de door HUB gesimuleerde 7800X3D, die, zoals al verwacht, waarschijnlijk voor de pure gamer de meer interessantie optie gaat zijn als je de meerpijs voor V-Cache wil betalen. Ik heb nog niet de hele review kunnen kijken met geluid, maar in de grafieken ziet de gesimuleerde 7800X3D er niet verkeerd uit.

[Reactie gewijzigd door Dennism op 22 juli 2024 17:32]

Dat en ze hadden de CCD zonder V-Cache uit kunnen schakelen zoals HardwareUnboxed dat gedaan heeft zodat je alvast een idee kan krijgen van wat een 7800X3D gaat doen. Daar zag je dat ze in veel games behoorlijke prestatie winst hadden tov de 7950X en 7950X3D omdat de workload regelmatig verkeerd verdeelt wordt. (was te verwachten dat dat zou gebeuren :'()

Ik kan niet wachten op de 50+ Game benshmark van HWU maar die gaat hij pas doen zodra de 7800X3D daadwerkelijk uit is wat ik goed begrijp daar gaat veel tijd in zitten en dan wil je wel met een daadwerkelijke 7800X3D testen ipv een uitgeschakelde 7950X3D wat mogelijk een ietsjes ander resultaat kan geven.

[Reactie gewijzigd door Astennu op 22 juli 2024 17:32]

Zie ook de diepgaande (geschrven) test bij Techpowerup:
Zelfde prestaties als de 13900K bij 30% van het stroomverbruik wanneer 1 specifieke chiplet gebruikt wordt:
https://www.techpowerup.c...rformance-preview/23.html
https://www.techpowerup.c...rformance-preview/20.html
Aangezien er de laatste tijd vaak negatieve reacties zijn op de grotere artikels, en ondanks ik de commentaar van de +2 reacties volg en correcte opmerkingen vind. Wil ik toch even een positieve kant belichten.

Vroeger toen tweakers nog wat kleiner was vond ik de reviews heel goed. Tweakers heeft een groeispurt gekend en de grote artikels zijn daar imo onder gaan lijden. Reviews waren zo slecht dat ik er eigenlijk weinig aan had. Ik heb altijd het gevoel gehad dat er een leegloop van kennis heeft plaatsgevonden (of mijn kennis heeft een groeispurt genomen in een korte periode waardoor de artikels die ik eerst knap vond snel bagger ben gaan vinden).

De laatste jaren zijn de artikels en de reviews terug interessanter aan het worden. Het is nog niet wat ik er vroeger van vond toen ik tweakers leerde kennen. Maar er zit in mijn ogen een stijgende lijn in, in de kwaliteit van de artikels en de kennis van de mensen die er aan gewerkt hebben.

Dank voor dit artikel en doe zo voort.

[Reactie gewijzigd door BlaDeKke op 22 juli 2024 17:32]

Dankjewel voor je reactie BlaDeKke, en fijn dat je onze reviews waardeert. Ik werk zelf pas sinds 2020 voor Tweakers, dus kan over hoe het vroeger was niet veel zeggen, maar we focussen met het componententeam sterk op kwaliteit en het is goed om te horen dat dat wordt opgemerkt.
waarom testen jullie met zulk traag ram?
Zoals @Connor al schrijft houden we ons daarvoor altijd aan de specificatie die de fabrikant opgeeft. Net zoals dat we de processor niet overklokken bijvoorbeeld.

Nu valt er echt wel wat voor te zeggen om met een vaste / dezelfde snelheid te testen hoor, maar er zijn ook voldoende tegenargumenten te verzinnen. Bijvoorbeeld dat DDR5-6000 voor AMD nu op het randje van stabiliteit is, terwijl in de geheugencontroller van de meeste Intel-cpu's nog veel meer rek zit, en het dan dus juist eerlijker zou zijn om voor allebei de max op te zoeken. En rondom de overstap naar een nieuwe geheugengeneratie wordt deze 'regel' natuurlijk ook erg lastig te hanteren.

Altijd op spec draaien betekent voor ons in elk geval dat het altijd stabiel werkt. De ene keer heeft Intel daar iets voordeel van (omdat hun geheugenrating atm iets hoger is), de andere keer AMD, maar dat balanceert elkaar in de loop der tijd wel uit. En dan hebben de fabrikanten natuurlijk ook een kleine incentive om hogere officiële geheugensnelheden te gaan ondersteunen :)
AMD beveelt zelf 6000CL30 aan (dat soort modules leverde ze ook mee met de press kit's). En dit is ook wat veel gamers zullen gaan gebruiken de extra kosten vallen mee en de prestatie winst is aanzienlijk. 5200 is een serieuze bottleneck voor de 7000 CPU's. Test dan minimaal beide even. Kleine moeite en maakt het plaatje wel zo volledig.

En dan Intel met 6400 of zo te testen. Volgens mij leverde intel 7200 mee met de 13900KS.
Dat geheugen is wel heel duur. Dus als je dan 7200 zou testen is het handig om ook een beter betaalbare snelheid te testen zoals 5600/6000MHz.

Als je dan al niet te veel tests wilt draaien omdat het te veel tijd kost zou ik 6000 voor AMD en 6400 voor Intel pakken. Dat lijkt me geen oneerlijke vergelijking.

[Reactie gewijzigd door Astennu op 22 juli 2024 17:32]

Test dan minimaal beide even. Kleine moeite en maakt het plaatje wel zo volledig.
Ik ben bang dat je daar te simpel over denkt. Het testen van een processor neemt ruim een dag in beslag. Een extra geheugensnelheid testen had eigenlijk al niet gekund voor deze review; dan hadden we het embargomoment niet gehaald. Maar slechts één processor op een extra snelheid testen is gek, dat had om het eerlijk te houden voor deze review dan minstens ook op de 13900KS gemoeten en voor een grotere round-up (bv. de Processor Best Buy Guide) zelfs op iedere processor. En zoals je zelf al zegt, als er iets te zeggen valt voor testen op bv DDR5-6000, valt er ook wel iets te zeggen voor DDR5-7200, DDR5-5600, etc... Voor je het weet ben je de effectieve testtijd aan het verviervoudigen en kun je nog één cpu-review per jaar lezen op Tweakers ;)

Nu is veel tijd investeren in tests iets wat we aan de lopende band doen, maar daar moet natuurlijk ook wel een goede reden voor zijn. Uiteindelijk komt je voorstel neer op Intel met 400MT/s sneller geheugen testen dan AMD, en dat is exact wat we gedaan hebben met DDR5-5200 en -5600 :P. Het lijkt me voor de beoordeling van deze processors weinig zinnig om datzelfde nog eens te doen op een iets hogere kloksnelheid. Als we wat extra tijd hadden gehad (die er niet was) zijn er denk ik andere extra tests die ik liever had uitgevoerd.
Ik draai zelf heel veel tests. Misschien heb je mijn resultaten wel eens op het forum voorbij zien komen dus ik denk daar niet te simpel over. Ik doe dit niet eens voor mijn werk maar als hobby. Als ik kijk wat voor een tests GamersNexus, HardwareUnboxed en TechPowerUP draaien denk ik dat dat prima moet kunnen. Ik zou zelf die moeite graag nemen. Maar ik weet niet of jou werkgever je daar de ruimte voor geeft. En ik kan mij voorstellen dat je zelf andere zaken belangrijker vind om te testen en die tijd daar liever voor gebruikt. Iedereen heeft andere voorkeuren voor wat hij of zij belangrijker vind om te testen.

Ik snap je stelling over 5200 vs 5600. Maar waar het eigenlijk op neer komt is dat Gamers beter naar de review sites die ik hier boven noem kunnen kijken om een beeld te vormen of de CPU de prestaties gaat leveren die hij of zij zoekt. Door met lagere geheugen snelheden te testen wordt het gat met oudere CPU's zoals de 5600 kleiner in het voordeel van de AM4 CPU's. De 5800X3D zorgt er bij DDR4 systemen voor dat de geheugen snelheid niet meer zo relevant is als voorheen. En 3200CL14 en 3600CL16 zitten bij de niet X3D modellen relatief dicht bij elkaar. Waar Zen4 zijn benen pas echt kan strekken zodra het snel genoeg geheugen krijgt zie ook de review van HardwareUnboxed over DDR5 memory scaling.

Dus ik snap echt wel waar je vandaan komt maar door 5200MHz te pakken benadeel je het AM5 systeem wel meer tov het AM4 systeem. Ondanks dat blijft AM4 prijstechnisch interessanter maar nu lijkt het nog minder de moeite waard.

Edit:
Ik lees in andere posts dat je maar 1 dag had dan snap ik dat het wat lastiger wordt. Hopelijk wordt er op een later tijdstip nog wat dieper in gedoken.

[Reactie gewijzigd door Astennu op 22 juli 2024 17:32]

Hardware unboxed had hier geen enkel probleem mee. Ze hebben de 13900 KS met 7200 mhz getest!

Tevens hebben ze ook 1 CCD uitgeschakeld om het verschil te zien en een gesimuleerde 7800 X3D te maken.

5 games testen is gewoon geen test. Overigens komt bij HWU de 7950 X3D als nipte winnaar uit de bus. De de zin dat de Intel I9-13900KS nipt de snelste gaming CPU blijft klopt dus ook niet.

Jammer dat jullie bias zo sterk naar voren komt de laatste tijd. Het is niet de 1e keer dat ik dit hier al aangaf. Maar nogmaals jammer dat jullie slechts 5 games testen. Dat kan je toch niet serieus een test noemen voor gaming?
Ik heb het graag met je over technische keuzes, maar als je ervan uitgaat dat ik een voorkeur voor merk A of B heb, ben ik snel met je uitgepraat. Zeker als je denkt dat die richting Intel neigt, vraag ik me af of je de conclusie en/of de video überhaupt hebt gelezen/bekeken.
Een andere mogelijkheid als u het embargo tijdstip wil halen is een voorlopig artikel zoals deze neerzetten;

Om dan aan te geven dat op een bepaald later tijdstip het artikel aangepast zal worden. (Kan u ook zo opnieuw publiceren).

Alle begrip dat het allemaal veel tijd in beslag neemt. Weet niet hoeveel tijd voorzien is of hier aan mag besteed worden. De kritieken zijn uit gebruikersstandpunt wel gedeeltelijk terecht.
De beperkingen/kanttekeningen bij het eigen testen duidelijk vermelden en een latere update aankondigen zou ik persoonlijk best ok vinden.
Thomas, ik zeg niet dat jij persoonlijk een voorkeur voor een merk hebt. Ik heb vele AMD en Intel cpu's gehad en zal in de toekomst vast wel weer switchen tussen de 2.

Hardware unboxed is destijds zelfs een tijd geweerd door Nvidia, niet omdat ze echt negatief waren maar omdat men vond dat hardware unboxed niet de guideline van ze volgde en ze all in gingen op het ray-tracing.

Dat is een kanaal met toen een 700K subs op YouTube. Die werden al geweerd. Ik bedoel dus meer in die richting.

In je conclusie stond ook dus dat de I9-13900K de snelste gaming CPU blijft wat dus niet correct is.
Daar was ik wat verbolgen over. En ik ben er zeker van dat de grote fabrikanten druk uitoefenen, dus ook AMD.

Ze willen hun product natuurlijk zo goed mogelijk belicht zien en de zwakke punten wat minder sterk geponeerd.

Maar goed, ik ben blij dat jullie vandaag een leuke review hebben gedaan van de 7900X3D met een te verwachten 7800X3D!

En ook nog wat sneller geheugen meegenomen en we zitten opeens naar een ander verhaal te kijken.
Ik mis soms het echte tweakers gehalte. Jullie naam wordt niet altijd eer aangedaan.

En ik geloof zeker dat het niet jullie bedoeling is om cijfers te beïnvloeden. Maar dat gebeurt is sommige gevallen wel als je het anders schrijft.

Je kan bv niet een winnaar aanwijzen van 1 cpu voor gaming als de waarden zo dicht bij elkaar liggen. Dan is het fijner te lezen dat ze gelijkwaardig zijn en de voorkeur van je spellen mogelijk bepalen welke processor beter bij je past.

Soms had ik het gevoel een review te lezen en dat deze geschreven was om niet sommige fabrikanten teveel in diskrediet te brengen terwijl dat soms wel van toepassing zou moeten zijn. Wel uiteraard op basis van feiten.

Maar wel tof dat je dus een CCD hebt uitgezet en daarmee soms enorme resultaten kan verkrijgen.
KitGuru tech heeft ook een videotest gedaan waarin AMD vele malen sterker dan de 13900K uitkwam.
Hij gaf ook gelijk aan dat het goed mogelijk is dat de meeste spellen waarmee hij test meer AMD optimised zijn en dit niet het gehele plaatje is. Zo hoor en zie ik het graag!

Overigens mogen jullie van mij ook met 1440 en zelfs 4K testen omdat de 4090 bij sommige spellen al zelfs op 4K een CPU bottleneck kan zijn.

1440 waren er talloze spellen waar AMD een wat grotere voorsprong nam en voor mensen die zoveel geld uitgeven zal dat ook een meer voorkomend scenario zijn.

Ik zit al 20 jaar wellicht nog iets langer op deze site en waardeer het nog altijd. Vandaar ik soms wat teleurgesteld kan zijn als de verwachtingen niet uitkomen.
Uiteindelijk komt je voorstel neer op Intel met 400MT/s sneller geheugen testen dan AMD, en dat is exact wat we gedaan hebben met DDR5-5200 en -5600 :P. Het lijkt me voor de beoordeling van deze processors weinig zinnig om datzelfde nog eens te doen op een iets hogere kloksnelheid. Als we wat extra tijd hadden gehad (die er niet was) zijn er denk ik andere extra tests die ik liever had uitgevoerd.
Daar ben ik het niet mee eens. AMD levert zoals Astennu kits met 6000, dus om dan voor 5600 te gaan lijkt mij dat een rare keuze. De 7200 keuze zou alleen voor Intel zijn hoop ik :p, op AMD lopen anders bepaalde clocks niet synchroom (Infinity Fabric, geheugen en de geheugen controller) wat een negatieve impact heeft op performance.
Je moet ook kijken naar je doelgroep die deze reviews lezen; dat zijn Tweakers, niet standaard consumenten. De Tweaker die een kit koopt met hoge timings of een lage geheugen snelheid zal de uitzondering zijn. Mochten die Tweakers ook dingen aanraden dan zullen ze of op de timings letten of een specifieke review zoeken waar meer geheugen snelheden worden getest zoals die van Hardware Unboxed laatst.

Door alles op lagere snelheden en timings te draaien is er een best groot voordeel voor cpu's met een grote cache. De highend van Intel en de 7950x 3d dus.
Namelijk zijn het niet de extra cores bij bijv. de 13900k die voor de extra performance zorgen maar de extra cache. Zie ook de volgende review van Hardware Unboxed die hier dieper op ingaat.
https://www.youtube.com/watch?v=RQ6k-cQ94Rc

Met de aanname dat je de rest van de week de andere cpu's al hebt getest; Is een hele dag niet genoeg om de extra tests te draaien van een cpu?
Edit: lees in je andere post dat je hem vanochtend pas hebt ontvangen, dat is inderdaad kort dag. Hebben andere reviewers hem in verhouding "eerder" gekregen doordat ze in een andere tijdzone zitten?

[Reactie gewijzigd door Sp3ci3s8472 op 22 juli 2024 17:32]

Het begint al bij psychologie en inschatting. 4800 Mhz beschouw ik as trash. Ja het gaat werken, maar iedereen die serieus is skip tit. Het minimum van minimum, vaak slechte latencies, en er bestaat letterlijk géén slechter DDR5 (bv DDR4 2333-2666 mhz zijn nu al geen ding meer, 3200 mhz is zowat het minimum 3600 mhz optimaal 4000 mhz 'high-end).

5200 mhz zit daar maar net boven. Bovendien word deze ook vaak met slechte latency geleverd.

5600 Mhz zou goed compromis zijn. Dit voelt als de 3200 Mhz van DDR4: Dit zal binnen afdoende tijd de minimum/instap worden, zit dicht genoeg bij 6000 mhz om geen grote bottleneck te betekenen. Prijs kwaliteit begint hier ook serieus te verbeteren. Vaak voor zelfde prijs als 4800 mhz met betere latency, heb je toch dit al (en nog goedkoper dan 6000 mhz). Hier is ook veruit meeste keus in latencies nu (al komt 6000 mhz - deels doordat mensen het als sweet spot zien - snel opzetten.

6000 Mhz - Het no nonsense geheugen dat alvast geheugen als bottleneck uitsluit. Kan lichtjes te snel zijn voor de standaard consument omdat het nog prijzig is, al komen ook deze serieus goedkoper. Dit lijkt ook de geheugen Mhz ze zijn waar fabrikanten het hardste aan de latency sleutelen, dus veel keuze.

6400 mhz -7000mhz High -end, dit uitsluitend, houd steek, is zoals 4000 mhz DDR4. Ten eerste niet helemaal supported, héél duur, verbruikt vaak veel, niet goed leverbaar, consument zal dit standaard zelden gebruiken dus neit representatief. Geen zekerheid dat deze snelheden standaard worden, DDR5 word warmer als ddr4 lijkt me, dus denk niet dat er crazy veel rek op dit.

Kortom mijn gevoel zegt duidelijk dat 5600-6000 mhz het eerlijkste is (zoals bv 3600 (of 3200 mhz) voor DDR4.
5200 is een serieuze bottleneck voor de 7000 CPU's
Ook voor de 7000X3D's? Meer cache betekent minder memory access.

Geen idee of die vermindering significant is op de totale bandbreedte. Maar het is zeker een interessante vraag of de 3D-varianten minder afhankelijk van geheugenbandbreedte zijn dan de niet-3D-varianten. Zo ja, dan compenseert het goedkopere geheugen wel voor de meerprijs van de cache.

[Reactie gewijzigd door bwerg op 22 juli 2024 17:32]

Is nu nog niet bekend. Bij de 5800X3D maakte dat veel minder uit. HardwareUnboxed komt binnenkort met een scaling test dus dan wordt er wellicht wat meer duidelijk.
Tomas, heb je de laatste Ryzen chipset drivers gebruikt voor je benchmarks? Stond volgens mij niet in de test verantwoording.
Schijnt tot 30% meer performance te kunnen opleveren.
Uiteraard hebben we de nieuwste drivers voorafgaand aan de release van AMD gekregen en gebruikt.
Misschien een idee om chipset driver versie toe te voegen aan de test verantwoording?
Sure, done.
Top dank je. Hiermee voorkom je denk ik vragen van mensen die bijvoorbeeld de video Gamer Nexus gezien hebben waar in specifiek benoemd wordt dat je de laatste chipset drivers moet installeren om alle performance te krijgen.
Staat in de test verantwoording. Ze houden de max. spec aan van AMD. In dit geval 5200 voor AM5.

Ik had liever ook een test met DDR5-6000 cl30 gezien. Misschien dat er nog een overclock artikel komt met die resultaten.
Het verbaasd mij dat de Ryzen 5900x in veel games nog goed presteert, gezien de prijs daarvan is gedaald naar slechts 300 euro. Dat is erg weinig vergeleken met de introductieprijs van de 7950x3d. Het probleem van de dure AM5 is voorlopig nog niet opgelost.
Tja het is überhaupt zoeken naar een reden als je een medium tot high end cpu hebt van de laatste generatie (s). Alles boven 12700k en 5700x ga je echt zo goed als alles met 90-120 fps kunnen spelen als je gpu dat ook kan en veel competitieve games op minimaal 200 fps.
De mensen die echt baat hebben bij nog meer fps zijn op een paar handen te tellen.

Veel upgrades op Tweakers zijn eerder voor de nerd factor. Daar ben ik ook vaak zat schuldig aan geweest.
Het blijft leuk speelgoed allemaal. Ik zou er wel een AMD rig naast willen voor de lols en om het te proberen maar kan momenteel niet eens een cpu upgrade rechtvaardigen laat staan 2.

[Reactie gewijzigd door computerjunky op 22 juli 2024 17:32]

inderdaad. Eerlijk is eerlijk, er zijn ECHT wel games die significant baat hebben bij de X3D ships, maar dan ligt een 5800X3D meer voor de hand qua prijs van cpu mobo en goedkoop DDR4 samen.
Dat is ook waarom ik mijn 5900X heb vervangen voor een 5800X3D. Op mijn RTX 4090 grote vooruitgang ten opzichte van de 5900X zeker op de minFPS. En vooral in games zoals Assetto Corsa Competizione (on screen en in VR) groot verschil. En SimRacing is wat ik het meeste doe met mijn PC. Ik ben blij hoe de 5800X3D zich weehoud t.o.v. de nieuwe X3D processoren. Mijn resultaten liggen ook nog eens hoger dan die van Tweakers hier (3600 CL16 met optimized timings RAM en PBO2 CO -30). De optimized curve doet heel veel voor deze CPU.

Ik kan nu met een gerust hard nog een jaar op AM4 zitten en ga dan wanneer prijzen goed zijn ingedaald van AM5 en DDR5 pas upgraden.
Bekijk de test van Techpowerup eens waarbij ze een veel diepgaandere test van de chip gegeven hebben.. Vooral het uitschakelen van 1 specifieke CCD levert zeer interessante test resultaten op, wat er veelbelovend uitziet voor de (toekomstige) 7800X3D.
Als je vooral geinteresseerd bent in gamen, kun je het niveau halen van de 13900K CPU halen bij 30% van het stroomverbruik (44W vs 143W)

https://www.techpowerup.c...rformance-preview/23.html
https://www.techpowerup.c...rformance-preview/20.html

In Linux gaming ( https://www.phoronix.com/review/amd-ryzen9-7950x3d-linux/6 ) (alles ingeschakeld) is die sneller dan de 13900K over een tiental games met isnstellingen tussen 2K 1440P en 4K
Upgradebaarheid verliezen bij ryzen 5000 serie vind ik wel erg. Ik zou eerste 3000 serie kopen, en bam ik kon gewoon nog naar 5800 x3d upgraden. Door uitstelgedrag, en andere redenen kon ik niet om AM4 instappen.

Ja het is spotgoedkoop maar PCI-express 4.0 (ja is nog lang goed,maar ooit is 5 er op door te breken), geen ddr5, of usb 4.0

En als ik nu bv goedkoop begin (7600x) of 7800X3D (vergeleken met 7950X3D) dan kan ik later nog Ryzen 9950X3D kopen als die naar 600€ zakt bv binnen 4-5 jaar. Onmogelijk met ryzen 5000. Als je 5000 koopt moet je plakken bij AM4 en liefst AM5 skippen want bv ryzen 9950x3d op AM5 zal waarschijnlijk laatste cpu zijn, dat wil zeggen dat je alsnog duur moederbord moet kopen (het lijkt er sterk op dat AM5 mobo's niet meer in prijs dalen), of zelfs nog duurder AM6 bord.

Bovendien is bij high -end moederborden prijsverschil kleiner, bv Aorus master x570 versus x670E is van 425€ naar 500€, instap borden zijn 100-170€ duurder.
Wat je ook van de prijs mag vinden, het is geweldig dat er weer zo'n sterke technologische concurrentie is op de CPU markt! Heel mooi hoe AMD z'n cache zo weet te stakken om Intel te snel af te zijn. Ben benieuwd waar de volgende innovatie gaat liggen in de slag om de consument.
Concurrentie is altijd goed! Helaas lijkt 2 partijen niet genoeg om de enorme prijzen tegen te gaan.
8 jaar geleden kostte een top end cpu de helft van wat ze nu kosten. En inkomens zijn niet verdubbeld helaas. Dus ondanks concurrentie blijft de prijs stijgen. Gelukkig zijn de producten wel flink sneller geworden maar het blijft duur.

[Reactie gewijzigd door computerjunky op 22 juli 2024 17:32]

8 haar geleden kostte een top end cpu de helft van wat ze nu kosten.
Weet je dat zeker?

https://tweakers.net/pric...-core-i7-6950x-boxed.html
https://tweakers.net/pric...l-core-i7-5960x-tray.html
Beide processoren rond de 1000 euro

Wat je beschrijft is dat de CPUs voor het mainstream socket duurder geworden zijn, maar dat is nogal vertekenend als je bedenkt dat het HEDT-platform met de echt dure CPUs is weggevallen. Er was geen reden meer om dat te splitsen; die zie je nu dus ook terug bij de 'mainstream socket'.

Overigens zegt de prijs van het topsegement weinig over de kwaliteit van de concurrentie op het normale segment. Vergelijking met auto's: de dure hypercar (bv de Bugatti Veyron) heeft ook niet per se de sportauto slechter af gemaakt. Ander segment; andere regels.

Overigens was de vlotste Intel Pentrium III cpu ook zo'n 1800-2000 gulden. En dan laat ik de inflatie nog achterwege :+

[Reactie gewijzigd door A Lurker op 22 juli 2024 17:32]

Ja HEDT heb ik idd niet meegenomen. Ik vind dat meer entry level workstation chips ala xeon en threadripper maar dan voor mensen die wel de ram nodig hebben maar niet een absurde cpu.

Voor thuisgebruik was de prijs toch eerder <400.
Ik vind dat toch wel een bijzondere redenatie. De segmentatie van sockets gebruik je om een scheiding aan te brengen voor thuis / workstation+server; terwijl dat niet overeenkomt met de praktijk.

Het bos der Xeons is onoverzichtelijk door hun naamgeving maar de HEDT processoren stonden naast de Xeons binnen dezelfde sockets als lostaande serie, zeker niet eronder. Dus ook die absurde cpus zoals je het noemt kwamen juist ook uit voor het HEDT-platform als Core-processoren.

Als voorbeeld de 6000-reeks van processoren. De snelste binnen de mainstream socket LGA1151 is de 6700k en deze had 4C/8T. Wilde je sneller dan kon dat zeker want je had de 6800K op het HEDT-socket (LGA2011) met 6C/12T of zelfs de i7-6950X die ik al noemde met 10C/20T. Ik hoef je niet uit te leggen hoeveel sneller die laatste is in multithreaded toepassingen. Daarmee was het HEDT platform dus boven het mainstream segment (bv dus de LGA1151) gepositioneerd.

Voor thuisgebruik; het hele HEDT platform was daar voor bedoeld; de D staat immers voor desktop. Ja je kreeg ook meer features op gebied van RAM (zoals quad channel) waarbij er inderdaad overlap was met wat je bij een workstation of server kon verwachten. Maar het hele idee was echt wel dat je voor thuisgebruik op deze manier gewoon een heel dik systeem kon kopen wat de mainstream CPUs verpletterde in multithreaded benchmarks. De 6000-serie was dan ook wel een enorme teleurstelling voor de mainstream, 4 cores voor het topmodel was gewoon niet voldoende meer. Pas bij de 8000-serie hebben ze de stap gemaakt naar meer cores op de 'mainstream socket'. Ze moesten wel, AMD heigde in hun nek.

Verder is het nu zo dat je gewoon voor 240 euro een https://tweakers.net/pric...-core-i5-13400-boxed.html koopt welke 10C/16T heeft. Ik herinner me dat ik een i5 3570k kocht ooit voor 10 of 20 euro minder. Of je koopt een 13600k. Allebei prima opties voor thuisgebruik beneden de 400 euro. We zijn simpelweg een beetje verwend geworden als 10 of zelfs 14 cores niet meer voldoende is voor een betaalbare CPU...

Wellicht is er meer sprake van naam-inflatie dan iets anders. Intel wil natuurlijk dat als je ooit een i7 kocht, je dat daarna weer doet. Ze maken die steeds duurder en voegen aan de onderkant van de markt steeds meer dingen doe (Celerons en Pentiums hebben hun herintrede gedaan op die manier). Maar een i5 13400 is allesbehalve een sloom ding, en misschien juist wel te vergelijken met de mainstream socket i7s van vroeger.

[Reactie gewijzigd door A Lurker op 22 juli 2024 17:32]

HEDT is nog steeds niet revived wat mij betreft en volgens mij hoeft dat ook niet. De nieuwe generatie Xeons die zijn aangekondigt is geen HEDT platform, maar een workstation platform. Nu is dat onderscheid voor de xeon 2XXX series wat arbitrair, maar dat was het vroeger ook al. Degenen die het willen kunnen het gewoon kopen. Dat kan nu ook al (W33XX series).
Dat klopt. Het gaat hier (in dit subthreadje) over HEDT omdat we prijzen aan het vergelijken zijn van de topend CPUs van nu en 8 jaar geleden.

Dus puur ter illustratie pak ik er de topend er bij van 8 jaar geleden, en dat was toen dus de LGA2011, een socket voor HEDT en workstation. Ik ben deze socket niet aan het verheerlijken, sterker nog, zoals het nu is, is het beter.

Maar we kunnen het net zo goed hebben over de PIII 800MHz, de Pentium 4 Extreme Editions, de Core i7 965X als we het over dure processors hebben. Amd heeft er natuurlijk ook. Topend processors van 800 tot flink boven de 1000 euro, das van alle tijden.

[Reactie gewijzigd door A Lurker op 22 juli 2024 17:32]

Heel wat workstations van merken als HP en Dell in m'n handen gehad in die tijd. Daar zaten altijd Xeon's in of soms Opteron's.
Wellicht waren ze wel te krijgen, maar heb het gevoel dat 'HEDT' toch vooral voor de kleinschalige 'zelfbouw' zakelijke markt en thuis was.
Mainstream platform is nu veel breder en HEDT is nu écht HE.
Dat is niet waar, 15 jaar geleden hadden we al CPU's van €1000, niet op HEDT overigens;

Intel Pentium EE;
nieuws: Eerste reviews van de 65nm Pentium Extreme Edition
AMD (Athlon 64) FX;
nieuws: Athlon 64 FX-60: Tweebenige spits op 939-schoeisel

Dit zijn niet net twee toevalstreffers, er was een jarenlange vete tussen beide partijen met Pentium EE vs FX serie welke standaard voor €1000 werden geïntroduceerd.

Brengt me wel terug naar de Opteron tijden op socket 939, dat was een leuke tijd.
200 duurder dan de 7950 niet 3D (maat dat is de introductie prijs) maar 50W minder verbruik in games en verbeterde performance. Als je redelijk veel gamed dan verdien je 'm in 5 jaar terug op de stroomrekening ;-)
Mja, als je nu de top-processor koopt zal het ding wel bij een ander die stroomrekening voor z'n rekening nemen, vermoed ik. Alhoewel er ook wel mensen zullen zijn die extra investeren om het langer mee te laten gaan. Meestal koop ik wat onder het topsegment en spaar ik daarmee voor de volgende CPU. Meestal duurt dat dan alsnog 7 jaar overigens :)
Zelfs met waterkoeling over de 100! Absurd.. echt ridicuul. Ik kan niet wachten tot er een cpu structuur is die sneller of vergelijkbaar is voor Intel maar niet zon heethoofd. Met deze gaming cpu gamen betekent waarschijnlijk dat je of met een headset moet spelen of het geluid van je speakers heel hard.

Interessante review verder!

Ik blijf nog even bij mijn 10700k maak mij maar wakker als er een cpu komt die snel is en niet zo belachelijk heet wordt.
AMD in ECO modus, paar procentjes snelheid verlies, maar een flink verschil in verbruik, op een verbruik dat al de helft in van Intel. Ik ben bang dat je op de verkeerde fabrikant aan het wachten bent.
Dat denk ik ook. AMD is over op TSMC 5nm en dat is simpelweg efficiënter dan Intel 7. Intel wil koste wat kost bovenaan de grafiekjes staan, dat is het enige bestaansrecht voor CPU's als deze KS.

Intel maakt pas weer kans om bovenaan te staan zonder torenhoog verbruik als ze op Intel 4 over zijn, en dat gaat nog wel even duren. Althans in single-core prestaties, de e-cores maken in multi-core nog wel een kans.
Meeste laptops en computers van de afgelopen tientallen jaren waren Intel. Maar ik heb niks tegen AMD ik heb een jaar geleden al een "werklaptop"van AMD gekocht, ben ik tevreden over. En als Intel zo doorgaat als dit dan zal mijn volgende CPU ééntje van AMD worden. Ik krijg namelijk echt de kriebels van de hitte die er van de Intel cpu's komt. En dit hebben we natuurlijk al langer. De 9900KS had ook al een reputatie.
Onder de streep is dus de conclusie. Je kan als gamer beter geld besparen op je bord en cpu en de 13700k kopen. Gemiddeld toch de beste processor waar de rest soms wel sneller is maar of tegen fors hoger gebruik of fors hogere prijs voor de cpu en moederbord.
Het scheelt ruim 200 euro. Dat geld kan je beter in een snellere gpu stoppen.

Tenzij je het type ben die iedere generatie upgrade maar dan is prijs überhaupt niet echt een factor voor je besluitvorming. Dat is nooit financieel de slimste keuze.

Ben toch wel benieuwd of Intel die nu ook bezig is met chiplets een cache versie gaat maken komende generaties. Ben benieuwd if het voor hun architectuur ook veel zou helpen. Je ziet dat bij Ryzen 7000 het verschil minder groot is als dat het bij 5000 was.

[Reactie gewijzigd door computerjunky op 22 juli 2024 17:32]

Als gamer pak je gewoon een 13600 of een 5800X3D, en steek je de rest in een GPU.
13600 zou ik persoonlijk niet doen. De kans dat je daar eerder tegen een core limiet gaat aan lopen is reëel om het nog maar niet over andere architecturale limieten te hebben. Zo is mijn huidige cpu vaak een bottleneck ondanks dat de cpu load met core nog geen 65% is. De cache of ram controller of wat dan ook is de echte bottleneck. Een iets hoger segment is daardoor net iets meer futureproof. Voor zover futureproof nog een factor zou moeten zijn met de huidige vooruitgang.
Het probleem van weinig kernen is niet zozeer dat er geen vrije processortijd over is, doch meer dat contextwisselingen zeer inefficiënt zijn. Als een programma 8 threads lanceert die allen tegelijk rekenkracht vragen, dan kan een processor met 8 kernen die ongestoord uitvoeren. Op een processor met minder kernen moet een processor de 8 threads om de beurt laten rekenen op een kern, ofwel er is continu een wisseling van context. Bij een contextwissel wordt bijvoorbeeld de gehele cache van de processor geleegd (uit veiligheidsoverwegingen) en dat maakt de boel erg inefficiënt.

Als een processor zich aan de lagere hoeveelheid kernen kan aanpassen, dan is er niet zoveel aan de hand. Dus op een processor met 6 kernen bijvoorbeeld maar 6 threads starten. Omdat spelcomputers processoren met 8 kernen hebben, is momenteel de trend evenwel dat spellen ontworpen worden voor processoren met 8 kernen. Het programmeren van een modus met minder threads voor PC-gebruikers met een oudere processor kan er onder tijdsdruk bij in schieten en dan krijg je inderdaad dat een spel tegen een kernenlimiet oploopt.
De cache wordt niet geleegd bij een context switch, dat zou dodelijk zijn voor de performance. Wel wordt de page directory opnieuw ingeladen, waardoor alle TLBs geflusht worden.
Ach, future proof moet je nooit willen. Het verschil tussen een 13600K en 13900KS is iets van 30 fps als je al over 200 fps zit.

Over een paar jaar is dat verschil teruggelopen tot misschien 10 frames. En dan ben je veel beter af met een nieuwe midrange CPU, ipv één jaartje langer kunnen rekken met de high end.
Tja het blijft lastig balanceren. Ik ben in 2019 voor de 9900k gegaan dat was duurder maar achteraf de juiste keuze. De 9600k en 9700k waren eigenlijk het volgende jaar al afgeschreven voor een high end gpu. Mijn 990pk is een bottleneck voor mijn 6900xt maar de fps zijn nog genoeg.
Ik uograde dan ook vaak. Gpu dan cpu dan gpu enz. Eigenlijk nooit beide tegelijk. En dan is een beetje overkil cpu eigen wel aan te bevelen en onder de streep goedkoper.
Nadat ik deze kerst een 5800X3D had gekocht schrok ik toch wel even toen ik de eerste hype verhalen over de Ryzen 7000 series 3d CPU's hoorde, maar eerlijk gezegd valt het wel weer wat tegen. Maar dat is de trend al wel langer in de desktopmarkt geldt (Intel werd er voor afgebrand, maar AMD omdat ze eerst een achterstand hadden veel minder) : relatief een klein beetje meer performance voor behoorlijk meer geld.
Het is dan ook geen wonder dat de pure x86 desktopmarkt krimpt en dat ook Apple een grotere concurrent wordt?
Die 200 euro die je bespaart gaat je geen GPU upgrade geven. Laat ik mijn 7900 XT nemen, wil ik ipv die liever een 7900 XTX of GTX 4080 dan kost dat al 250-300 euro meer. Dus die besparing kun je echt niet voor je GPU gebruiken. Mogelijk wel voor andere doelen.
GPU's zijn gewoon het duurste onderdeel van een pc tegenwoordig.
Het gros shopt toch echt in de lagere segmenten end aar kan je wel een significante upgrade krijgen voor 200 euro.
Al zou ik persoonlijk die 200 euro gewoon op de bank zetten, je hoeft het niet perse uit te geven ;)
Tja, voor diegenen die shoppen in het lagere segment is de 7900x3D en 7950x3D zowiezo niet interessant, dan zou ik al een lagere CPU aanbevelen, mogelijk zelfs lager dan de 13600K of dergelijks.
Daarom dat ik met de 7900XT die ik heb vergelijk, want de meeste mensen zouden al zeggen dat dat niet sterk genoeg is om echt gebruik te kunnen maken van deze CPU's
Toch ben ik van plan om zo'n 3D chip aan te schaffen omdat de spellen die ik speel allemaal simulatie games zijn, en laat dat nou net het type spel zijn die wel veel voordeel haalt uit on-die cache.
jij die een 13700 aangeeft als beste cpu, waarom ben ik niet verbaasd....
Ben je zeker dat je het hier echt niet wil hebben over je aanbevelingen van de 10400-11400-12400-13400??? als het maar een Intel cpu is.
Wel leuk dat je aangeeft van een 2de rig met een AMD CPU, wil je jezelf hier weer bewijzen. :+ :+ :+

Als AMD enkel de 7800 X3D brengt dan is het niet goed genoeg voor de high end, want dan moet je kiezen tussen cache en cores, dus deze reeks brengt AMD een 8 - 12- 16 core met een cache uitvoering, zodat er een oplossing is voor beide... wat gaat de intel fan dan weer doen? ah laten we de 16core vergelijken met de 13700 }:O. Al eens gekeken naar het dagelijkse verbruik en de prestaties vegeleken? Wat ga je binnenkort dan zeggen van de 7800? vergeljiken met de 13400? :Y) omdat die dan zogezegd altijd goedkoper zijn? Hier een preview van wat deze geeft in gameprestaties, dan zie je weeral dat Tweakers heel karig testen doet en niet veel meegeeft omtrent de mogeljikheden van de cache: https://www.techpowerup.c...0x3d-performance-preview/
Trouwens de 600 chipset is EOL, gedaan met de goedkopere prijzen als ze niet meer in stock zijn, De 700 chipset heeft eenzelfde verhoogde prijs als de AMD borden.
Volgende Intel CPU is WEERAL een nieuw mobo EN enkel DDR5, we zullen zien waar al je fanboy verhalen dan weer heen gaan....

[Reactie gewijzigd door d3x op 22 juli 2024 17:32]

Heb je hem ook weer hoor. Je bent net een beroeps stalker. Ga wat nuttigs doen met je leven.

Als je de review bekeken hebt zie je dat het gewoon qua prijs prestatie voor gamers de beste keuze is. Is het de absolute beste cpu? Nee. Maar die kost dan ook flink meer.

En wat doet het er toe of een chipset eol is. Stopt ie dan ineens met werken?

Echt ik word doodmoe van je.
hoe zou dat komen? misschien omdat je in elke AMD thread de laatste 3-4j steeds rond gaat blaten dat er voor elke AMD aankoop een beter alternatief is van Intel.

kijk even naar CPU sales de laatste jaren, het geeft al een heel tijdje een ander beeld.

een hint voor Januari?
https://twitter.com/TechE...22015445027913729/photo/2

amper intel verkoop en nog steeds merendeel 5000 serie }:O , ja de Intel verkoopt beter dan de 7000 serie (marginaal verschil) maar iedereen weet dat de meeste wachten op de X3D versie om te beslissen en dan is Intel nog sterk in het voordeel met de DDR4 optie.

Ik heb trouwens een link toegevoegd naar een degeljike review (misschien eens iets anders lezend an tweakers website) waar ze de testen al gedaan hebben met cache settings en CCD disable. Misschien leer je nog iets. Ja de 13700 is een goede keuze als je Intel RIG wil, maar er zijn keuzes en alternatieven en niet 100% intel only.

[Reactie gewijzigd door d3x op 22 juli 2024 17:32]

Ik verwachtte eigenlijk dat de 7900 X3D ook getest zou zijn. Die komt toch ook morgen al uit? Ik ben erg benieuwd naar die CPU t.o.v. de 7950 X3D. Zal niet enorm veel schelen waarschijnlijk.
We hebben 'm vanochtend binnengekregen en doen ons uiterste best om de resultaten zsm te publiceren :)
Graag testen op spellen die van 8 cores houden, sommigen zeggen bv dat Cyberpunk van 8 cores houd (bij 6 cores zouden prestaties duidelijk minder zijn).

Hierdoor zou je de communicatie tussen 2 6 core chiplets zien of het goed werkt of niet.
Ik denk zelf ook dat dat de betere keuze zal zijn als hij de zelfde CCD's krijgt als de originele. Dat zou betekenen dat de 3d cache op de 8 core CCD staat en de 4 andere cores zonder 3d cache apart werken (bv alleen voor productiviteit ipv gaming), waardoor je minder gezeik krijgt van games of scenario's waar de verkeerde CCD actief blijft.
Wanneer je de 13900KS combineert met RAM die het kan hebben zoals DDR5-7800 dan zie je dat Intel wel weer wat sneller gaat. Ryzen werkt het best met DDR5-6000 maar Intel met sneller. De 13900KS is echt wel the go to. Vooral wanneer je die combineert met een 420mm waterkoeling radiator zoals de H170i.

Beide merken hebben veel warmte dus alleen op Intel gaan plakken is te kort door de bocht.

Ik heb ook mijn 13900KS op 6.2 Ghz zonder enige moeite gekregen met de E cores op 4.6 Ghz. Het is echt een monster wanneer het moet zijn en best wel zuinig wanneer het lichte taken doet.

[Reactie gewijzigd door Wyvern_GPV op 22 juli 2024 17:32]

Warmte is wat anders dan verbruik....
Waar zit het verschil in deze situatie? Als een processor een bepaald vermogen opneemt, dan geeft die dat door in de vorm van elektrische pulsjes en warmte. Is het verbruik hier dan niet 99.999% gekoppelt aan de warmteproductie?
De AMD is warm omdat hij z'n warmte niet goed kwijt kan, ondanks dat deze slechts de helft aan warmte produceert als de Intel.

Als de Intel z'n warmte net zo slecht kwijt zou kunnen als de AMD was iedere chip een black edition :P
Naar mijn weten heeft AMD aangegeven dat de CPU's afgesteld staan om gewoon tot de max. te gaan tot temperatuur X bereikt is. Dat ligt tegen de 100 graden schijnt dus 'by design' te zijn en ook op de lange termijn geen probleem.

Vereist dus een andere manier van denken.

@Herr_Boogie Intel word zo warm puur omdat het geproduceerde vermogen zó hoog is dat de koeler het niet efficient meer kan afvoeren.

Of dat erg is laat ik in het midden maar vind het wel enorm grappig om te lezen dat dit bij intel allemaal niet zo spannend is maar als AMD dit vroegâh deed dan was het allemaal prut-spul :+
Bedankt voor de verduidelijking. Het moet dus zijn: "Een hoge temperatuur is wat anders dan een hoog verbruik" ;)
Is het verbruik hier dan niet 99.999% gekoppelt aan de warmteproductie?
Nee, 100%. :p

Verbruik is simpelweg gelijk aan de warmteproductie.
Waarschuwing: ondanks de EU wetgeving kan je het artikel allen lezen als je tracking cookies toestaat.
Realiteit is echter dat bleeding edge ram niet altijd stabiel is. Zo waren er voor ik mijn 9900k kocht samples te zien waar een 9900k op ddr4 4266 cl 18 liep maar mijn zelfde ddr4 4266 moet toch echt op 4000 draaien en heeft 1.45v nodig ipv 1.4 om stabiel te zijn.

Mijn cpu sample is dus niet zo goed. Dat een enkele cpu dus sneller kan is irrelevant omdat het gros trager zal zijn.

Edit: typo

[Reactie gewijzigd door computerjunky op 22 juli 2024 17:32]

400 euro voor setje ram 7800 dan heb 32 Gb.
Dan betaal ik liever 250 voor 64Gb :) voor mijn am5 bordje.
En we zullen zien wat deliden toevoegt voor de 7950X3d misschien makkelijk nog 10 procent meer uit te persen. Als we dan toch de OC toer op gaan om ons gelijk te halen.
# hoe probeer je jezelf te overtuigen dat je een goede koop gedaan hebt... }:O

Op dit item kan niet meer gereageerd worden.