Door Tomas Hochstenbach

Redacteur

De monsterprocessors zijn terug

AMD Ryzen Threadripper 7970X en 7980X Review

06-01-2024 • 06:00

95

Singlepage-opmaak

Conclusie

Een van de nadelen van werken bij Tweakers is dat je niet zo snel meer ergens van onder de indruk bent. Maar toen de Cinebench-score van de AMD Ryzen Threadripper 7980X in beeld verscheen, werd het toch eventjes stil in ons testlab. Het prestatieniveau dat de nieuwe Threadrippers afleveren, is in de wereld van consumentenprocessors zonder meer ongeëvenaard.

De nieuwe Threadrippers zijn nog meer een 'Epyc light'

Dat is niet zo gek, want de herkomst van de Threadrippers ligt in de serverwereld. De voornaamste verschillen tussen de nieuwe Threadripper 7000-serie en de zakelijke Threadripper Pro- of zelfs Epyc-modellen zijn pogingen van AMD om het platform wat betaalbaarder te maken. De stap terug van acht- naar vierkanaalsgeheugen heeft bijvoorbeeld tot gevolg dat je niet zoveel modules nodig hebt, en het kleinere aantal PCIe-lanes maakt de moederborden minder duur.

Zowel dat kleinere aantal als minder duur zijn wel hartstikke relatief. In vergelijking met normale Ryzens beschik je nog steeds over zeeën van PCIe-bandbreedte, voldoende om verscheidene x16-insteekkaarten en verscheidene PCIe 5.0 M.2-ssd's te huisvesten. En goedkoop kunnen we een platform bestaande uit een processor van 2500 (32-core) of 5000 euro (64-core), een moederbord van 900 euro en geheugen van 400 euro natuurlijk ook niet noemen.

Dat geheugen is mede zo prijzig omdat je, in tegenstelling tot bij vorige generaties Threadrippers, per se registered geheugen moet gebruiken. De normale reepjes uit je Ryzen 7000-build werken hier dus niet mee. En ook op andere punten is beter dan voorheen te merken dat de Threadrippers omgekatte server-cpu's zijn. De boottijden zijn soms tergend lang, zeker bij het veranderen van instellingen, en in plaats van een gelikte UEFI-interface kregen we als bios ouderwetse grijs-met-blauwe lijsten te zien.

De usecase voor de 32-core bestaat, die voor de 64-core vrijwel niet

Ben je een zeer veeleisende, (semi)professionele gebruiker van bijvoorbeeld rendersoftware, compilers of compressiealgoritmes, dan is de Ryzen Threadripper 7970X van de twee geteste modellen de zinnigste keuze. De aanschafprijs van dit 32-coremodel blijft nog enigszins binnen de perken, terwijl de prestaties in de genoemde toepassingen van topniveau zijn. De meerwaarde van de 64-core-7980X is in veel van die taken beperkt; alleen rendersoftware die per definitie vrijwel onbeperkt schaalt, kan al die cores daadwerkelijk tegelijk benutten. Het topmodel is daarmee echt een gevalletje 'als je niet al wist dat je hem nodig hebt, heb je hem niet nodig'. Daarom snappen we ook wel dat AMD in deze consumentenserie geen 96-core-uitvoering uitbrengt, die in de Pro-lijn wel bestaat.

In het verleden probeerden AMD en Intel je ook weleens wijs te maken dat je een hedt-cpu nodig had als professionele gamer, streamer of beeldbewerker. Voor dergelijke gebruiksdoelen bieden de processors uit de reguliere series, die bij AMD tot 16 cores gaan en bij Intel tot 8P+16E-cores, tegenwoordig dezelfde of soms zelfs veel betere prestaties.

Hoewel de Threadrippers met hun megalomane hoeveelheden cores nog altijd zeer niche zijn, in het bijzonder het 64-coretopmodel, ben ik blij dat je ze nu weer kunt kopen zonder je te hoeven verliezen in peperdure, vaak slecht los verkrijgbare serverhardware. Zeker onder de tweakers zullen er toch nog genoeg mensen rondlopen die een zinnige usecase voor in ieder geval de 32-core hebben. Beide modellen gaan naar huis met een onbetwiste Ultimate-award op zak, maar daarbij wil ik AMD nog wel meegeven dat het de fabrikant zou sieren als hij ook voor de Threadripper-socket enige duidelijkheid over toekomstige upgrademogelijkheden gaf. Voor de vorige socket, sTRX4, was het na één generatie plots al afgelopen, en we hopen dat de nieuwe socket sTR5 nu toch minstens twee series zal meegaan.

Reacties (95)

95
94
56
6
0
30
Wijzig sortering
Mijn inziens laat de slechte conclusie de beperkingen van Tweakers hardware reviews zien m.b.t. dit soort workstation hardware. "De usecase voor de 32-core bestaat, die voor de 64-core vrijwel niet"...tsja, als je de doelgroep niet goed begrijpt en de tests daar niet op aanpast snap ik dat je tot een dergelijke conclusie komt. Tegelijk rapporteren jullie dan wel zelf dat de 7980X bijna 43% beter scoort in jullie CPU prestatiescore. Dat mogen dan geen verdubbeling zijn (wat de aanschafprijs wel is), maar het is toch een significant verschil.

Mijn inziens gaat het al fout doordat jullie dergelijke workstation CPUs een testsuite laten doorgaan die niet strookt met de doelgroep/het gebruik ervan. Leuk, al die gaming en streaming benchmarks, of webbrowser testjes, maar dat zijn dingen om desktop Pentium, Core i3/5/7, Ryzen 3/5/7 CPU's op te testen. En alles onder Windows (11), wat zo geweldig goed met heel veel cores overweg kan (ahum).

Test dergelijke CPU's gewoon onder Linux met tests die enigszins representatief zijn voor het gebruik, zoals kernel compile tijden, Chromium compile, neural netwerk training, schaak engines, uitgebreide video encoding/decoding, cryptography en SSL tests enzovoorts, zoals men b.v. bij Phoronix doet. Dan heb je tenminste een representatieve testsuite, niet simpel webbrowser, gamen of een beetje foto-editing in Photoshop. En dan zul je zien dat er zeker een doel/plaats is voor een 7980X, of zelfs diens grote broer de 7995WX.

[Reactie gewijzigd door Moi_in_actie op 22 juli 2024 13:55]

Dat ben ik toch niet helemaal met je eens. De Threadripper 7000-processors worden gericht op consumenten, die toch in overweldigende mate Windows gebruiken. Dat je een test voor de Threadripper Pro-serie of zelfs Epyc-cpu's anders moet insteken, ben ik met je eens, maar juist voor deze serie is het nog heel wezenlijk wat je er als 'prosumer' van kan verwachten. En daarbij hoort volgens mij ook inzichtelijk maken voor welke zaken een processor als deze zich niet leent.

Eens dat Phoronix hele toffe reviews voor Linux-gebruikers maakt trouwens, alleen volgens mij kun je dan beter gewoon die site lezen - zij specialiseren zich immers volledig in die niche. Als wij precies hetzelfde gaan doen biedt dat weinig meerwaarde.
Denk dat we dan toch een iets verschillende blik hebben op het geheel. Zoals je zegt is de Threadripper reeks gericht op consumenten, maar zoals ik hierboven ook al schetste zijn er heel wat gradaties te onderkennen onder "consumenten". Deze CPU's hebben niet als doelgroep iedereen die alleen wat internet en office werkzaamheden doet, of diegene die af en toe zijn/haar foto's bewerkt in Photoshop. Ook niet het gros van de gamers, voor wie een i9 14900K al vaak te duur danwel overkill is.
Een gamer als zijnde content creator is wellicht net aan richting iemand die zo een CPU overweegt, om gelijktijdig te gamen, streamen en wellicht nog een video te renderen. Maar eerder zijn het consumenten die als zelfstandige zware (grafische) modelleringsprogramma's gebruiken (bouwkundigen, scheikundigen, designers, developers, luchtvaart en thermo/fluiddynamics etc).

En ja, ook die mensen zullen misschien wel eens met diezelfde pc gamen of browsen. Het is ook prima dat dergelijke tests erbij zitten, het is meer dat (mijn inziens) de echte grote workloads mis ik gewoon in het geheel. Ik zou ook niet willen stellen dat jullie website X of Y exact moeten nadoen. Wel zou ik willen stellen: indien een bepaalde website heel erg thuis is in een bepaalde niche (zoals Phoronix en workstations) zou ik diens aanpak wel ter harte nemen danwel als inspiratie nemen. Want ja, als er net zoals in deze review een onderdeel "compute en compile" zit en dat bestaat dan hoofdzakelijk uit Cinebench en AIDA64 synthetische tests...tsja, is dat nou zo representatief voor HEDT computing?

En aangezien het er wel op lijkt dat het HEDT platform de laatste (en komende) jaren weer wat liefde krijgt van zowel AMD met Threadripper als ook Intel met diens Xeon-W lineup zou ik toch als tip willen meegeven dat het misschien wel mooi zou zijn indien de Tweakers reviews van HEDT hardware toch wat meer focus op c.q. uitbreiding van tests krijgen van echt zware compute/render/cryptography etc. Desnoods in ruil voor wat van die weinig zeggende AIDA64 e.d. testjes. Maar goed, dat is wat ik graag zou willen zien.
Dit kan komen door mijn veel te weinige kennis hiervan, maar wat ik begrijp zijn dit toch de "consumenten" versies van de Threadripper? Daarmee lijkt de doelgroep niet de doelgroep waar jij op doelt, want die halen dan neem ik aan de pro versie? 8)7 Deze zijn dan wel weer heel wat duurder, maar als een pro bent die dit nodig heeft lijken me deze kosten best gerechtvaardigd. Dit terwijl deze Threadrippers erg duur zijn voor de "consument".
Dat klopt, dit zijn CPU's voor de consumer/"prosumer". Echter is de ene consument de andere niet. Mijn ouders zijn ook consument van pc's, maar veel meer dan emailen, webbrowsen en een beetje foto's editen doen zij niet. Zij zijn dan ook niet de groep consumenten die een dergelijke Threadripper platform aanschaffen.

Consumenten die een platform als deze kopen zijn vaak kleine zelfstandigen, ZZPers of echte liefhebbers/hobbyisten die een bepaalde workload hebben die dergelijke hardware "vereist". Denk aan mensen (hobbymatig, ZZP, klein bedrijf) die veel dingen doen met modelling, machine learning, grote codebases of andere heel zware workloads (die vrijwel altijd prima schalen met meer cores, zeker onder Linux). Voor die mensen betekent het vaak dat een dergelijke complete pc/workstation 5-10k kost, maar als ze in tegenstelling tot een normalere desktop van 2k elke dag één of meer uren besparen door b.v. kortere compiletijden (of in dezelfde tijd meer gedaan krijgen), dan betaald zo'n workstation van 10k zich in no-time terug; reken met 100 euro per uur, met 1 uur winst per dag heb je binnen een maand (zeg 20 werkdagen) al 2000 goedgemaakt, op jaarbasis 24k.

Ik bedoel het is leuk/grappig om zoals in deze review te zien hoe dergelijke CPU's zich verhouden tot de meer mainstream AMD Ryzen en Intel Core producten en ja, bij bepaalde workloads in deze tests zie je ook daar winst, maar het gros van de doeleinden waarvoor iemand een dergelijk Threadripper platform zou kopen, die doeleinden/tests zie ik hier helaas niet terug. Vandaar mijn opmerking hierboven dat de hier uitgevoerde review/testsuite eigenlijk niet strookt met het doel van deze CPU's.
Ik vond het wel komisch om te lezen dat er als nadeel staat dat de moederboarden duur zijn. Ach als ik 2650 uit geef aan een CPU, dan is die 700-800 toch niet heel bijzonder meer?
Het probleem met vooral 3D rendering benchmarks is dat de industrie al 5+ jaar aan 't overstappen is op GPU rendering waarbij de GPU op dit moment een factor 5 sneller is dan de snelste CPU in deze test.

* e.e.a. hangt af van welke subtak van sport je zit maar grotendeels is dit de trend.

Hetzelfde geldt voor video, dat gebeurt steeds meer op de GPU.

Voor het gros van de professionals (en nee, niet iedereen werkt bij ILM) zijn er op deze 2 gebieden veel betere en effectievere oplossingen.
Onzin, met GPU rendering heb je vaak niet hetzelfde resultaat als CPU rendering. Zeker bij Vray is dat het geval. Arnold ondersteund ook GPU rendering, maar zeker niet 5x zo snel als jij zegt.

Ik maak ook gebruik van Redshift, en daar kan je bijlange na niet de kwaliteit halen van bijvoorbeeld Vray, Arnold of Corona.

GPU rendering is het gewoon nog niet, alleen voor bepaalde taken of opdrachten. Zelf zweer ik nog bij CPU rendering omdat het mooier is (Corona render is sowieso alleen cpu) en gebruik VRay en daar kan je beide toepassen CPU en GPU, alleen bij GPU renders kan je veel materialen niet gebruiken en Subsurface Scattering bijvoorbeeld ziet er ook erg anders uit dan bij CPU rendering.

Bovendien heb je ook een videogeheugen limit in zekere zin, en dat heb je niet bij CPU rendering mits je genoeg werkgeheugen geplaatst hebt (64gb is wel echt het minimum)

48Gb is volgens mij het hoogste nu wat je kan kopen op een videokaart en die kaarten kosten een vermogen, dan steek ik liever mijn geld in een goede kaart (dan 4 stuks) en twee van bovenstaande processoren. Daar kan geen GPU op dit moment tegenop! Bij gebrek aan videogeheugen, gaan de render tijden drastisch omhoog. Dit maak je niet mee met CPU rendering, mits genoeg werkgeheugen. Bovendien kan je een render server opstarten, met andere computers. Mits dezelfde hoeveelheid werkgeheugen, en dezelfde bestanden (maps, models, etc) lokaal opgeslagen.

GPU gaat sowieso nat bij grote scenes met veel effecten en grote textures en photorealisme. Zeker als ik gebruik maak van PhoenixFD simulator, en er zijn tientallen miljoenen particles (Liquid particles, foam, splash etc etc) daar gaat je videokaart gelijk nat op, en er zal dan ook veel shaders/effecten dit niet op de juiste manier renderen.

Arnold is wel weer beter in Vray op sommige fronten, maar die kan weer niet juist de phoenixFD simulator renderen.

Heb alles al geprobeerd, maar beste resultaat is toch CPU!

https://www.youtube.com/watch?v=0r_bp5V_OZY

256Gb werkgeheugen voor berekening voor de honderden miljoenen particles in deze video :) door de particles, is dit een serieuze videogeheugen vreter bij een render van 4K resolutie per frame. Succes met je 4090 24gb...

Voor mensen die geïnteresseerd zijn?

https://docs.chaos.com/display/PHX4MAX/Example+Scenes

[Reactie gewijzigd door Davidoff1976 op 22 juli 2024 13:55]

Video rendering op de GPU?

Helaas kan je met een chroma subsampling van 4:2:2 10-bit nog niet hardware decoderen op een GPU, net zoals ProRes (HQ/Raw) of B-Raw.

Dit gaat dus juist enkel meer op voor de meer lowend prosumer, want die filmt vaak nog in 4:2:0. Een prosumer of Pro loopt al heel snel tegen de limieten aan.

Meer info:
https://www.pugetsystems....inci-resolve-studio-2122/
Video rendering op de GPU? Helaas kan je met een chroma subsampling van 4:2:2 10-bit nog niet hardware decoderen op een GPU
Sorry, even wat nuanceren want je gaat tekort door de bocht.

Jij linkt naar decoders maar spreekt over rendering. Renderen = encoderen en de video afspelen in uw timeline is decoderen. Dus dat is niet helemaal juist ;-)

Op de mac M1 tot M3 kan je trouwens wel Prores 4:2:2 10-bit hardwarematig decoderen waardoor de timeline smooth verloopt. Er is ook hardware support voor encoderen. Ook Intel Arc GPU's ondersteunen 4:2:2 10-bit decoding, ook Intel Igpu's ondersteunen ecoding en decoding. Nvidia kaarten ondersteunen dat idd niet.

Raar dat je 4:2:0 8-bit afschrijft, 4:2:0 8-bit toch gewoon de industrie-standaard? Alle video content van streaming tot Blueray is 4:2:0 of 4:2:0 op 10-bit voor HDR masters.

Er is in ieder geval geen nood om een dure 32-core CPU te kopen. Een Mac Mini of een Pc met een Intel I9 brengt je even ver, zeker in combinatie met een moderne GPU.
Video rendering op de GPU?
Ja, afhankelijk welke effecten je toepast op in after effects of premiere pro zijn die GPU-accelerated maar uw dezelfde bron toont aan dat GPU acceleratie van renderen (dus exporteren of encoderen) tot 5x sneller kan zijn met een GPU.

[Reactie gewijzigd door Coolstart op 22 juli 2024 13:55]

In jouw verhaal ga ik een stuk met je mee:
Zeker de M1/M2/M3 van Apple kunnen dit, maar dat is geen PC GPU.

Ook de Intel processoren kunnen het (de nieuwere generaties), maar ook geen GPU.
Ja idd: de Intel GPU kan het ook, maar ik hoop dat de 2e generaties die eraan komen een stuk stabielere drivers krijgen.

Persoonlijk ben ik heel benieuwd van de Windows ARM machines die eraan komen (o.a. met Qualcomm processoren). Kunnen ze echt concurreren met de M1/2/3 chips van Apple? Ik ben benieuwd.

En 4:2:0 8-bit is idd de standaard voor broadcast, blue-ray etc. Maar dan praten we wel over de final render.

Er zullen nog weinig bedrijven zijn die hun source materiaal in 8-bit opnemen.

Dus ja je nuances zijn terecht, die van mij echter ook denk ik. Het licht er echt aan welke gedeelte van de toolchain je over spreekt.
Intel ARC gpu kan het ook, en dat is wel een GPU.

https://www.pugetsystems....-in-premiere-pro-24-beta/

Edit: idd sorry overgelezen, en idd geen goede drivers. Intel heeft lang voortang gegeven aan games. Bij launch werkte oudere games al niet te best.

Ik heb nu een M1 pro en kan beter editen dan vroeger op mijn i9 pc desktop met veel meer geheugen. Dus final cut pro +M1 is echt wel een vlotte combo. Render times zijn min of meer hetzelfde gok ik.

In een tijd dat uploaden langer duurt dan renderen maakt dat toch minder uit.

Hoe dan ook, 32 of 64 cores zijn pas echt een meerwaarde als je gaat 3D renderen of animatiefilms maken. Dan wil je snel uw resultaat testen en dan is het leuk dat je maar 3 minuten wachten met 64cores, ipv 6min 32cores of 12min met 16 cores. Dat schaalt mooi.

De finale render duurt soms dagen om te renderen. Reken maar uit, 60fps = 216.000 frames voor een uur film. Aan 1 minuut per frame is dat 150 dagen :)

[Reactie gewijzigd door Coolstart op 22 juli 2024 13:55]

Helemaal eens met je verhaal.

Vanwege sommige programma's zit ik nog vast aan Windows, en ik heb nog meer een hekel aan Apple dan aan Windows, maar die Mx chips van Apple zijn wel echt tof.

Dat is ook de reden waarom ik ook zo nieuwsgierig ben naar de Qualcomm chips...

Zelf aan het spelen met Unreal Engine voor video, daar helpt de GPU gelukkig nog wel flink bij, hoewel een final render ook veel te veel tind kan kosten

[Reactie gewijzigd door nevyn67 op 22 juli 2024 13:55]

Ah ok, dan doen alle studio's en professionals in TV & film land waar ik al 2 decennia mee werk het recentelijk allemaal verkeerd.

Goed om te weten. Kan alles de deur uit, weer 10k bespaard!

Er is meer dan alleen rendering m.b.t. video, er is meer dan DaVinci, er zijn meer formats dan de 3 genoemde.

[Reactie gewijzigd door MPCX op 22 juli 2024 13:55]

Je sarcasme is niet nodig.

Ook ik heb bij menig bedrijf gewerkt qua in het software gebied, O.a. bij een bekend TV station en een bedrijf wat de software maakt voor menig Ziggo, Delta etc...

Je hebt gelijk dat voor de 'standaard' uitzendingen vaak 4:2:0 nog wordt gebruikt, maar het ligt eraan bij wat voor bedrijf je bent.

Overigens is het niet enkel DaVinci, want Première Pro, Avid etc hebben dezelfde beperkingen.
Klopt. Er zijn ook mensen die een vapoursynth script opzetten om specifiek getunede deinterlacing op eigen analoge captures uit te voeren en dan die output meteen door te pipen naar bvb ffmpeg.

Ffmpeg zou dat dan via de GPU kunnen encoderen, maar blijkbaar heb je dan bij dezelfde bitrate lagere kwaliteit tov bvb x264/x265. En AV1 doet m'n GPU al helemaal niet. En een niet-16:9 verhouding misschien ook wel niet.
En als je dan de bestanden via het internet wil delen is het weer wel interessant om een kleiner bestand met dezelfde kwaliteit te hebben.

Ja, je kan ook weer gewoon een nieuwere GPU kopen waarbij de fixed-function HW efficiënter encodeert en/of een nieuwere codec ondersteunt, maar ik moet al vele dagen CPU-encoderen voor ik het energieverbruikverschil eruit verdien.

[Reactie gewijzigd door Arrigi op 22 juli 2024 13:55]

Ik heb dus precies het zelfde, ik heb vorig jaar een nieuwe PC gebouwd met een I713700kf (even uit mijn hoofd) omdat ik een nieuw workstation nodig had. Hiernaast een RTX4080.

Wat ik nu merk na een jaar is dat ik de processor vrijwel niet aanraak en bijna al mijn taken via de GPU gaan. Autodesk Maya (viewport + rendering), alles op de GPU, Photoshop (2+GB foto's), alles op de GPU, gamen op de GPU, wat Grin mining (kantoorverwarming) op de GPU :)..

Nu dus gaandeweg vraag ik mij af.. wat is de zin en onzin tegenwoordig van het hebben van een snelle CPU, omdat eigenlijk al mijn werk en plezier draait op de GPU? De RTX is gewoon monsterlijk krachtig, en zie ik steeds minder noodzaak voor monster processors :).

Echt voor de grap probeer ik in Maya wel eens over te schakelen op CPU rendering, maar dat gaat misschien preciezer maar een veelvoud langzamer.
Als ik een video (om)codeer dan doe ik dat zeker op de cpu, het uiteindelijke bestand is ~30% kleiner (h.265 op de cpu ivm Nvidia encoder). Sneller? Zeker, maar niet altijd beter.

Hangt af van waar je prioriteit legt.
Industrie, precies de doelgroep want als je duizenden euro's uitgeeft aan een processor alleen, dan is het wel zo fijn als je dit commercieel kan inzetten met de workload waarvoor deze is ontworpen. In de commerciële sector moet die prijs wel terugverdiend worden. Voor thuis lijkt me deze CPU iets minder geschikt, tenzij je een YT kanaal hebt op 4K en veel editing moet verrichten.

Het heugt me dat AMD zo'n mooi antwoord heeft voor de professionele editor/content creator.

Maar volgende lijkt off topic, maar is het allerminst:
Veel kasten worden geleverd met stoffilter en deze willen nog wel eens veel warmte tegenhouden. Voor een office/familie systeem geen probleem, maar als je uren gaat gamen of je laat het systeem uren achtereen renderen, dan kan het aardig warm worden in de kast. Zeker deze grootverbruikers wil je koel houden. Nu zul je denken dat stof vrij spel heeft, maar als je het systeem eens per 3 maanden lekker uitspuit is er niets aan de hand. Zonder filters werken is minder erg dan je denkt en fijn stof komt toch wel binnen. Zolang er niet gerookt of gekookt wordt in de ruimte waar de PC staat zal het stof ook niet gaan aankoeken.

PS: Mijn game-PC met zeer zware hardware heeft ook geen stoffilters (expres niet) en deze is na 6 maanden amper stoffig van binnen. Met perslucht blaas je het stof heel makkelijk weg binnen 10 minuten. Zonder filter wordt de GPU ruim 10 graden minder warm en de AIO koeler heeft het heel erg makkelijk nu. De warmte kan direct de kast uit zonder filter. Intake is hier 3x12cm fan's en AIO 2x12cm outtake.

Mijn persoonlijke mening is dat dure hardware ruim lucht moet hebben. Dit moet je niet gaan verhinderen door stoffilters (en al helemaal niet als de filters viezer worden en nog veel minder lucht gaan doorlaten).
Hoe kan het dat de 12 core een tdp van 350watt heeft en de 96 core ook.
als AMD dat zo instelt dan is dat wat het is

je kunt je afvragen of het logisch is natuurlijk
Mogelijk omdat ze beide niet meer vermogen (warmte) kwijt kunnen aan de koeler.
Omdat de 96 core op lagere kloksnelheden zal lopen.
Omdat een bijvoorbeeld Lenovo ws build maakt met bepaalde koel oplossing. Dat is reeks met dezelfde koeler op cpu naar keuze. Een 96core zal eerder thottlen dan 12 core
Die 350watt is wat stock ws build moet aankunnen.
Ook kan WS de CPU geüpgraded worden ooit naar topmodel.
En 7-zip inpakken/uitpakken zou dat sneller gaan?
Of upscalen naar 4K met Topaz Video Enhance AI.
Emulators: Dolphin, RPCS3, Ryujinx
Een test van 7-Zip inpakken staat, heel toepasselijk, op pagina 7 :). Uitpakken is weinig cpu-intensief, daarvoor maakt de snelheid van je ssd meer uit.
Wil je het RAM-geheugen ook aan de tand voelen met compressie dan heeft PeaZip ook de mogelijkheid van Paqar-compressie; zo ongeveer de aller zwaarste vorm van compressie waarbij het uitpakken ervan ook CPU intensief is.
https://gathering.tweakers.net/forum/list_messages/1257364
Is de factor geheugen belangrijker dan de factor cores?
Of werd de test beperkt tot dezelfde hoeveelheid RAM?

[Reactie gewijzigd door Jan VP op 22 juli 2024 13:55]

Bij 7-Zip (formaat) kan je volgens mij meerdere cores gebruiken, maar volgens mij zijn zoveel cores daarvoor overkill.

Videobewerking kan je beter op GPU's doen.

Voor veel andere taken (zoals rekenintensieve spellen en emulatie) is het aantal cores minder van belang, en is een hogere (stabiele, niet burst) clock cycle voor het relatief lage aantal cores dat je gebruikt belangrijker.

[Reactie gewijzigd door The Zep Man op 22 juli 2024 13:55]

Emulators hebben niets aan meer cores dan er in de originele console zitten. IPC is nog steeds het belangrijkste en voor ps3 is het bvb wel nuttig 8 échte cores te hebben waarvan er 1 a 2 heel hoog kunnen boosten.
eigenlijk zijn de testen niet geschikt voor dit soort cpu's, we hebben er een in een PC die zware modellen draait op onze vakgroep op de UT, dat gaat helemaal niet over dit soort toepassingen. Miosschieb de FP64 benchmark. Eerder dit:
https://www.pugetsystems....ications-2368/#Benchmarks
ik denk dat ze gewoon hun standaard set gebruiken om te kunnen vergelijken en niet zozeer om al zijn kunnen in de verf te zetten. Geen enkele mens met wat brains in z'n hoofd die hierop primair gaat gamen en dus de helft van de tests al waardeloos is. Een tractor ga je ook niet laten dragracen tegen een EV.
De game benchmarks zijn juist prima om te doen, want daarmee kan je juist de conclusie trekken dat het weinig zinvol is dit in een game pc te stoppen.
Daarnaast zal de semi-pro buiten de werkuurtjes misschien wel nog wat willen gamen en dan is het wel handig om te weten dat het nog wel kan.
want daarmee kan je juist de conclusie trekken dat het weinig zinvol is dit in een game pc te stoppen.
Want dat wisten we nog niet? Alleen een idioot koopt een 96-core CPU om erop te gamen. :P Als je software geen 96 threads heeft dan hebben 96 cores ook geen zin, daar heb je geen benchmark voor nodig.

Dat is als een schroef aandraaien met een cirkelzaag om te concluderen dat een schroevendraaier het toch beter doet. :D

Alsnog leuk om te zien wat de precieze uitkomst is natuurlijk. Met veel CCD's zijn dit soort CPU's mogelijk juist in het nadeel.

[Reactie gewijzigd door bwerg op 22 juli 2024 13:55]

En nu met die benchmarks weet je het zeker.
Ik heb liever antwoorden op vragen waar ik het antwoord nog niet van weet.

Er wordt hier altijd geschermd met dat tijd bij een review beperkt is, maar waarom is er dan altijd precies hetzelfde draaiboek met bizar veel testen die soms echt niks toevoegen in het verhaal.

Om vervolgens vreemde conclusies te trekken als "er is nauwelijks een usecase voor 96 cores".

Ja dat komt dus omdat alle consumer cpus hetzelfde draaiboek krijgen in de review. Zonde, want wat ik hier in de reacties lees qua toepassingen is voor de zoveelste keer erg verhelderend.

Gaat ook over een stukje kwantitatieve en kwalitatieve analyse. Een rits benchmarks is kwantitatief. Kijken naar "hoe kan ik deze cpu nu het beste aan de tand voelen en waar ligt zijn meerwaarde" is kwalitatief. Dat laatste mist gewoon bij tweakers reviews.

[Reactie gewijzigd door A Lurker op 22 juli 2024 13:55]

Geen enkele mens met wat brains in z'n hoofd die hierop primair gaat gamen en dus de helft van de tests al waardeloos is.
Nu Niet, maar als ze straks nog maar een kwart van de huidige prijs zijn, zijn ze wel erg interessant voor heel veel soorten gebruikers.

Gamers heb ik inderdaad ook een beetje hard hoofd in. Als ik zie met mijn RTX4080 en een i7 wat de CPU doet tijdens het gamen (5-10% gebruik) dan is een goede videokaart inderdaad een stuk nuttiger.
dat kan je ook zeggen van 20TB NAS-schijven, het is niet omdat het "kan" dat het ook een goede keuze is. Zelfs aan een kwart van de prijs kosten die dingen nog over de 500€ voor de CPU, 200€ voor het moederbord en 100€ voor het geheugen, wat je nog altijd een hoog verbruik en slechtere game-performance oplevert dan een nieuwe build die maar een fractie daarvan kost.
Zeker waar, maar het probleem is dat je met die benchmarks het systeem niet kan vergelijken met andere cpus die Tweakers heeft gereviewed. Dat zijn namelijk (bijna) allemaal consumentenchips en daarop wil je dus de 'gewone' benchmarks draaien.
Tja, als softwareontwikkelaar, waarbij compute en compile een van de weinige dingen is waar deze processors excelleren, zou ik er toch niet over denken om ze te kopen. Tenzij ik zelf ook een server zou hosten of iets dergelijks is de meerwaarde echt nihil.
Ik ben geen softwareontwikkelaar zoals jij, maar al wel bezig met Gentoo sinds het nog Enoch heette en probeer wat actief te zijn in die community. Zo'n nieuwe Threadripper als distccd in huis zou zeker welkom zijn maar ze zijn voor particulier gebruik alsnog erg duur.

/edit: typo.

[Reactie gewijzigd door H1MSELF1SH op 22 juli 2024 13:55]

Bij bepaalde bedrijven zijn voor de programmeurs Apple silicon processors verplicht omdat die zoveel sneller compileren blijkbaar. Zelfs de baas van Linux werkt ermee naar het schijnt.
Nee, Linus Torvalds heeft een workstation met een Threadripper er in, specifiek de 3970x.

https://www.zdnet.com/art...est-linux-development-pc/
Vergeleken met de oude Intel CPU's die Apple gebruikte misschien, maar vergelijk je bijvoorbeeld de duurste Mac Pro met een Ryzen 7950X dan wint de Ryzen het.
Ik weet niet wat disctccd is, maar ik vind verder wel of niet een Linux distro niet zo interessant, Linux zou juist op minder snelle hardware goed moeten draaien over ‘t algemeen
Linux draait ook prima op oudere hardware. Ik type dit op een Asus Zenbook uit 2012 met 4 GB RAM. :)

Maar Gentoo gebruikt een systeem om code te compileren bij installatie. Dan heb je wel voordeel bij een snelle CPU. Ik heb hier een 8core/16thread thuisservertje draaien met disctccd. Zie https://nl.wikipedia.org/wiki/Distcc . Met distccd kun je compile taken verdelen over meerdere computers (lees: processoren). Dat maakt dat de compile tijd een stuk korter wordt. Zo'n nieuwe Threadripper zou die compile tijd flink kunnen verkorten. Ik ben dan ook Tweakers zeer dankbaar dat ze die test gedaan hebben.
Ahh ok, je hebt een extra c in de naam staan trouwens, ik dacht dat het iets met discs te maken had. Maarja ok, een snellere installatie vind ik geen duizenden euro’s extra waard. Ik compile de hele dag door maar de compile tijd is nog steeds prima lokaal, over het algemeen ben je niet heel Linux aan het bouwen maar kleinere applicaties. Verder doet Gitlab (geholpen met wat custom runners die van AWS gehuurd zijn) de grote buildtaken wel.
Als mede dev zie ik ook enkel een plek als dedicated build server voor dit platform. Voor een workstation is een 7950x een veel betere match tenzij je echt extreem lange compiles hebt op dit moment.
Inderdaad. En builden doen wij gewoon in de cloud. Maar als je dat echt lokaal wil trekken dan zou dit wel lekker performen idd.
Heel leuk, maar deze scores zeggen allemaal niet zoveel. Zoals eerder opgemerkt, niemand die weet wat ie doet gaat hiermee gamen, en video bewerken doe je veel meer met de GPU. Maar goed, dit is blijkbaar wat Tweakers denkt wat haar lezers willen.
Zou een test waarin verschillende geheugen configuraties interessant vinden, om te zien hoe veel van de tijd de processor op I/O staat te wachten. Wat is het verschil in prestatie bij 1, 2 en 4 DRAM reepjes
Dit in combinatie met 7970X en 7980X en een SSD RAID om te zien wat de prestatie verschillen zijn en hoe dezelfde real world software gebruik maakt van de cores en wat de impact is van de I/O

Als je processoren als deze gaat testen, test je niet alleen de CPU, maar is er een grote impact van hoe goed SW is geoptimaliseerd voor deze hoeveelheid cores.

"In de door ons geteste Adobe-programma's en DaVinci Resolve doen de Threadrippers het zodoende niet slecht, maar zeker ook niet bijzonder goed. Met name in Photoshop zien we dat de snelheid per core belangrijker wordt dan het aantal cores zodra je minstens een stuk of acht rekenkernen hebt. In Premiere Pro is menige chip uit de nieuwste 'reguliere' processorseries van AMD en Intel zelfs sneller. In DaVinci Resolve doen de Threadrippers wel bovenaan de grafiek mee, maar is de 7980X slechts enkele seconden eerder klaar dan AMD's reguliere topmodel: de 7950X."

Okay, maar waar ligt dit aan? Veranderd dit bij andere SSD of Geheugen configuratie? De code van Adobe? Het lijkt vooral dat laatste te zijn, maar dan zegt de test vooral wat over Adobe, en niet over de CPU
Deze Threadrippers zijn op dit moment voornamelijk geschikt om Cinebench op te draaien als primaire workload. Dat ligt niet aan de hardware, maar aan de huidige staat van software, vooral die van bedrijven zoals Adobe en Autodesk.

Verder zou ik naast de schaalbaarheid met cores ook wel wat willen zien over schaalbaarheid van software met hoeveelheid geheugen en opslag, maar daar verwacht ik ook niet echt veel betere prestaties terug te zien.

Dan blijft de vraag over voor wie deze producten nu gemaakt worden. Ik denk dat voornamelijk softwareontwikkelaars met dit soort hardware aan de slag moeten gaan om hun software veel schaalbaarder te maken dan die nu is, zodat gebruikers in de toekomst wel goed gebruik kunnen maken van deze hardware.

Phoronix heeft eerder ook benchmarks gedraaid voor de Threadripper Pro 7995WX en benchmarks voor de 7970X en 7980X.

[Reactie gewijzigd door psychicist op 22 juli 2024 13:55]

Daarbij, niet alle software opdrachten zijn geschikt om te schalen of te distribueren, die moeten sequentieel verwerkt worden. Autocad bijvoorbeeld was daardoor gelimiteerd.
Verder is, als de SW snel op alle cores draait, een vraag van I/O, als alle cores de opdrachten parallel uitvoeren en de SW er voor geoptimaliseerd is, de vraag of alle data daarvoor van en naar het geheugen kan zonder dat de cores dan ff moeten wachten.
De limiet van AutoCAD was puur kwaliteit van die code, er is nies bijzonders aan CAD wat het inherent single-threaded maakt. Het is simpelweg een antieke code base die ouder is dan Windows 95.

Wat geheugen betreft, deze CPU's hebben grote caches dus cores zouden zelden moeten hoeven wachten op geheugen. Daarvoor is wel weer de kwaliteit van de software van belang.
Het enige wat mij opvalt zijn de enorme aantallen pci lanes.
Die mis ik bij mijn intel.
Een doorsnee cpu kan 1 videokaart aan en moet dan al gaan sharen voor m2 sdd en usb. Dan haal je toch nooit de beloofde specs??
I/O is a bitch
Dit is waarom Shared Memory van GPU en CPU zo een elegante oplossing is. Bij de X86 architectuur bewerkt de GPU data in het GPU geheugen, waarna alle data naar het systeem geheugen wordt gekopieerd om door de CPU te worden bewerkt, waarna het weer naar het GPU geheugen gaat zodat die er wat mee kan doen.
Bij Shared Memory vervalt het heen en weer kopieren en kunnen CPU en GPU de data gelijk bewerken. Dit bespaard niet alleen tijd, maar ook bandbreedte die weer voor andere taken gebruikt kan worden.
Heeft niks met x86 te maken. AMD heeft chips gemaakt (oa voor consoles) met x86 cores die dit principe ook gewoon toepassen.
Bedoel je daar niet de AMD CDNA architectuur?
Zowel AMD als Intel hebben modellen met weinig en veel lanes.
Het Intel alternatief hiervoor is Xeon W, die heeft tot 112 lanes.

De gemiddelde user heeft gewoon niet zoveel nodig.
Op n doorsnee moderne CPU kan je vziw wel de beloofde specs halen?
GPU en SSD hebben daarbij dedicated verbindingen met CPU, en USB gaat dedicated of via chipset, die ook n dedicated verbinding heeft.

iig, wie meer tegelijk wilt en daar niet genoeg aan heeft, kan dus zoiets nemen.
Ik weet niet beter dan dat ik sata kanalen moet opofferen voor m2 of dat indien gebruik gemaakt wordt van een 16 lane videokaart een andere pci wegviel.
Krankzinnige io mogelijkheden maar nooit alles tegelijk. Geen enkele cpu die alles uit het board kon halen. Opsich heb je een punt dat usb niet meer standard ten koste gaat van een paar lanes.
Toch vindt ik dat een moderne desktop cpu wel wat meer dan 24 lanes mag hebben. Zeker de i5 en i7.
De geruchten gaan dat de volgende generatie desktop processors van AMD een core verdubbeling krijgt. Dus een 32 core, 64 threads consumenten-cpu op AM5 ipv de huidige 16 core.

De prijs? Ik zou zeggen 800 tot 100 euro ipv de 2600 euro nu voor deze threadripper. Dan heb je niet de extra pcie lanes, maar wel grofweg de rekenkracht.
Was het gerucht niet 50% meer cores? 24 dan, max?
Voor mij zijn deze CPU's totaal oninteressant qua prijs, wat wel interessant is, is het aantal PCIe lanes.

Ik zit zelf, redelijk verliefd te kijken naar het SP6 platform, waar voor 8004 series CPU's, zoals de €450 kostende 8 core AMD Epyc 8024P, die een heel stuk betaalbaarder zijn, het is alleen jammer dat de moederborden er voor nog steeds MIA zijn, want de ME03-PE0 is toch best wel een heel interessant (en hopelijk betaalbaar) bordje als je heel veel (80x + 2x MCIO 8i) PCIe lanes wil hebben.

Je kunt dan bordjes als deze, gebruiken om bijvoorbeeld heel veel NVMe opslag te maken, voor een hele mooie video file server voor editing.

[Reactie gewijzigd door player-x op 22 juli 2024 13:55]

Goede punten, het is inderdaad wel apart dat de epyc 8004 serie zo’n relatief goede prijsstelling heeft en dan zelfs meer geheugen channels en lanes.

Ik zit ernaar te kijken voor een NAS. Wil graag met IPMI, voor een mobo kijk ik altijd naar supermicro of asrock rack.

https://www.asrockrack.co...ENAD8-2L2T#Specifications

[Reactie gewijzigd door Navi op 22 juli 2024 13:55]

Gigabyte heeft 4 borden met SP6, allemaal hebben ze IPMI, maar geeft ook toegang tot alle PCIe lanes.
Daarnaast de PE0 waar ik ben geïnteresseerd, zou ongeveer +€500 moeten kosten, maar elders weer +€1000, dat is €300 minder of meer dan de Asrock, maar slecht daadwerkelijk tekoop te vinden.
En persoonlijk heb ik geen interesse in extra kosten van onboard 10Gbit, gebruik losse NIC's
Moet je niet een video kaart willen anders vallen meteen 2 m2s af.
De meeste borden doen 16 + 8 maximaal. Of vallen sowieso al terug naar 8 + 8
Anders dan 20 tot 28 pcie lanes van consumenten Pc's, heeft een Epyc 8004 CPU's 96 lanes, je zou met deze cpu bv 20 nvme drives kunnen gebruiken.
dat nvme boordje is pciev4 dus dit is suboptimaal. Je gaat er meer uit kunnen halen met een generatie ouder te zoeken (op ebay.cn) waar je meer pciev4 krijgt per cpu socket
Denk dat met 8x 4TB NVMe drives (32TB) wel aan de max zit wat ik nodig zal hebben.

32x voor lanes voor 8x NVMe.
8x voor HDD controller
8x voor 40Gb NIC
8x voor Optane kaart

Zou een mooie upgrade voor mijn huidige Xeon E5-1620 v4 met ''maar'' 40 lanes, en zou ik met de extra 4 NVMe drive, nog steeds 24 lanes over hebben.

Op dit item kan niet meer gereageerd worden.