Intel kondigt Xeon W-3500- en W-2500-workstation-cpu's aan met maximaal 60 cores

Intel introduceert nieuwe Xeon W-processors. Het bedrijf brengt de processors uit in de Xeon W-3500- en Xeon W-2500-series, met respectievelijk maximaal 60 en 26 cores. Het gaat om refreshes van de bestaande Sapphire Rapids-cpu's, die vorig jaar zijn verschenen.

Aangezien het om refreshes gaat, zijn de twee nieuwe processorreeksen in grote lijnen gelijk aan hun voorgangers uit de Xeon W-3400- en W-2400-series. De cpu's bestaan opnieuw uit chipletachtige tiles, die weer geproduceerd worden op het Intel 7-procedé. Daarbij is de W-3500 bedoeld voor high-end workstations, terwijl de W-2500 bedoeld is voor meer mainstreamsystemen, vertelt Intel tijdens een briefing met journalisten.

Beide series worden nu wel geleverd met meer cores en in veel gevallen ook met iets hogere kloksnelheden. Intel brengt W-3500-cpu's met maximaal 60 kernen uit, waar dat er voorheen maximaal 56 waren. Het maximale aantal cores in de W-2500-serie wordt ook verhoogd: van 24 naar 26.

Intel Xeon W-3500 en W-2500

Ook de lager gepositioneerde sku's hebben meer cores dan voorheen. Alle nieuwe W-3500-processors hebben vier tot acht extra cores ten opzichte van hun directe voorgangers uit de W-3400-serie. De W-2500-chips hebben er allemaal twee meer dan voorheen. Door die hogere coreaantallen hebben de cpu's ook meer L3-cache dan voorheen, evenals een hogere tdp.

Het aantal PCIe 5.0-lanes blijft in beide series hetzelfde: 112 voor de W-3500-serie en 64 voor de W-2500-varianten. De geheugenondersteuning is eveneens ongewijzigd, met acht DDR5-geheugenkanalen voor de W-3500-serie en vier kanalen voor W-2400. Dat vertaalt zich in een respectievelijk maximum van 4TB en 2TB DDR5-geheugen. Beide series ondersteunen ecc-geheugen met DDR5-Rdimms. De meer doorsnee Udimms worden niet ondersteund, bevestigt Intel tegenover media.

Intel Xeon W-3500 en W-2500Intel Xeon W-3500 en W-2500

Intel deelt verschillende prestatieclaims van zijn nieuwe processors. Het bedrijf claimt bijvoorbeeld dat zijn Xeon w9-3595X met 60 cores tot 2,8x zo snel is als een Xeon W-2295-cpu bij een Chaos VRay-export in Autodesk 3Ds Max. Die W-2295 is echter gebaseerd op een oudere Cascade Lake-architectuur en heeft 18 cores. De fabrikant deelt ook enkele benchmarks waarin het Xeon W-topmodel wordt vergeleken met de AMD Ryzen Threadripper Pro 7985WX met 64 Zen 4-cores. Intel claimt bijvoorbeeld dat zijn cpu tot twee keer zo snel is in video-upscaling in Topaz Labs Video AI Pro en bepaalde Python-workloads.

De nieuwe Xeon W-processors maken opnieuw gebruik van Intels bestaande LGA-4677-platform. Ze zijn daarmee ook compatibel met bestaande moederborden die de W790-chipset gebruiken, bevestigt Intel aan journalisten. De fabrikant meldt wel dat verschillende bedrijven nieuwe W790-moederborden gaan introduceren.

Intel Xeon W-3400-serie
Modelnaam Cores / threads L3-cache Kloksnelheid Turbo Overklokbaar Tdp Adviesprijs
w9-3595X 60/120 112,5MB 2,0GHz 4,8GHz 385W $ 5889
w9-3575X 44/88 97,5MB 2,5GHz 4,8GHz 340W $ 3759
w7-3565X 32/64 82,5MB 2,5GHz 4,8GHz 335W $ 2689
w7-3555 28/56 75MB 2,7GHz 4,8GHz 325W $ 2339
w7-3545 24/48 67,5MB 2,7GHz 4,8GHz 310W $ 2039
w5-3535X 20/40 52,5MB 2,9GHz 4,8GHz 300W $ 1689
w5-3425 16/32 45MB 3,2GHz 4,8GHz 290W $ 1339
Intel Xeon W-2400-serie
Modelnaam Cores / threads L3-cache Kloksnelheid Turbo Overklokbaar TDP Adviesprijs
w7-2595X 26/52 48,75MB 2,8GHz 4,8GHz 250W $ 2039
w7-2575X 22/44 45MB 3,0GHz 4,8GHz 250W $ 1689
w5-2565X 18/36 37,5MB 3,2GHz 4,8GHz 240W $ 1339
w5-2555X 14/28 33,75MB 3,3GHz 4,8GHz 210W $ 1069
w5-2545 12/24 30MB 3,5GHz 4,7GHz 310W $ 889
w3-2535 10/20 26,25MB 3,5GHz 4,6GHz 185W $ 739
w3-2425 8/16 22,5MB 3,5GHz 4,5GHz 175W $ 609
w3-2423 6/12 15MB 2,1GHz 4,2GHz 120W $ 359

Door Daan van Monsjou

Nieuwsredacteur

28-08-2024 • 18:00

77

Lees meer

Reacties (77)

Sorteer op:

Weergave:

Als iemand die weinig verstand heeft van workstations. Kan iemand mij de usecase vertellen van de bovengenoemde w3-2425. Dan heb je 8 cores/16 threads voor 609 USD. Waarom zou je dan niet voor een AMD R9 9950X gaan bijvoorbeeld voor dat geld? Dan heb je dubbel zoveel cores en waarschijnlijk betere prestaties, of mis ik iets?
Om als onwetende hier op aan te haken: wie of wat gebruikt deze workstations? Welke toepassingen worden deze workstations ingezet?
Vaak voor zware taken als rendering, 3D modelling, video editing etc.

Of wetenschappelijk werk waar heel veel rekenkracht voor nodig is.

En meer van dat soort heavy duty taken.

Dit soort machines zijn niet gericht op gewone consumenten, daar zijn ze veel te prijzig voor. Ze worden vaak in bedrijven in één van de genoemde werkzaamheden ingezet.
Soms worden ze ook recommended door leveranciers van apparatuur. En dan ga je de software draaien en schaalt het maar tot 20 cores. Maar vaak is de prijs van het workstation een fractie van de apparatuur in kwestie, dus liever nu overkill neerzetten en mogelijke softwareupdate die gebruik kan maken van meer van de hardware, dan net krap aan zitten.
Persoonlijk heb ik van verschillende generaties Xeons tegen core i7s en i9s getest. Ik nagenoeg alle gevallen liepen de CAD/CAM applicaties beters op een consumentenversie
In wetenschappelijke sfeer ook hoor, de hoge boostclock is waardevoller dan een bergje processorcores. Die hybride processoren daarentegen zijn wel tricky. Sommige applicaties gebruiken een background service voor het rekenwerk en de Windows scheduler is niet slim genoeg om dat als een high-prio te zien waarna de scheduler dat op zo'n Intel Atom processorcore duwt.
Windows scheduler is niet slim genoeg
Het zou zomaar kunnen dat er voor serieus rekenwerk iets anders wordt gebruikt dan Windows.
Persoonlijk heb ik van verschillende generaties Xeons tegen core i7s en i9s getest. Ik nagenoeg alle gevallen liepen de CAD/CAM applicaties beters op een consumentenversie
Klopt, de meeste CAD applicaties (denk: AutoCAD, Inventor, Solidworks, enz.) gedijen het beste op systemen waarbij de cpu een hoge (boost) clockfrequentie en een flinke hoeveelheid (level 3) cache biedt.

De meeste van deze 'meer traditionele' CAD applicaties doen nog maar weinig met de multi-core technologie die ook beschikbaar is. Als dit al wordt ingezet, dan is het een deeltaak als het renderen van 3D visuals, maar gewoon in het basic modelleren of opzetten van maattekeningen vanuit zo'n 3D model doen die vele cores er niet zo veel toe.

Je kunt wel nut hebben van multi-core cpu's met verschillende 'modernere' 3D modelleerprogramma's als SketchUp, 3D Sculptor, die eigenlijk pas zijn ontwikkeld in een tijd dat deze cpu's al veel meer gangbaar waren.
CAD is wel lomp, meestal 1 processor based nogsteeds. En dan zit je daar met je door het bedrijf afgegeven standaard top model laptop met 32 cores, waarvan er 31 de hele dag uit hun neus eten.

En dit is typische van bedrijven, ze verdienen hem wel terug maar voor de werknemer is het overkill. Daarom worden zulke dure processors prima verkocht in bedrijvenland.

Elke slimme consument zou het nooit kopen, maar bedrijven kopen er meteen zelfs 100 van, omdat ze veel werknemers hebben. Zie daar het verdienmodel voor Intel en AMD.
Persoonlijk heb ik van verschillende generaties Xeons tegen core i7s en i9s getest. Ik nagenoeg alle gevallen liepen de CAD/CAM applicaties beters op een consumentenversie
"Beter" is natuurlijk subjectief, ik neem aan dat je "sneller" bedoelt.
Er is ook nog iets als betrouwbaarheid. Xeons hebben support voor ECC geheugen waardoor de kans op fouten door geheugenproblemen kleiner wordt.
Ook ondersteunen die Xeons grotere geheugenconfiguraties wat doorgaans wel een tradeoff is van snelheid tegen geheugen (met alle banken gevuld kan je niet op topsnelheid draaien).

[Reactie gewijzigd door bzzzt op 29 augustus 2024 10:02]

Betere gebruikerservaring dan. Die wordt voornamelijk door snelheid beinvloed. Desondanks zie je Xeon en RTX kaarten op de "recommended" list staan van CAD leveranciers. In mijn software nog nooit gezien dat het echt wat oplevert, maar grote bedrijven willen niet het risico lopen dat ze bij support calls te horen krijgen "maar je systeem voldoet niet aan recommended, dus we kunnen niet helpen". Een halve dag stilstand is duurder dan het verschil tussen een i7/i9 en een Xeon
Desondanks zie je Xeon en RTX kaarten op de "recommended" list staan van CAD leveranciers. In mijn software nog nooit gezien dat het echt wat oplevert,
Door een goed geteste configuratie sluit je uit dat je als klant moet gaan lopen rommelen met onderdelen, drivers etc. Natuurlijk zijn er andere werkende configuraties of zullen zelfs de meeste andere configuraties werken, maar dan ben je feitelijk geen gebruiker maar tester en is het op eigen risico.
Een halve dag stilstand is duurder dan het verschil tussen een i7/i9 en een Xeon
Een halve dag stilstand haalt ook alle snelheidswinst die je boekt met een goedkoper systeem onderuit.
Uiteindelijk is het niet zo heel relevant dat je werk 10% sneller gaat als je daardoor kans op uren stilstand en troubleshooten hebt.
Je moet heel wat halve dagen stilstaan om 10% snelheidswinst te compenseren hoor ;)

Overigens is tientallen miljoenen Core cpu's per jaar als "rommelen en testen" omschrijven behoorlijk boud. Maar ik geloof graag dat er een intensievere controle op drivers en systeembouw zit als kiest voor een duurdere variant.
De midrange 2500 series is redelijk betaalbaar en is een beetje HEDT achtig platform.
Ook wetenschappers kijken naar prijs hoor. @beerten heeft gelijk. Grootste probleem is echter geheugen.
De moederborden voor consumenten chips kunnen minder geheugen huizen. Dáár zit dan de bottleneck.

Wij vervangen onze WS echter steeds vaker door gewoon een krachtige laptop.

Development werk doen we dan op de laptop met kleine datasets

Echt zware taken gaan dan naar een lokaal of nationaal rekencluster. Bovendien hebben we daar se beschikking over b.v. H100 gpu’s, die we domweg niet individueel kunnen betalen

[Reactie gewijzigd door fenrirs op 29 augustus 2024 07:10]

Zeker de moderne laptops die genoeg koeling hebben. Wel heb ik de ervaring dat er bij zwaar rekenwerk veel verschil zit tussen chips met een verschillende TDP (i9-12950HX vs i9-12900T)
In de praktijk vaak door mensen die denken het nodig te hebben, maar dan zitten te Photoshoppen met 40 slapende cores :)

Mensen die het echt nodig hebben: Bij het renderen van video's, 3d rendering, zware parallele programmatuur, fluid simulation voor bijvoorbeeld aerodynamica of hydrodynamica, AI modellen manipuleren, dat soort dingen.
Dus ook game ontwikkelaars?

Of gebruiken hun doorgaans een ander platform?
Game ontwikkelaars hebben meestal geen zware cpu nodig, tenzij ze textures willen baken, of cut scenes maken en die tussentijds willen renderen, maar das een niche binnen de niche
Ontwikkelaars hoeven geen code te compileren?
Wat voor code compile je voor een game als je 60 cores effectief kunt benutten? En dan bedoel ik niet dat het *sneller* gaat maar dat je die dingen gemiddeld gedurende je werkweek ook daadwerkelijk meer dan 1% continu belast. Dat bedoel ik dus met mensen die denken zo'n monster nodig te hebben en dan 99% van de tijd met 40 disabled cores aan het werk zijn.
Vwb het ontwikkelen van games specifiek heb je veel meer aan een normale rappe cpu en een deftige GPU, tenzij het een game is die niet leunt op graphics.
Dat bedoel ik dus met mensen die denken zo'n monster nodig te hebben en dan 99% van de tijd met 40 disabled cores aan het werk zijn.
Als ik dit lees kost iets in UE5 soms 55 - 70 minuten om te builden..

https://forums.unrealengi...tantially-longer/619980/2
En hoeveel procent van die tijd is de CPU daadwerkelijk bezig en niet op de SSD of het OS aan het wachten?
Uit jouw link:
what size projects are we talking about here?

Medium size AA project. ~77,000 lines of code, ~17,000 assets.
Dan praten we ook wel over een projectje.. daar zou ik een zware shared machine voor inzetten als dat mogelijk is. De (financiële) resources zijn er dan ook naar.
Waarom moet de processor gemiddeld zo zwaar mogelijk belast worden?

Ik weet dat mijn laptop vaak niet zwaar belast wordt, hetzelfde voor mijn telefoon, waarom dan wel een workstation? Als je minder lang hoeft te wachten voor compile times , dan lijkt me een monster al snel prima te verantwoorden.

Het lijkt me pas relevant worden als je zo'n ding wilt uitbaten voor zijn rekenkracht.
Omdat de economische waarde van hardware wordt uitgedrukt in tijdbesparing tov runkosten tijdens de economische levensduur van die hardware.
Als je 99% van de tijd op een 60 core werkstation werkt waarvan Windows de helft of meer heeft uitgeschakeld, dan verbruik je nog steeds een hoop meer stroom dan op een machine die minder zware hardware draait, je gebruikt niet de maximale potentie van de hardware, waar wel de maximale prijs voor is betaald. Technische levensduur is niet relevant in dat geval (het argument zou dan namelijk zijn dat je er langer mee kunt doen vanwege performance overhead) maar dit soort hardware wordt na maximaal 5 jaar hoe dan ook vervangen, en vaak al na 2 of 3 jaar.
Waarom zou je als bedrijf het driedubbele uitgeven aan een processor (en de bijbehorende hardware) als hetzelfde kan met minder. Het is na afschrijving letterlijk weggegooid geld.
De beargumentatie zou zijn: Als je met deze cpu zoveel tijd bespaart dat je er het salaris (et al) van de medewerker(s) waarvoor je tijd bespaart kunt besparen, dan is het pas economisch verantwoord.
Wat een valide alternatief is, is dat je je die kosten bespaart en je medewerkers opdraagt iets leuks te gaan doen terwijl ze zitten te wachten. Je haalt namelijk veel meer efficiëntie uit een blije medewerker :)

Maar dat is een hele andere discussie

[Reactie gewijzigd door StackMySwitchUp op 29 augustus 2024 10:23]

Het is naar mijn inziens onderdeel van de discussie. De grens waarop het interessant wordt ligt veel dichterbij dan hoge bezetting of het salaris van je werknemer. Het wordt al interessant als je als werkgever meer geld verdient in die tijd dan het je kost, en wat jij zegt, een blije werknemer is ook wat waard.
Ik snap je punt (bijvoorbeeld voor een snellere laptop) en ik ben het deels eens dat het wat waard is om je medewerkers happy te houden door ze relatief rappe hardware te geven.
Rappe hardware is niet hetzelfde als een apparaat waar je met gemak een half datacenter aan VMs in kwijt kan, dat is m.i. overdreven en zonde van het geld en de resources.
Ja eens, fair play, het is inderdaad wat overkill.
Inderdaad, een zware CPU is zeker wel prettig
Ben eigenlijk wel benieuwd ja, op wat van platform game ontwikkelaars die bijvoorbeeld een game maken op de Unreal Engine 5 oid in het algemeen gebruik van maken!
Ja, maar dat is meestal niet altijd en allemaal te gelijk. Ik zie dan vaker een server met veel cores, waar meerdere mensen met RDP op werken. Dus wel veel cores, maar niet perse allleen/exclusief voor jezelf. Dat is meestal inefficient, tenzij je echt uren achter elkaar die power nodig hebt.

Ik denk dat door de jaren heen, met steeds krachtiger servers, de use case kleiner wordt. Alleen i.c.m. zwaar GPU werk (waar een server minder geschikt voor is, zeker met meerdere gebruikers en ook al niet omdat je dat ding niet onder je bureau wilt) is een workstation handig.
Ik zie dan vaker een server met veel cores, waar meerdere mensen met RDP op werken.
Kan, maar je zou denken dat dat dan ook geldt voor texture baking en rendering.
Tegenwoordig kun je juist je GPU load ook prima offloaden naar een server. Helaas zijn daar idiote licentieconstructies voor bedacht, dus in een bedrijfs-setting is dat alleen viable bij grote omgevingen.
Met ccache erop en een goede makefile doe je zelden een full compile. Althans, ik ben geen game-dev, maar game-dev is niet zoveel anders dan ander dev-werk. Als je gebruik maakt van een of andere engine is het wellicht een andere (minder slimme) workflow en moet je wel met bot geweld de boel compileren, maar ik mag hopen dat men hier ook gewoon de technieken van de afgelopen 60 jaar meeneemt.
Ik heb met ccache gewerkt, maar ook met ClearCase wink-in. Grosso modo werkt het, maar het kost een hoop disk ruimte + het werkt niet als je geen Makefiles hebt. En dat is voor Windows/VisualStudio best gebruikelijk.

Overigens heeft full compile ook voordelen: je weet zeker dat je schoon begint. Dingen als compiler en linker updates, OS updates (van systeem header files) wordt bijna nooit goed gedetecteerd door ccache (of uberhaupt Makefile c.q. compiler), omdat dingen buiten je eigen source tree normaal ook nooit in de makefile dependencies staan (soms wel). Iig met Visual Studio is dat zo'n beetje onmogelijk. Met een set SSDs en een niet al te grote code-base kun je met de normale build tools (dus zonder ccache) en de forse rekenkracht en IO mogelijkheden van een dik systeem (server of workstation) een eind komen.
Onder linux zijn de systeem headers voor ccache ook niet zo'n probleem. En full compiles doe ik op een CI machine, niet lokaal allerlei rare effecten te vermijden. En ide specific builds... shudder.. :)
Ccache werkt volgens mij -- het is al wat jaren geleden dat ik het gebruikte - de compile vlaggen en time stamps van je sources. Zou ccache ook de includes pakken van buiten de source tree, dan zou ccache of een filetracer (dat kan wel op libc) of een C/C++ compiler (of meer: de preprocessor) moeten nadoen. En dat is volgens mij niet zo.

ABI compatibiliteit breekt soms (niet vaak, eigenlijk zelden, alleen na OS upgrade) op Linux, maar versies van cc, CC, ld, ar etc neemt ccache volgens mij ook niet mee. Anyhow: het is toch min of meer specifiek/gelimiteerd tot Linux. En de wereld is groter dan dat.

En een ontwikkelaar heeft eigenlijk nooit een te snel systeem of te veel opslag _/-\o_
ccache pakt de hash van de content van de pre-processed file (kan ook zonder het pre-processen, dan mis je idd. system includes). Timestamps is wat make al doet. Dus ccache wordt in dat geval niet eens aangeroepen. En visual studio wordt ook gewoon ondersteunt, het is dat ik er niet zoveel mee doe.
Waarom niet , nightly builds compile kost best wat tijd.

Mijn game duurde ip een amd3900 al bijna 4 uur compile tijd.

Vaak is het dan een soordt van shared bak die meerdere mensen gebruiken voor workloads te assignen.
Het gaat niet altijd om performance. Vaak zitten zulke CPUs, zowel van AMD als Intel, in Workstations waar vanuit de fabrikant uitgebreide garanties en support op geboden kunnen worden. Voor een bedrijf gaat het vaak om betrouwbaarheid dan pure rekenkracht. Zij willen namelijk dat in geval van problemen ten laatste de volgende dag een nieuw werkstation opgestuurd wordt.

Er zijn tevens toepassingen welke niet goed overweg kunnen met de hybride architectuur van moderne consumer CPUs.

Een andere usecase is voor klanten die meer Cores nodig hebben dan mogelijk is op een consumer platform, maar tevens hogere kloksnelheden dan de server CPUs. Of klanten die genoeg hebben aan een 8-16 core CPU maar wel de vele PCI-E lanes gebruiken voor GPUs, AI accelerators, flash storage, Netwerkkaarten etc. Bijvoorbeeld voor een SAN op basis van ZFS en NVME heb je tamelijk dat single core performance nodig, heel veel ram en toch ook wat PCI-E lanes voor de 40/100/200/400 Gbit Netwerkkaarten.
Je praat nu grotendeels over usecases voor servers,niet workstations. Deze hardware wordt specifiek gericht op werkstations. De usecases die ik schetste komen overeen met wat jij verder aangeeft, wat wel bij een werkstation past.

Support is inderdaad een ding, maar in de praktijk wordt vaak genoeg gekozen voor een goedkopere oplossing die dubbel uitgevoerd wordt.

Bedrijven die (terecht) gebruikmaken van deze hardware doen dit meestal om 3 redenen: ECC ondersteuning, efficiënt inzetten van skilled medewerkers (wachten op taken kost geld) en compliance (bepaalde sectoren of instanties met certificeringen moeten erkende supportgaranties hebben op hun hardware)

Er is dus zeker een markt voor, maar wat ik ontzettend vaak zie gebeuren is dat één of ander marketing-figuur om een high end workstation vraagt, dit met succes weet te verkopen aan degene die de centen uitgeeft, en dan dus op een custom apparaat van 20k zit te werken die de hele dag uit zijn neus eet. Qua support verwachten ze hetzelfde (of meer) van de IT servicedesk, die geen snars begrijpt van de machine omdat deze compleet afwijkt van de rest van de omgeving (raid kaart, quad 10g ethernet etc)

Persoonlijke irritatie? nee hoor.. :+
Niet noodzakelijk, maar ergens heb je wel gelijk. Veel van deze usecases overlappen mekaar ook wel, deze chips zijn grotendeels gebaseerd op de server chips en platformen.

Wat ik vaker zie zijn workstation chips in servers die meer raw power nodig hebben, zeker voor AI toepassingen welke niet op accelerators or GPUs draaien. Denk maar aan game servers etc, dat is een andere usecases (zeker naar her fiasco met de 13 en 14th gen Core processoren).

En dat 2e tja daar heb je wel gelijk in, zeker bij grote bedrijven. Ik ben ooit meer dan een decennia lang geleden begonnen in een technisch callcenter voor kmo klanten van een ISP, en daar hadden ze allemaal een Dell Optiplex met core i7 en veel geheugen. Dat is hetzelfde verhaal, als je dit vermenigvuldigd met 100 of 1000 dan is dit ook enorm veel weggegooid geld, zeker als je je bedenkt dat deze na 2.5 jaar vervangen worden.

Ik weet wel dat men in financiële instellingen altijd opteerde voor werkstations en niet voor commerciële hardware omwille van betrouwbaarheid en compabiliteit met software. Een groot bedrijf als, ik noem maar wat, Bloomberg, gaat hun software valideren voor een handjevol workstations.
Een groot bedrijf als, ik noem maar wat, Bloomberg, gaat hun software valideren voor een handjevol workstations.
Precies, is ook een vorm van compliance. Overigens zijn bedrijven die met Bloomberg moeten werken vaak (verplicht) ISAE gecertificeerd, tegenwoordig komt DORA ook om de hoek kijken (en dan bedoel ik niet dat meisje dat kinderen Spaans of Engels leert :+) Waar o.a. je resiliency mee op orde moet zijn.
(zeker naar her fiasco met de 13 en 14th gen Core processoren).
Offtopic, maar ik verwacht binnenkort ook wel een statement over bepaalde Xeons. Zie wat intel door die chips heen jaagt qua stroom, de die-size is bijna hetzelfde, als de i7s doodgaan dan verwacht ik dat een Xeon een soortgelijk lot is beschoren.
Hip antwoord: AI
Uitgebreid antwoord: Alles waar de standaard platforms niet voldoende zijn. Meerdere GPU's, veel RAM en CPU. Denk aan wetenschappelijke simulatie en rendering.
Computational en analytical sciences bijv. Maar ook in grafische/video bewerkings industrie kan dit voordelen hebben. Of een systeem waar je veel virtualisatie op gebruikt.
Apple heeft in zn high end workstations veelvuldig de Xeon W gebruikt, en ook HP Workstations gebruiken ze.
Ik heb er zelf lang een Hypervisor op gedraaid, rete-stabiel en zeer weinig lag op de VM's. Overigens is dat setje nu te koop, wegens overstap op een 2475X.
kan je aan de AMD R9 tot 4TB aan RAM hangen?
Nee, maar aan de W3 dus ook niet, die gaat immers "maar" tot 2 TB als maximum. Alleen de zwaardere W5 ondersteunt tot 4 TB.

De W3 kan met die 2 TB uiteraard nog wel véél meer RAM aansturen dan de Ryzen 9, die niet verder komt dan slechts 192 GB.

En dan heeft die W3 ook nog aanzienlijk meer PCI-E lanes dan de Ryzen 9.

En, voor workstations erg belangrijk: de W3 ondersteunt ECC geheugen, wat de Ryzen 9 niet doet.
Daarvoor heeft AMD dan ook een hele threadripper lijn, die al ettelijke jaren elke Xeon W overklast in performance/power en specs...

Het enige probleem, het typische Intel - OEM samenwerking monopolie

om een idee te geven hoe belachelijk de situatie is:
https://www.hp.com/us-en/...l#section=Highenddesktops

ivm het geheugen op werkstations is meestal de plaats en dimm slots de beperkende factor omdat je ook nog veel andere pci-e devices wil hebben.

[Reactie gewijzigd door d3x op 29 augustus 2024 08:38]

Ryze. 9 ondersteund wel ECC, alleen unregistered en lager maximum, en minder channels

[Reactie gewijzigd door PjotterP op 29 augustus 2024 11:51]

Dat kon een 7543P ook al, inc 4tb. 1300 op t moment. En in dat kamp heb je ruimere keuze voor Meer cores, meer ram, meer sockets, meer performance per cycle (of minder natuurlijk).
Nee maar deze Xeons moet je vergelijken met de ThreadRippers, maar daar zien ik niet direct staan hoeveel TB je kan adresseren.

Volgens TPU is het 1 TB https://www.techpowerup.c...-threadripper-7980x.c3357 de PRO 7985WX kan er 2TB adresseren volgens TPU https://www.techpowerup.c...adripper-pro-7985wx.c3356

@wildhagen Ryzen is consumer, TR is prosumer/workstation :D maar dat wist je al.
Vooral als je binnen het Intel ecosysteem wilt blijven. Als je ze vergelijk met desktop cpu’s heb je wel ECC support en veel meer pci-e lanes.
En W3 support 2TB; de 9950X "slechts" 192GB
maar wat voor een usecase is er, serieuze vraag, waarbij je 2TB ram goed kunt gebruiken terwijl je maar 8 cores hebt om mee te werken?!
Is dat niet zo'n beetje als bijvoorbeeld zo'n low end videokaart met 8GB of 16GB ram, waarbij de chip eigenlijk niet krachtig genoeg om die hoeveelheid geheugen te kunnen benutten in games, omdat je, om dat ram volledig te gebruiken, je op resoluties moet gaan spelen die die chip helemaal niet aankan.
Er zijn geheugen-intensieve workloads die weinig CPU power vereisen. Neem, bijvoorbeeld, machine learning scenarios met big data; de processing doe je op de GPU maar je wilt wel zoveel mogelijk je data in het geheugen houden. En daar zit ook meteen je usecase voor ECC geheugen.

Of slecht-paralelliseerbare loads waarbij je proces over weinig threads verdeeld kan worden. Een ingewikkelde database query bijvoorbeeld. Data wederom allemaal in het geheugen om snelheid te kunnen maken maar extra cores voegen niets toe.

Afijn; op workstation niveau is er meer dan genoeg aan diversiteit in workloads te vinden....
ok, thanks voor de uitleg, ik ben helaas nog niet zo bekend met die scenarios, vandaar de vraag.
Maar, voor dat laatste zou je dan ook even de vergelijking met Epyc's of andere wel ECC cpu's van AMD moeten bekijken. Dan kom je waarschijnlijk nog steeds beter uit bij AMD.
Ryzen 9 ondersteund ook ECC, alleen unregistered, lager maximum en minder channels.

ECC zelf is hier niet de discriminant
Meer PCI-E lanes, meer RAM, ecc support, zakelijke beheer functies, etc.

[Reactie gewijzigd door Navi op 28 augustus 2024 19:55]

Volgens mij hebben die dingen meer pci lanes enz, meer geheugen support. Voor de rest geen idee waarom je deze zal verliezen ipv een normale desktop cpu.

Vroeger was een argument ecc geheugen maar dat is ook verleden tijd.
24 direct PCIe 5 lanes voor de 9950X.
112 voor de W-3500-serie en 64 voor de W-2500-varianten

9950X heeft DUAL CHANNEL.... 3500 8 channel en 2500 4 channel...

Als je veel data moet pompen van veel devices naar geheugen is er veel meer capaciteit om dit te doen bij de W series. denk aan 3d modelling of AI models.
CPU-prestaties zijn niet het enige wat telt, dit soort CPU's ondersteunen doorgaans meer RAM, geheugenbandbreedte en PCI-e-lanes.
Heb je dat niet nodig, dan is een Ryzen 9950X natuurlijk uitstekend.
Ik heb nog niet in de gedetaileerde specificaties gekeken, maar ik ga ervan uit dat je dit cpus wilt voor de extra uitbreidingen van x86 isa. Daar zullen ongetwijfeld zaken tussen zitten het interessanter maken (als in software die bepaalde uitbreidingen vereist of aanraad) om een xeon te kopen ipv een core ultra 9.
Veel meer pcie lanes, hoger max geheugen en registered / buffered ECC.

De gewone consumenten core series ondersteunen sinds de 12000 series ook ECC, zij het unregistered en alleen met een workstation mobo chipset.
Voor bedrijven dus Professioneel zijn de personeels kosten hoger voor pro workstation gebruiker en ook de software is gevalideerd voor deze platformen.
wille keurige merken componenten verzamelen die behoren samen te werken is risico.
Omdat veel componenten ook firmware en drivers bij bepaalde combinaties kunnen opduiken. ECC veel meer ram en veel IO voor fast opslag.

Bij consumenten is goed voorbeeld bijvoorbeeld geavanceerde DRM die op hardware niveau optical drive afhankelijk is. Een chinese noname dvd drive, zal grote kans niet getest zijn laat staan top firmware hebben. Dan popu A-merk optical drive. Getest en firmware van niveau. Kleine kans op DRM problemen met dat soort DRM games.
Bij workstation is certificering en validatie naast ECC een grotere iets dan prijs en performance alleen. Daar wil je kans op problemen zo maximaal uitsluiten. Want bij probleem is die werkstation gebruiker niet productief.

Zo ook consumenten nas is ECC niet gangbaar bij pro NAs worden hardware duurder is ECC gemeen goed en krijg na aRM lichte spul met weinig IO, dan desktop spul met meer io tot Xeon Epyc spul met heel veel IO je gaat dan van ARM onder de 1000 naar desktop 3000 naar 10000++ oplossingen.

EPYC naast treadripper heeft ook 4 lijnen budget Epyc en AM5 Epyc naast 3dcache zo ook hoog geklokte lage core count ,dense en standaard series. Zo ook de 2 lijnen van treadripper. HEDT en Pro.
Als je weinig cpu power nodig hebt, maar wel veel gpu power, of andere use case voor de extra connectivity.
Door de 64 pci-e 5.0 lanes kun je er 4 gpu's zonder beperkingen op draaien. Goed voor rendering of lokaal ai trainen.
Specifieke toepassingen die baat hebben bij geheugen bandbreedte (4 channels tov 2 van consumenten platforms)
Bij intel is ecc alleen voor het xeon platform.

Zelf gebruik ik voor een workstation inderdaad een Ryzen 9 7950x want de meerprijs van een professioneel platform is behoorlijk en levert voor onze toepassing maar relatief weinig op. (We zullen er iets op vooruitgaan vanwege de quad channel ram)
Klopt het verbruik van die w5-2545 wel? 310 Watt is een rare sprong vergeleken met de rest van die reeks
Moet 210w zijn (iig volgens videocardz.com)
Zal ook 210 W moeten zijn zoals zijn voorganger lijkt me.
Er lijkt een klein foutje te zitten in de infromatie box met de processors in dit artikel... Ik kan momenteel zelf aanvinken welke processors overklokbaar zijn en welke niet 😅
Leuk speelgoed als je veel geld hebt, je koopt dat topmodel en kan nog flink overklokken ook. Als je dat doet in een goede airco ruimte met professionele koeling, dan krijg je gigantische prestaties uit die 60c/120t processors.

Ik denk dat ik maar weer wat staatsloten ga kopen.
Lieve Sinterklaas, ......
En ook voor dat soort doeleinden zijn dit soort CPU's met grote hoeveelheid geheugen weer bruikbaar voor :)

Op dit item kan niet meer gereageerd worden.