Eerste benchmarks Intel Xeon W9-3495X-hedt-cpu met 56 cores verschijnen online

Professionele overklokker der8auer en systeembouwer Puget Systems hebben de eerste benchmarks van Intels nieuwe Xeon W9-3495X-processor met 56 cores gedeeld. De cpu haalt onder meer tot 70.000 punten in Cinebench R23 bij een gemiddeld stroomverbruik van 400 tot 500W.

Der8auer testte de processor in combinatie met een ASUS Pro WS W790E-Sage-moederbord, 128GB aan DDR5-geheugen en een 360mm-aio-waterkoeler. De hedt-cpu werd daarmee onder meer in getest Cinebench R23, waar de chip scores van 67.453 tot 70.079 haalde met standaard kloksnelheden van maximaal 2,9GHz op alle cores. Daarbij verbruikte de processor volgens der8auer 400 tot 500W aan stroom, met een piek van 516W.

De overklokker testte de chip ook in Geekbench met alle 56 cores op 4,2GHz. Daarbij had de cpu een stroomverbruik van tussen de 300 en 700W, met een korte piek naar 1097W. De processor haalde in Geekbench 5 een multicorescore van 53,817, waar het huidige wereldrecord stond op 48,025 punten met een Threadripper PRO 5995WX op 4,35GHz.

Puget Systems plaatste woensdag ook zijn eerste benchmarks van Intels nieuwe Xeon-line-up online. Daarin noteerde de cpu in Cinebench R23 64.738 punten. Puget concludeerde dat de nieuwe Xeon-processors goed presteren in workloads die veel cores kunnen gebruiken, maar dat de cpu's bij sommige andere workloads zoals Photoshop weer minder goed presteren.

Met deze eerste benchmarkscores zou de Xeon W9-3495X in multithreadedworkloads als rendering vergelijkbaar presteren als de Threadripper PRO 5995WX-chips, het huidige hedt-topmodel van AMD. Die processor beschikt over maximaal 64 cores en is gebaseerd op de Zen 3-microarchitectuur. AMD zou later met nieuwe Threadripper-chips op basis van Zen 4 en met maximaal 96 cores komen, hoewel het bedrijf die cpu's nog niet officieel heeft aangekondigd.

Intel kondigde zijn nieuwe Xeon-cpu's eerder deze maand aan. De processors worden gepositioneerd als spirituele opvolger van Intels vroegere Core-X-processors voor high-end desktops. De Xeon-cpu's beschikken over meer cores, PCIe-lanes en geheugenkanalen dan Intels consumentenprocessors. Het topmodel, de Xeon W9-3495X, krijgt een adviesprijs van 5889 dollar. Het huidige flagship van AMD, de Threadripper PRO 5995WX, heeft een adviesprijs van 6499 dollar.

Intel Xeon W-2400 en W-3400 slides

Door Daan van Monsjou

Nieuwsredacteur

22-02-2023 • 19:41

56

Lees meer

Reacties (56)

56
56
31
8
0
18
Wijzig sortering
Xeon is misschien een hedt cpu, maar ook een server cpu. En op servervlak kom je dan AMD's Epyc cpu tegen met 96 cores, de Epyc 9654.

Die haalt trouwens 115.000* punten ipv 65.000 en wordt nog tegengewerkt omdat Cinebench maar 128 threads ondersteunt.

* https://wccftech.com/amd-...pper-5995wx-in-cinebench/
Dit. AMD lijkt weinig haast te hebben, maar ze zouden wel degelijk een concurrent voor deze HEDT xeon's kunnen maken. Een threadripper (of pro) op basis van Genoa zou deze 56 core xeon compleet verpletteren. Hopelijk dwingt Intel ze om HEDT iets meer serieus te nemen, want de lineup is nu wel heel oud. De goedkope Intel modellen zijn ook leuk om te zien, want die opties biedt amd simpelweg niet.

[Reactie gewijzigd door B127 op 22 juli 2024 14:09]

ik vrees dat de HEDT-markt momenteel nog te klein is/te klein is geworden om er nog een lineup voor te maken, gezien hoeveel tijd en moeite ze steken in zowat al de rest en zelfs de desktop-markt niet meer hun primaire markt is
Bijna €6000 voor 70.000 punten. Een i9 13900KS haalt ook al 40.000 punten. En dat voor €750.

Value for money zijn die server cpu’s nooit geweest en zijn het nu nog niet.

Voor workstations volstaat gelukkig een i9:

Met de w680 chipset heb je zelfs ECC support. En de i9 series ondersteunen ook Virtualization Technology om VM’s van cores te voorzien.

Ben niet zeker of het gaat uitkomen maar via een dual CPU moederbord zou je die score van 70.000 nog wel evenaren voor nog nog geen €2000.

Edit: disclaimer: Xeons zijn niet weg te denken in een server omgeving waar uptime en beveiliging key zijn. De lijst van server specifieke XEON technologie is heel lang.

Maar voor een gewoon workstation lijkt een xeon overbodig. Voor een renderfarm verbind je toch de moederborden via Ethernet om de taken uit te besteden. Je kan dan best wel wat i9 pc’s koppelen.

[Reactie gewijzigd door Coolstart op 22 juli 2024 14:09]

Een i9-13900KS heeft maar 8 performance cores en 16 efficiency cores, 2 geheugenkanalen, 20 PCIe kanalen en maximum 128GB RAM en sinds Pentium 4 hebben we al geen dual-CPU moederborden meer voor 'prosumers'.

De score in een enkel benchmark is ook niet alles. De bedoeling is dat je workstations bouwt met 8 nVIDIA RTX A6000 GPUs en een half dozijn NVMe, dat ga je echt niet sleuren met een i9. Als je al 50k/jaar/computer uitgeeft voor AutoCAD/SolidWorks/Adobe licenties dan wil je ook geen clusters bouwen.

[Reactie gewijzigd door Guru Evi op 22 juli 2024 14:09]

Ligt er even aan hoe je prosumer definieert maar we hebben genoeg Dual socket borden gehad de afgelopen jaren voor de enthousiastelingen.

Bijvoorbeeld evga classified sr-2 (intel)
Het intel skulltrail platform (Intel)
Asus kgpe d16 (AMD)
Msi speedster 1 (en 2) (AMD)

De lijst gaat nog wel even door, maar onderandere deze bovenste heb ik zelf gehad of gebruikt
Ja als je twee CPU's zou hebben dan zou je inderdaad een score van 70.000 kunnen bereiken, maar het hele punt van consumer hardware is dat er geen dual socket motherboards zijn. Die zijn bijna helemaal exclusief tot the server space.

En laten we zeggen dat een render 10 minuten duurt op de XEON, als we er van uit gaan dat punten direct coroleert met snelheid dan zou het 17.5 minute duren op een i9. Dus het duurt 7.5 minuten extra per render. En als we dan denken dat de persoon misschien 8x per dag een render maakt dan is dat 1 uur. Als we dan zeggen dat de designer die achter de computer staat 50 euro per uur wordt betaalt is dat 50 euro per dag aan verspillde tijd.

Dus in deze situtatie is de extra koop kosten van de computer upfront klein vergeleken met de effienctie toename van de designer.
Cinebench test de Cinema 4D capaciteit op 1cpu maar teams renderen vaak in een Farm. Die zijn zoals al zei zijn die clients via een netwerk gekoppeld.

Er staat niemand te wachten, alles komt gewoon in een wachtrij te staan. Als je 5 x een i9 pc heb staan kan je echt wel serieuze taken aan.

Zo kan je een meerdere i9 systemen koppelen en de jobs laten renderen. Again, voor de meeste workstation workflows heb je hebt geen xeon nodig om een degelijke render PC of netwerk te maken.

Ook GPU kracht kan je via uw lokaal netwerk distribueren. Zo kan je 5x RTX 4090’s koppelen. Als je dan echt nog om kracht verlegen zit op piekmomenten dan kan je best beroep doen op cloud services.

[Reactie gewijzigd door Coolstart op 22 juli 2024 14:09]

En als de render klaar is uitprinten en er anderhalf uur over vergaderen...
Met twee xeons score van 140000 voor 12k die zo terug verdiend is afhankelijk van je werk, en twee keer zo snel. Wie koopt deze spullen anders?

Bovendien ben ik benieuwd naar scores van meerdere benchmarks, en zit er veel verschil in de twee processoren.

https://www.cpu-monkey.co...x-vs-intel_core_i9_13900k

[Reactie gewijzigd door Davidoff1976 op 22 juli 2024 14:09]

Bijna €6000 voor 70.000 punten. Een i9 13900KS haalt ook al 40.000 punten. En dat voor €750.
Het is niet alleen de rauwe performance, ook het aantal PCIe lanes op een HEDT chip is veel groter. Voor bepaalde niche workloads heel belangrijk.

[Reactie gewijzigd door GekkePrutser op 22 juli 2024 14:09]

het is maar wat je "value for money" noemt, een tractor is ook een pak duurder dan je vw golf, maar dat wil niet zeggen dat hij z'n value niet heeft. Een taak die op dit soort cpu's draait kan theoretisch ook op 5 normale cpu's draaien, maar enkel een budget DIY'er zou dat effectief willen proberen. Als je niet de doelgroep bent, dan is dit soort stellingen makkelijk te poneren, maar in de praktijk niet werkbaar.
Dit zal niet populair zijn hier:

- niet realistische koel installatie (duur)
- dit is slecht voor de lensduur van de chip
- over een paar jaar worden dit soort vermogens voor een chip niet meer geaccepteerd.

Maar men "wint" wel!

Koomeys law onderbouwt dit grotendeels, en 364 Watt bij idle blijft veel:

https://en.wikipedia.org/wiki/Koomey's_law

Ik denk dat "prestaties / Watt" een nieuwe maar in de toekomst belangrijke metriek wordt.

[Reactie gewijzigd door obimk1 op 22 juli 2024 14:09]

Je bent duidelijk de doelgroep niet . Dit bedoeld voor mensen en bedrijven die binnen x aantal maanden de kosten terug verdienen omdat ze sneller kunnen werken.

En hoezo worden deze vermogenens niet voor een chip geaccepteerd. Het gaat hier om vermogen per wat en dat is deze generatie gewoon weer toegenomen.

20 jaar geleden had je voor deze prestaties hele server racks nodig met een veel hoger totaal verbruik dan deze machines hebben. Dus ligt maar aan waar je het mee vergelijkt of je wel of niet bespaart.
Ik moet wel zeggen dat voor de performance / watt ik het idee heb dat het wat scheef is. Het gebruik in piek moment alleen al voor de CPU 1kW. Dat is echt serieus veel voor alleen de CPU, vraag mij ook heel erg af wat voor koeling hier op gebruikt moet worden. Maar gevoelsmatig heb ik het idee dat het enorm inefficient is.

Een geek bench score van 53,817 in multicore. Een M2 Max heeft een score van 14586 en dat bij een gebruik van 20Watt.

Dus 27% van de score voor 3% van het verbruik. Als ik die M2 Max zou kunnen stapelen naar hetzelfde vermogen dan zou ik een multi-core score hebben van 437.000 (uitgaande dat het gemiddelde verbruik van de Intel bij Geekbench dus 600Watt is).

Nu is alleen geek bench natuurlijk geen goede vergelijking, maar het zegt wel iets voor de performance per watt naar mijn idee.

[Reactie gewijzigd door ronaldmathies op 22 juli 2024 14:09]

Je geeft precies het probleem aan gevoelsmatig. Performance per wat is dus toegenomen bij deze cpus en flink ook ligt eraan welke benchmark je neemt maar de huidige sapphire Rapids xeons vs ice Lake zijn voordelen te
Halen van zo’n 20-100% performance verbetering bij dezelfde tdp.

Probleem is dat we op dit soort sites vaak geekbench of cinebench nemen omdat dat voor zo ongeveer iedere cpu gedraaid wordt en lekker makkelijk is. Maar ga je verder inzoomen dan heb je database, ai, fluid modeling en andere toepassingen en daar zijn de consumenten cpus of arm producten ook die van Apple totaal nog geen partij .

Om maar niet te spreken van een totaal onvergelijkbare feature set qua geheugen, pcie lanes , ai acceleration die je allemaal op een consumenten of prosumer platform niet terug vindt 🙂.


Laatste punt voor de absolute top in performance betaal je altijd extreem veel in geld , koeling , vermogen etc. maar voor de juist gebruiker is dat het geld waard.
Bijv in mijn geval koop ik ieder jaar een compleet nieuw systeem met de snelst mogelijke onderdelen voor een bepaald budget omdat voor mijn werk dat meteen in besparing in tijd en dus geld omgezet wordt. Dat zullen en moeten consumente niet doen . Maar ik ben wel de afgelopen 10 jaar van 3 machines onder mijn bureau/of in rack naar een machine gegaan die ook nog eens extreem veel simpeler in inrichting is en sneller is dan mijn laatste multi machine setup .
Kost dat veel geld klopt maar levert het ook makkelijk op . En stroom verbruik ligt in totaal lager hoewel de pieken op een outlet inderdaad iets hoger zijn.

[Reactie gewijzigd door CrazyBernie op 22 juli 2024 14:09]

Laatste punt voor de absolute top in performance betaal je altijd extreem veel in geld , koeling , vermogen etc. maar voor de juist gebruiker is dat het geld waard.
Bijv in mijn geval koop ik ieder jaar een compleet nieuw systeem met de snelst mogelijke onderdelen voor een bepaald budget omdat voor mijn werk dat meteen in besparing in tijd en dus geld omgezet wordt. Dat zullen en moeten consumente niet doen . Maar ik ben wel de afgelopen 10 jaar van 3 machines onder mijn bureau/of in rack naar een machine gegaan die ook nog eens extreem veel simpeler in inrichting is en sneller is dan mijn laatste multi machine setup .
Kost dat veel geld klopt maar levert het ook makkelijk op . En stroom verbruik ligt in totaal lager hoewel de pieken op een outlet inderdaad iets hoger zijn.
Ik snap je punt, misschien moet jij per jaar zoveel uitgeven om de winst lager te maken(minder belasting te hoeven betalen) en dus hogere kosten, en zo dus elk jaar met de nieuwste komt.

Maar je kan me echt niet vertellen dat hardware van vorig jaar jouw werk van dit jaar niet aan kunnen dat kan je me niet vertellen. Het zelfde geld voor mobiele telefoons. Vroeger was het een drama ja. Nu met de huidige tijd de telefoon van vorig jaar is nog even snel als de telefoon van dit jaar of heeeeeeeel iets langzamer heeeeeeeel iets. En die heeeeeeeel iets gaat jouw werk echt niet erop achteruit gaan

[Reactie gewijzigd door theduke1989 op 22 juli 2024 14:09]

[...]
Maar je kan me echt niet vertellen dat hardware van vorig jaar jouw werk van dit jaar niet aan kunnen dat kan je me niet vertellen. Het zelfde geld voor mobiele telefoons. Vroeger was het een drama ja. Nu met de huidige tijd de telefoon van vorig jaar is nog even snel als de telefoon van dit jaar of heeeeeeeel iets langzamer heeeeeeeel iets. En die heeeeeeeel iets gaat jouw werk echt niet erop achteruit gaan
Ligt maar net aan waar de bottle-neck zit.
Dit soort systemen heeft nu eindelijk 8-channel geheugen.
Dus stel je bottleneck voor die ene toepassing zit 'm in dat je echt meerdere TBs aan RAM nodig hebt, dan kan dat net een enorm verschil maken in performance.

Tuurlijk dit is een redelijke niche markt, waarbij zo'n upgrade ook echt te verantwoorden is in termen van kostenbesparing of mogelijk maken van bepaalde toepassingen. Maar dergelijke situaties zijn er echt wel meer dan je zou verwachten.
Ik denk dat het precies het omgekeerde is veel bedrijven en organisaties kijken vooral naar de eenmalige kosten. En niet naar de verloren kosten in het kader van productiviteit , dus wordt er maar iedere x jaar geinvesteerd in nieuwe hardware.

Wat levert het dan op bedrijven die externen laten werken op relatief onvoldoende laptop of desktop maar wel 160 euro per uur aan de medewerker betalen. Kun je daar een paar % snelheid mee boeken waardoor die persoon ook maar een beetje efficienter is en je verdient dat extreem snel terug.
Yep, "Penny wise, Pound foolish" kom je overal tegen... helaas.
De upgrade wordt natuurlijk alleen gedaan als het nut heeft. En zeker niet om maar geld uit te geven.

En hardware van vorig jaar kan echt het werk nog wel aan.
Het gaat erom of het werk voldoende sneller gaat met een nieuwe machine en is dat voldoende dan wordt die gekocht.
Idle 364 Watt, met niks doen verbruikt dit al veel.
Dit zal niet populair zijn hier:
Ik weet niet wat je exact bedoeld met "hier", maar als hier consumers en prosumers is, tja, lekker belangrijk, het is een workstation CPU, bedoeld voor de zakelijk markt, en daar kijkt men iets ander tegen de "nadelen" die jij noemt aan.

[Reactie gewijzigd door Zer0 op 22 juli 2024 14:09]

?

Als je idle al 364 Watt trekt, zakelijke markt of niet dit is redelijk inefficiënt.

Koomeys law geeft uitleg:

https://en.wikipedia.org/wiki/Koomey's_law

[Reactie gewijzigd door obimk1 op 22 juli 2024 14:09]

Mijn Vray en Corona plugins willen graag kennismaken met deze cpu :)
Hoewel we nu CPU's en GPU's zien die steeds meer verbruiken, gaat de performance per watt nog steeds de juiste kant op. Vroeger had je voor zulke dingen als dit meer CPU's die per stuk een lager verbruik hadden, maar waarbij het totale verbruik qua performance hoger lag. Liever 56 core's met 500W dan 10 losse CPU's met totaal minder core's en 100W per stuk.
Inderdaad, het gaat erom hoeveel 'werk' je gedaan krijgt voor de stroom die je ervoor verbruikt. En dan hopelijk is het idle verbruik zo laag mogelijk.
Ja en nee. Vroeger waren ontwikkelaars verplicht om efficiënter te programmeren dan nu. Toen werd er echt gekeken hoe je optimaal alle benodigd cpu cores kon benutten met minimale hardware. Tegenwoordig worden software geschreven met heleboel frameworks, bijvoorbeeld electron. Electron is een framework waarmee je JavaScript code real time kan laten omzetten naar applicatie interface. Heel inefficiënt, wat zich uiteindelijk vertaald naar watt verbruik.

[Reactie gewijzigd door Xieoxer op 22 juli 2024 14:09]

De marginale prestatiewinst door "efficiënt" programmeren die jij beschrijft staat niet in verhouding tot de extra hoeveelheid tijd en middelen die daar naartoe moeten gaan, als het je uren aan optimalisatie van je code kost versus enkele minuten (hooguit) aan CPU-tijd dan is de keuze snel gemaakt.

Daarnaast, als je 56 cores nodig hebt (en dus een threadripper/Xeon W overweegt), dan ga je met efficiënt programmeren echt niet het verschil in corecount kunnen weg-optimaliseren. Wat je zegt klopt ook wel, maar de relevantie is gering binnen de werkelijke usecases van deze CPU's.
vergeet niet dat die enkele minuten keer op keer tellen en je de optimalisatie slechts 1 keer tijd kost.

In één van onze pipelines zat een. EM algoritme, in python geschreven. Het was een dag werk om de Julia implementatie, die 15x sneller is, te maken en in de pipeline te zetten. Op onze hoeveelheid samples afgelopen maand dus 2000x17minuten tijdswinst. Noem dat maar marginaal

Optimalisatie is best OK
beetje offtopic, maar wat is EM algoritme en hoe is Julia 15x keer sneller dan python? Is het niet better dan in C++ doen?
Expectation maximisation

Julia is hiervoor bij uitstek geschikt, al was het maar omdat python code relatief eenvoudig is om te zetten in Julia. Julia is vaak net zo snel als C(++) en soms zelfs sneller.
Efficiënt programmeren marginaal? Kijk eens naar de prestatiewinsten die GPU driver-optimalisaties af en toe geven - zonder extra stroomverbruik of wat dan ook. Efficiënt programmeren is het tegenovergestelde van marginaal.
Als je 56 cores nodig hebt kun je met een 10% optimalisatie een load draaien waar je anders 62 cores voor nodig had gehad.......

Juist als je 56 cores nodig hebt is optimalisatie enorm belangrijk! Als je met 1 core vooruit zou kunnen maakt optimalisatie geen drol uit. Je kunt tenslotte toch geen CPU met minder dan 2-4 cores krijgen. Maar als je al het onderste uit de kan moet halen dan hoop ik dat de software dat ook doet. Anders ben je gewoon geld aan het weg gooien.
Grappig dat je Electron noemt; dat framework is gebouwd op de rendering engine van Chrome wat een van de beter geoptimaliseerde browsers is. Natuurlijk kan het sneller zonder die indirectie, en het zal vast wat meer geheugen nodig hebben maar in veel gevallen is Electron niet de bottleneck van je systeem. Er zijn ook client applicaties die door voortschrijdende featurezucht langzaam veranderen in een soort tweederangs webbrowsers en die zijn vaak lang niet zo efficient geprogrammeerd.

Vroeger werd er ook massaal inefficient geprogrammeerd. Of op de verkeerde plekken geoptimaliseerd.
Ook zo, maar je krijgt ook best wel heel veel performance tegenwoordig.

Als je ziet hoe sommige spellen er nu uit zien :9 dan snap ik ook wel dat daar echt wel wat paardenkracht voor nodig is.
Inderdaad met efficiëntie is veel winst te halen maar je hoeft daarmee minder ver te gaan dan vroeger.
Bijv de winst tussen c# en cpp valt in veel gevallen in het niet tegen voor de extra effort.
Maar bijv van Python of typescript omschrijven naar een efficiëntere taal maakt veel verschil .

Ook in de code zelf zijn optimalisaties zeker interessant maar hoeft niet zo extreem als vroeger.
Wel beetje jammer dat we letterlijk niks aan het plaatje hebben welke is toegevoegd aan dit artikel. Ik kan er in ieder geval niks uit halen.

Ik bezit zelf de Intel Xeon W-3275M processor en ben zeer te spreken over deze cpu en sta dan ook te popelen om een van deze cpu's te mogen bemachtigen. Helaas zal dat niet meer icm een Mac Pro gaan vrees ik.
Dit is een server CPU, de beoordeling op cinebench of geekbench leggen? Het gaat bij 112 Threads vooral om I/O, hoe snel kan je hoeveel data aan hoeveel clients ter beschikking stellen. Hoeveel data kan parallel worden doorzocht, geanalyseerd. Een vrachtwagen beoordeel je ook niet hoe snel hij is rond een track.
Hier zou je goed op kunnen gamen!! :*)
Als je graag betaalt voor de stroomfactuur. Dure game pc in verbruik en hardware.

Intel mag toch eens iets gaan doen aan het slurpende stroonverbruik van het x86 platform. O-)
Is geprobeerd, maar niet echt gelukt zie https://en.wikipedia.org/wiki/Itanium

En Apple slaat al een deuk in veel x86 use-cases met hun M chips, wellicht dat dit in de toekomst ook zijn weg vind naar Windows platforms.
Er bestaat al een Windows voor ARM architectuur, maar naast Apple zijn er nog niet veel leveranciers die een PC-like prestatienivo neerzetten (en aangezien Apple zo'n beetje de complete 3nm output voor het komende jaar opgekocht heeft zal dat ook nog even duren...)
Totaal niet. Welke game haalt het maximale uit en is uberhaupt getest op een 56 core processor?
Waarschijnlijk ga je tegen veel randgevallen aan lopen om het nog maar niet te hebben over features als ECC wat compleet nutteloos is voor gaming.
Linus heeft een Epyc Milan 64-core getest voor o.a. gaming. Loopt geweldig!
https://youtu.be/tbiPapykbxQ?t=527 _/-\o_

[Reactie gewijzigd door LordLuc op 22 juli 2024 14:09]

Maar loopt het 64x zo geweldig? ;)
Het aanduiden van deze CPU met 'HEDT' lijkt me nogal een misvatting, zowel bij derbauer als bij de tweakers.net redactie. Het betreft een workstation CPU in de 3XXX series.
De grens tussen HEDT en workstation is best een beetje wazig. Zeker met de marketing van intel die met alle winden mee waait.
Intel noemt dit zelf ook geen HEDT maar gewoon enterprise xeon workstations. Die zijn ook niet ‘jaren’ weggeweest. De W-3300 series (10nm icelake) zijn van eind 2021 maar dat lijken de meeste mensen gemist te hebben.

De laatste Intel HEDT waren ‘core’ branded midrange xeons w-2100 en w-2200 series maar dan met ECC uitgeschakeld en ivm unbuffered geheugen ook minder max RAM en een andere chipset.

[Reactie gewijzigd door PjotterP op 22 juli 2024 14:09]

Het maakt wel een verschil dat het nu "officieel" de opvolgers van de HEDT-processoren zijn, dat maakt het bijvoorbeeld makkelijker voor moederbordfabrikanten om moederborden te gaan ontwerpen gericht op de veeleisende desktopgebruiker zonder daarover ruzie met Intel te krijgen.
wie zegt dat dit officieel HEDT opvolgers zijn?
Eindelijk eens een CPU waar MSFS eens goed op gaat lopen hoop ik :-)
Natuur leert ons dat grote dinosaurussen gaan het niet overleven, maar heleboel van klein simpel efficiënt beestjes is de beste weg.
Zeg dat maar tegen de Dodo

Op dit item kan niet meer gereageerd worden.