Intel introduceert Xeon Cascade Lake-serverprocessor met 56 cores

Intel introduceert de tweede generatie van zijn Xeon Scalable-processors voor servers. De Cascade Lake-Xeons hebben meer cores en hogere kloksnelheden dan de vorige generatie. Het topmodel is de Xeon Platinum 9282 met 56 cores.

De Xeon Platinum 9200-serie bevat het nieuwe topmodel in Intels lijn van serverprocessors. Om tot 56 cores te komen plakt Intel twee Cascade Lake-dies met ieder 28 cores aan elkaar. Eind vorig jaar maakte Intel al bekend met nieuwe Cascade Lake-processors te komen, maar toen sprak de fabrikant nog van maximaal 48 cores. Nu zijn de definitieve specificaties bekend.

Intel geeft de nieuwe serverprocessors twaalf geheugenkanalen met ondersteuning voor ddr4-2933-geheugen en iedere cpu heeft de beschikking over veertig pci-e 3.0-lanes. Optane-ondersteuning ontbreekt bij de Platinum 9200-serie. Volgens AnandTech is dat omdat de processors bedoeld zijn voor situaties waarin niet het geheugen, maar cpu-kracht de beperkende factor is. Intel verkoopt de processors niet los en maakt geen prijzen bekend. De cpu's worden als bga-package geleverd aan fabrikanten die er complete servers omheen bouwen.

Cores/threads Kloksnelheid Turbofrequentie L3-cache Tdp
Xeon Platinum 9282 56/112 2,6GHz 3,8GHz 77MB 400W
Xeon Platinum 9242 48/96 2,3GHz 3,8GHz 71,5MB 350W
Xeon Platinum 9222 32/64 2,3GHz 3,7GHz 71,5MB 250W
Xeon Platinum 9221 32/64 2,1GHz 3,7GHZ 71,5MB 250W

Intel Xeon Scalable 9200

Naast de nieuwe Xeon Platinum 9200-processors introduceert Intel ook een nieuwe Platinum 8200-serie. De processors in deze serie hebben maximaal 28 cores en gebruiken de reguliere lga3647-socket. Verder zijn er nieuwe Gold 6200-, Gold 5200-, Silver 4200- en Bronze 3200-series. Op de Silver- en Bronze-series na, krijgen alle nieuwe serverprocessors ondersteuning voor Optane-geheugen.

Verder hebben de Cascade Lake-cpu's over het algemeen meer cores en hogere kloksnelheden dan dezelfde processors van de vorige generatie. Vorig jaar lichtte Intel al de hardwarematige wijzigingen toe die zijn toegepast voor bescherming tegen de Spectre- en Meltdown-kwetsbaarheden.

Er komen speciale uitvoeringen met ondersteuning voor grote hoeveelheden werkgeheugen. Modellen met een L achter de naam, die staat voor Large Memory Support, ondersteunen tot 4,5TB. M-versies, ondersteunen tot 2TB en de reguliere varianten kunnen overweg met maximaal 1,5TB ram.

Intel brengt diverse aangepaste versies uit, waaronder N-modellen die voor netwerkvirtualisatie zijn geoptimaliseerd en T-varianten die een lange levensduur hebben. Ook komen er S-versies met optimalisaties voor zoekfunctionaliteit. F-varianten maakt Intel niet meer. Bij de vorige generatie Cascade Lake-processors waren dat de uitvoeringen met Intels Omni-Path.

De nieuwe Cascade Lake-serverprocessors van Intel worden net als hun Skylake-voorgangers gemaakt op een 14nm-procedé. Ze krijgen later dit jaar concurrentie van AMD's tweede generatie Epyc-processors, die gebruikmaakt van 7nm-chiplets en in uitvoeringen met 64 cores beschikbaar komt.

Intel Xeon Cascade Lake

Door Julian Huijbregts

Nieuwsredacteur

03-04-2019 • 11:32

84

Reacties (84)

84
83
62
6
0
14
Wijzig sortering
Het is maar de vraag welke server fabrikanten de 9200 serie gaan aanbieden.
Ze zijn verplicht standaard Intel mainboards af te nemen en te gebruiken dus integratie met de eigen management suites is niet/slecht mogelijk. (Dell iDrac, HP ilo etc)

Verder is 400 Watt TDP wegwerken is een probleem.
Normale server luchtkoeling gaat tot ongeveer 250 Watt.

Deze machines vragen dus waarschijnlijk een volledig vanaf scratch ontworpen chassis met extra koeling.
Verder zal de oplage extreem laag zijn waarbij het maar de vraag of je de kosten voor het ontwerp kunt terug verdienen.

Ik kan me dus niet voorstellen dat veel van de grote server fabrikanten deze gaan aanbieden en dit zal meer een prestige project van Intel zijn geweest.
Puur een CPU om niet helemaal een performance flater te slaan wanneer AMD straks met ROME komt.
Ik verwacht dat die echter ongeveer dezelfde performance gaat leveren voor de helft van de power.
Aan de andere kant vermoed ik dan weer dat Intel waarschijnlijk hoopt op een Amazon/Intel/Facebook formaat partij die besluit deze chips af te nemen. Dit soort monster processors zijn voor deze partijen eerder interessant omdat zij nu eenmaal zulke enorme aantallen systemen hebben draaien dat als zij die met 20% kunnen terug brengen (zelfs alleen voor een bepaalde toepassing) dat de ontwerp kosten er nog uit te halen zijn voor ze.

De rest van de wereld ie eigenlijk altijd te klein om hier echt gebruik van de maken, er zijn vast wel wat banken en of overheidsinstellingen die zulke systemen kunnen gebruiken maar zo als je al aangeeft de kosten van zo'n systeem door de beperkte afname en de hoge ontwerp kosten zullen waarschijnlijk dusdanig zijn dat zelfs overheden niet tot aanschaf zullen overgaan of alleen in zeer kleine aantallen zullen kopen.

Maar als je bijvoorbeeld Google (dat zijn eigen servers ontwikkeld) bent en je hebt een paar honder duizend servers draaien die aan vervanging toe zijn en je kan het aantal machines flink terug brengen of de hoeveelheid machines gelijk houden en de rekenkracht flink verhogen.dan kan dat nog wel ens voordelig uitpakken zelfs als je dan een nieuwe server moet ontwerpen.
Als je bedenkt dat als een redelijk grote bank besluit 10% van de servers binnen een relatief kleine tak van de bank uit te zetten en je ziet dan dat men het heeft over 300.000 servers. Dan kan je je voorstellen dat als Google echt niet schrikt van een project met 1.000.000 servers ls je daar 10 to 20% kan besparen dan konden de ontwerp kosten nog wel eens erg klein zijn in het gehele kosten plaatje.
De voornaamste concurrenten (voor Linux-based servers) voor deze ultra-high-end Xeons zijn de POWER9 en SPARC M8 chips, dat zijn ook geen chips die in enorme aantallen worden gebakken.
Verder zal de oplage extreem laag zijn waarbij het maar de vraag of je de kosten voor het ontwerp kunt terug verdienen
Voor de klanten ook, ik zie net de prijzen (Mensen met beperkt budget: voor de zekerheid even armleuningen vasthouden:)

9282 - $20 530
9242 - $15 493
9222 - $10 280
9221 - $9 342

Verder kan je ze kennelijk alleen op Intel-moederbord kopen, ben bang dat die nog niet inbegrepen is.

Paar dollars lichter, maar goed, dan kan je veurt wel fatsoenlijk Crysis spelen ;)
> dan kan je veurt wel fatsoenlijk Crysis spelen ;)

Leuke aanname, maar dat moet nog maar bewezen worden :P
400 Watt TDP... ;( Met zulke waardes moet je het data center gaan verbouwen ivm de koelingscapaciteit :P
Ja inderdaad, maar ze hebben ook de S9200WK-Server gelanceerd die je erbij moet kopen waar ze met vloeistof of "high velocity air cooling" werken voorzien van 3 x 1600W of 3 x 2100W voedingen en zo te zien maximaal 2 CPU's x 4 nodes = 8CPU's in 2U wat neerkomt op 448 cores / 896 threads met het topmodel.

Since the Xeon Platinum 9200 processors are not offered in a socketed form, Intel has developed its own server hardware, which will be offered through its partners. These are water- or air-cooled servers with 2U and 4U height units.
Two Xeon Platinum 9200 processors will be paired with a different number of U.2 SSDs, M.2 modules, and PCI Express accelerators. Depending on the equipment, three power supplies, each with 1,600 or 2,100 W, are used. 2x 80 mm fans plus 3x 60 mm fans provide sufficient fresh air supply. Depending on whether the processors are water-cooled, the fan configuration can also be configured differently.


https://www.hardwareluxx....mit-bis-zu-56-kernen.html
Aan de andere kant kan je meerdere servers vervangen door 1 exemplaar. Je ziet het effect daarvan ook al jaren bij vele bedrijven: steeds minder ruimte in nemen in een DC. Minder servers en compactere storage voor meer rekenkracht.
Dat klopt maar je krijgt wel issues met je density. Er kunnen zoveel van deze CPU's in 1 rack dat je het of niet kan voorzien van stroom of niet kan koelen. Gevolg zijn allemaal kwart/half gevulde racks wat natuurlijk zonde is.

Enkel moderne datacenters geschikt voor dit zware spul kun je er echt mee vullen.
Dat niet alleen. Wat denk je van licentiekosten van applicaties waarbij je alle aanwezige core's moet voorzien van een licentie. Ik snap dat je door deze density minder servers nodig hebt, en dat dit dan minder infra kost. Maar als je licentiekosten explosief toenemen, is het voordeel van zoveel cores wellicht niet eens zo gunstig.
Dat is het ook... wij hebben onlangs ook 2x 4 servers vervangen door 1 met een veel krachtigere cpu. Onder de streep is het zelfs makkelijker te koelen, ook omdat er nu minder in de racks zit en alle overigen apparatuur dus ook wat meer ruimte heeft om te 'ademen'. En dat met bijna 50% performance increase en we besparen op de stroomrekening. Dat is wat men toch wel vaak vergeet om het ook naar de praktijk terug te rekenen.
met als groot risico dat je nu een single point of failure gecreerd hebt....

[edit]
hoezo ongefundeerd, het is volledig gebaseerd op wat jij hierboven gepost hebt, letterlijk: "wij hebben onlangs ook 2x 4 servers vervangen door 1".

Tevens is het, mi, wel relevant. Het kan inderdaad een voordeel zijn om het aantal servers terug te brengen, met meer capaciteit per server, er is dan immers minder overhead, oa qua onderhoud. Een voordeel van meerdere servers is dan weer dat je minder capaciteit verliest als er een uitvalt.

bv. eerst heb je 4 servers, als er een uitvalt zit je dus op 75% van je capaciteit. Dit betekent, dat als je beschikbaar wilt blijvem je aan 75% genoeg moet hebben. Breng je dit terug naar 2 servers met dubbele capaciteit, dan zit je bij uitval van 1 server op 50%. Dat betekent dus dat je aan 50% van je capaciteit genoeg moet hebben. Dat is een wezelijk verschil dat nogal eens vergeten wordt bij het consolideren naar minder servers (ik beweer nergens dat jij dat ook gedaan hebt)

[edit2]
Kudos voor het tijdstip van posten :)

[Reactie gewijzigd door borft op 23 juli 2024 03:42]

Zoveel zien gebeuren en er word altijd terug gegaan naar redundantie.Het is allemaal rozegeur tot de boel eruit gaat.
exact mijn punt :) 2 servers met 200% capaciteit is niet hetzelfde als 4 servers met 100%!
Het grootste risico is dat jij aannames doet... dat zijn echt niet onze enige servers 8)7 Aub dergelijke totaal ongefundeerde opmerkingen achterwege laten, gaat echt nergens over.
Ik vind het niet eens zo veel voor 56 cores.
7x een octacore of 14x een quadcore processoren gebruiken veel meer energie.
behalve dat je het hier over de allerbeste cores hebt (die het energie zuinigst uit de binning komen) en ook nog eens over de baseclock. Als je naar de curve van die octa cores en quadcores gaat kijken verbruiken die bijna niks meer als je de base clock ook zo ver omlaag haalt. Iedereen die wel eens wat geoverclocked heeft zal weten hoe snel je veel meer energie gaat gebruiken.
Klopt, maar die nemen veel meer sockets in een rack op. Als iemand z'n quad cores 1 op 1 vervangt door die 56-cores heb je serieuze uitdagingen. Dan zou het tdp van 95W x 14 = 1330W naar 400W x 14 = 5600W gaan. Slechts 4300W aan extra af te voeren warmte :+ .

[Reactie gewijzigd door WallyPower op 23 juli 2024 03:42]

Maar dat doet niemand tenzijn de capaciteit ook uitgebreid moet worden.
Idd en wat een airflow zal je nodig hebben om deze koel te houden !
Ook dat kan passief ;).
Waterkoeling en een enorme radiator en je zal het passief kunnen koelen.
Ik vraag me af of het gevaarte met luchtkoeling geleverd kan/zal worden. De zwaarste threadrippers produceren zo'n 180 watt, gezien hoe Intel met TDP omgaat zal het netto misschien wel 2,5 keer zoveel warmte produceren ...
Passieve waterkoeling, zonder pomp dus? Ik ben bang dat je met natuurlijke convectie niet 400W gekoeld krijgt van de oppervlakte van een heatspreader ;).
Nee, ik denk dat ie zonder ventilator bedoelt. Met een radiator maatje dieselauto horizontaal gemonteerd. Dat zou wel kunnen lukken ook denk ik.
heb je nog steeds een pomp nodig, en dus is het actief
Er werd gemeld dat er twee uitvoeringen komen
- luchtgekoeld zonder storage mogelijkheden
- vloeistof gekoeld met storage mogelijkheden

Maar gezien de BGA constructie en de hierdoor beperkte configuratie mogelijkheden zul je er waarschijnlijk weinig meer van horen.
Ga je kijken naar de 6 of 8000 serie CPU's, dan heb je ineens wel storage mogelijkheden en daarbij ondersteuning voor FPGA, GPU etc etc etc. Qua cores doen die ook nog eens niet onder voor de 9000.
Ik zie al niet veel 8000 modellen, laat staan dat er een usecase is voor een 9000...
minimaal twee waterchillers 8)7
Net zoals Intel deed met de 28-core 5ghz overclock (link)
Of de warmte wordt opgevangen en getransporteerd naar de kantoren of de buren. ;)
Die kant moeten we ook op.
400w is niet zo heel veel, een beetje haarfohn doet makkelijk het 4 tot 5 voudige.
Maar heeft dan ook veel meer luchtverplaatsing en een hogere werkingstemperatuur :+ Oh, en je hoort hem. Dat laatste is niet ernstig voor servers, maar die houden niet van temperaturen boven de 100 graden...
En een fohn staat niet 24/7 aan.
Grappig dat Intel nu ook dies aan elkaar gaat 'plakken', terwijl ze daar eerder AMD voor belachelijk maakten en er niks in zagen.
Dat deden ze al met de goeie ouwe Core2Quad 6X00, die stiekem 2 aan elkaar geplakte C2Ds waren. Ook later hebben ze dat nog een paar keer gedaan.
Ach, het is maar wat je marketing ervan maakt denk ik. Ik betwijfel of de technici het ook een slechte oplossing vonden, of em gewoon niet werkend kregen.
De Core2Quad komt uit 2007.
Daarvoor zelfs (in 2005) hadden ze de Pentium D 900 series wat niks meer was dan twee Pentium 4 Presscot cores die aan elkaar geplakt waren. Dat was voor Intel de enige manier om toentertijd een dual core cpu te maken. AMD had hun Athlon 3800 x2(tnx @etabak ) als tegenhanger, die toen al wel uit één die bestond.
Plaatje van de Pentium D: https://proxy.duckduckgo....ews050106_2dujour.gif&f=1
https://en.wikipedia.org/wiki/Pentium_D

[Reactie gewijzigd door Theo op 23 juli 2024 03:42]

Bedoel jij niet de 3800 X 2 van AMD, de 3500 was single core d8 ik.
De 3500 was alleen in singlecore verkrijgbaar ja, de X2 hield zich aan getallen deelbaar door 200. De 3600+ was destijds de traagste. Zie ook wiki.
inderdaad. Ik heb beide processors nog gehad :)
De Pentium D en Core Duo waren hetzelfde, respectievelijk twee Pentium 4 dies en 2 Pentium M dies aan elkaar geplakt.
Vindt het allemaal maar een wasse neus.
Specs en opbouw zeggen alleen iets als de real word performance van een bepaalde techniek bekend is.

Bijvoorbeeld de AMD Zen en Zen+ presteren x hoeveelheid punten in bepaalde tests bij 3.2 ghz.
Dus een processor met dezelfde techniek en hoeveelheid cores scoort bij een 10% core speed increase ruw weg 10% meer.

Dus ik ben benieuwd hoe deze CPU's zullen presteren for real world workloads.
Vanaf dat moment kun je pas zeggen of het een 'domme keuze' is geweest om die weg in te slaan.
je was me net vvor :) ik had echt zoiets van....wait a minute.....was Intel niet AMD proberen in de zeik te zetten en er niks in ziet om aan elkaar te plakken?!
Oh, dan gaan gaan ze zeker in de reviews ook de helft van de cores van de Xeon uitzetten, net zoals ze met de Ryzen 2700X hebben gedaan, voor de benchmarks. Of wacht... ;)
Iedereen valt zo over die 400W
Ik vind dat toch nog wel mee vallen..
de Platinum 8280 zit met 28 cores volgens mij boven de 200W
Dus als je de cores echt nodig bent, dan is het toch kwa wattage gewoon beter om een 56 core te nemen?
(wat volgens mij gewoon van die 28 cores aan elkaar geplakt is)

Als naar puur de W per core bekijkt is die 56 gewoon king...
(dan zijn die 32 cores een stuk slechter)
De Intel® Xeon® Platinum 8180 (vorige topmodel) heeft een TDP van 205 watt. Je stopt er hier 2 van in een server van 1 rack unit. 205 +205 + 100 (andere componenten) = 510 watt per rack unit.
Bij deze Intel® Xeon® Platinum 9282 zit je aan een TDP van 400 watt per processor. In een 2 CPU, 1 rack unig geeft dit 900 Watt per unit.
Een rack is 42 units hoog, een rack vol met servers met de 8180 CPUs heeft een TDP van 21420 watt per rack. Bij de 9282 is dat al 37800 watt per rack. Er wordt dus 76% meer hitte gegenereerd op dezelfde opppervlakte in een datacenter. Dit kan dus een serieuze impact hebben op de benodigde koeling van het datacenter.
En deel het daarna eens door de totale rekenkracht en kijk dan eens wat de performance/watt is.
Zul je zien dat die nieuwe CPU efficiënter is, je hebt tenslotte effectief minder racks nodig voor dezelfde performance.
Dat klopt zeker, je hebt minder racks en minder ruimte nodig voor dezelfde performantie. Maar de vraag naar processorkracht stijgt vele malen rapper dan de efficientiewinst van CPUs.

Ondanks dat er elk jaar efficientere CPUs zijn en de koeling elk jaar efficienter wordt, blijft het stroomverbruik door datacenters in België en Nederland sterk stijgen.
huh?
Maar nu stop jij er plotseling ook 2 van de CPU's in
Maar dat is toch totaal geen eerlijke vergelijking?
Vergelijk nu gewoon 2x een 8180 tov 1x een 9292 ...
Dan heb je dezelfde cores op een kleiner iets..
Sorry, ik wist niet dat je op enterprise niveau iets kon doen met een CPU zonder server. Wat ben ik toch dom!

Niemand gaat ooit een Xeon Platinum CPU in een single socket server steken ...
Dat zal inderdaad niet heel snel gebeuren, maar mogelijk wel dual socket waar "vroeger" (lees vandaag de dag) een 4 socket systeem deployed zou zijn of een quad socket waar nu een octo socket deployed zou worden.
Dat staat er helemaal niet. Er staat:
This is double the count of AMD EPYC 7601 which has 32 cores/ 64 threads clocked at 2.2/3.2 GHz with 64MB L2 cache running with 180-watt TDP.
De huidige Epyc 7601 heeft inderdaad een 180W TDP. Maar ik dat hele artikel staat nergens dat Rome een TDP krijgt van 180W.
400W voor 56 cores is helemaal niet slecht als je het per core bekijkt.
Wel als AMD 180-watt TDP op hun 64 core heeft. Hint, dat hebben ze: https://www.hardwarebbq.com/amd-epyc-2-sisoft-sandra/
Die 180-watt TDP is voor de 32 core EPIC (Zen 1). TDP waardes 64 core EPIC (zen 2) is nog onbekend.
Exacte waardes staan nog niet op papier, informatie van AMD en leaks wijzen er echter op dat stroomverbruik (bij dezelfde prestaties) op 7nm ongeveer gehalveerd is. Wie weet lukt het Intel om de prestatiekroon in handen te houden. Stroomverbruik, wat zeer belangrijk is in de datacenters kunnen ze echter in de verste verte vergeten.
Ik verwacht eerlijk gezegd ook dat het stroomverbruik redelijk doorslaggevend zal zijn qua verkoop aantallen. Misschien nog niet zo snel bij de standaard pizza dozen van Dell en HPE maar juist bij de Hyperscalers. AWS is al afnemer van de eerste generatie EPIC cpu's in zijn EC2 platform en daar zie je bijvoorbeeld dat z'n instantie al 10% goedkoper is dan een Intel EC2 instance (bron). Waarom? Omdat deze "compute" resources minder kosten met zich mee brengen voor een AWS. cores/stroomverbruik/ruimte/inkoop.

Dit lijkt me nog een goed moment om AMD stock te kopen (voor de mensen die in de aandelen handel zitten).

[Reactie gewijzigd door Pikkemans op 23 juli 2024 03:42]

Eigenlijk valt die 10% me erg tegen :P

AWS gebruikt de Epyc 7571 (custom Sku voor Amazon) en de Xeon Platinum 8175M (wederom custom Sky voor Amazon).

Kijk je echter naar de listprijzen van de modellen waarvan ze zijn afgeleid zie je dat de Epyc 7551 zo'n $3500 list kostte (bij release) en de Xeon 8175M voor zo'n $8700 op de prijslijst staat. Nu betaald een Amazon uiteraard nooit listprijzen, maar toch daar een verdubbeling van prijs en bij Amazon maar 10% verschil, valt me toch tegen :P
Als je volledige stagnatie t.o.v. vorige 'generaties' als 'niet slecht' beschouwt wel, ja.
Gezien dat de Xeon 8180 zo'n 205W TDP had, is 400W vrij lineair, en dus 'normaal'.
Ik kan me bijna niet voorstellen hoe je 400W kan koelen op zo'n een relatief klein oppervlak. Dat überhaupt een chip zoveel hitte kan afgeven zonder gelijk te smelten verbaasd me. Wel gaaf voor applicaties die het kunnen gebruiken! Alleen als we kijken naar amd die met 32 cores een tdp van 180W heeft en je zou zeggen (ja het schaalt niet lineair) dat deze dus met 64 cores (binennkort ;) )een tdp van 360W heeft dat AMD toch een stukje aantrekkelijker wordt in datacenters. Al is de clocksnelheid wat lager, de meerdere cores maken daar dan voor op.
De oppervlakte is klein, maar vergis je niet, dit zijn voor CPU's hele grote plakken, zie hier een vergelijking:
https://i.ytimg.com/vi/pRkd9YBKydo/maxresdefault.jpg

Rechts een 1151/1155 en links een 2066. Midden is de 3647 zoals in dit bericht.
Wow dat is zeker een stuk groter oppervlak! En meer dan 2x zoveel pinnetjes..
Alsnog blijf ik het knap vinden 400W op zon oppervlak..
Hou er wel rekening mee dat de 9200 serie (met 400W TDP) de grootte heeft van +- 2x (iets minder zo lijkt het) het oppervlakte van een 3647 cpu.
Maar wel nogsteeds 3647 pinnetjes of dat ook niet?
Dat lijkt me niet, Ze komen ook niet in socketvorm maar enkel in BGA vastgesoldeerd aan het moederbord.
Ooh dat wist ik niet. Worden in servers de cpu's nooit/nauwelijks geupgrade dan dat een normale socket gewenst is?
https://www.geek.com/chips/zalman-launches-worlds-first-cpu-liquid-cooler-using-nanofluids-1567407/

says:

By using the so-called nanofluid, Zalman believes it can offer better cooling, and rates the Reserator 3 as offering up to 400W of cooling while remaining very quiet.

Echte koelvloeitstof, ipv water.

Of:

https://www.hardwaresecrets.com/ocz-hydrojet-cpu-cooler/

Het is allemaal niet triviaal, maar het kan dus wel :)

[Reactie gewijzigd door hooibergje op 23 juli 2024 03:42]

Die Nanofluid vind ik maar een beetje vaag, is dat gewoon water met chemisch stofje toegevoegd waardoor de warmte geleiding beter is? Bovendien lijkt het me nogal een klus om heel je datacenter koeling te vervangen met nanofluids maar daar kan ik verkeerd in zitten, ben zelf nooit fysiek in een datacenter geweest (wel gezien op ytube ofc). Maar inderdaad mogelijk lijkt me alleen een duur grapje, helemaal als je dan alternatieven krijgt die makkelijker te koelen zijn van bijv amd.
Je kan er ook geen gewoon kraanwater in gooien, dan kalkt ook alles dicht. Er gaat sowieso demiwater in, en dan gaat ook tankje voor tankje. Maarja, een jerrycan demiwater kost een paar euro en een jerrycan koelvloeistof zal wel flink duurder zijn.
Kan ik mij inderdaad ook voorstellen. Bedankt!
Gaat het OS deze nu zien als 2 CPU's of 1? Als ik zo het plaatje bekijk lijkt het als 2 ...
Als 1, AMD doet nu momenteel exact hetzelfde en intel heeft ze daarop nog belachelijk gemaakt. Volgensmij ziet het OS zelfs bij 2 sockets het als 1 processor en list hij gewoon alle threads achter elkaar en moet je zelf uitvogelen welk thread bij welke cpu hoord (is belangrijk).
Anoniem: 63072 3 april 2019 12:06
Hmmm een 8280[ |L|M] kost afhankelijk van de geheugenondersteuning al $ 10.000 - $ 17.000, wat moet een 9xxx serie dan wel niet gaan kosten?

De 8280 heeft 28 cores/56 threads, de helft dus van deze CPU's en de daarmee concurrerende AMD CPU kost ca. $2500. Ik vermoed dat de prijs prestatie verhouding en het verbruik van deze CPU hem erg ontrekkelijk maken als de 64 core / 128 thread Epyc CPU later dit jaar beschikbaar komt.
Dat laatste klopt zeker. AMD EPYC 2 met 64 cores, 256MB L3, en vergeleken met de eerste generatie iets betere kloksnelheden en ongeveer halve TDP bij gelijke cores (dus laten we zeggen 64 cores - 200W), hogere geheugen bandbreedte (3200MT/s) en PCI-E gen 4. Natuurlijk zijn er ook andere zaken die voor bedrijven kunnen spelen, maar grofweg gezien...absolute no brainer.
Wachten is nu op vmware die licenties gaat beperken tot aantal cores omdat mensen nu steeds minder cpu licenties afnemen.
Erg mooie cpu's voor virtualisatie.
Ja, zeker! Nu hebben we 2x24cores op 2,7Ghz met 1,5TB RAM, en dat met 2 socket-licenses. Met VSAN en NSX er bij is het overigens nog steeds verre van goedkoop. Ook de Red Hat Virtualization-Host licenses zijn per socket en dus best interessant. Het gaat alleen wel compleet mis als je iets als OpenShift of een Microsoft-product gaat draaien helaas.
Ik zie het verschil eigenlijk niet direct, en als ik al verschil zie, zie ik goedkopere prijzen voor Windows Datacenter dan voor Red Hat met unlimited virtualization.

Als ik kijk naar de standaard prijzen voor jouw situatie bij Red Hat en bij MS (kan beide dus nog wel goedkoper) ben ik voor de volgende 2 OSén

1. Red Hat Enterprise Linux for Virtual Datacenters (2 sockets) of 2. Windows Server 2019 Datacenter (24 cores)

Het volgende kwijt bij een periode van 5 jaar support / updates en upgrades naar de laatste versie

Red Hat Enterprise Linux for Virtual Datacenters (2 sockets) +- $20000 over een periode van 5 jaar ($24000 bij 6 jaar).
Windows Server 2019 Datacenter (24 cores) met 6 jaar SA +- $17000 over een periode van 6 jaar (prijzen alleen in meervouden van 2 jaar)

Verder zijn bij MS alleen de prijzen van bepaalde versie's van SQL server en System center per core. Veruit de meeste software van MS gaat niet "Per Core" maar nog gewoon met een server + cal model of bijvoorbeeld per user.

Al met al kan je zeker niet direct stellen stellen dat het "compleet misgaat" als je MS producten gaat draaien.

Ik verwacht trouwens wel dat meer en meer partijen naar een per core model zullen gaan, of de prijs per socket flink omhoog zullen gaan gooien (dit laatste mogelijk in "tiers" qua densiteit van cores per socket). Aangezien deze software bedrijven hun "bottomline" echt geraakt willen zien worden door Intel en AMD die in een core race verwikkeld zijn.

[Reactie gewijzigd door Dennism op 23 juli 2024 03:42]

"De cpu's worden als bga-package geleverd aan fabrikanten die er complete servers omheen bouwen."

Dat is op zich wel een beetje raar. Grote jongens, zoals HP en Dell, laten je zelf servers configureren, gebaseeerd op welke CPU je wil (en hoe veel), etc. Als je dan dus een een dual Xeon 9200 server wil, dan moet de betrokken fabrikant daar maar net een moederbord voor gebouwd hebben (en voor alle CPU-variaties van dien).

Op dit item kan niet meer gereageerd worden.