'Intel-referentieplatform voor nieuwe Xeon-cpu's ondersteunt tdp's tot 500W'

Er zijn details verschenen over het Avenue City-referentieplatform van Intel. Het platform zou bedoeld zijn voor de komende Granite Rapids- en Sierra Forest-datacenter-cpu's. Het platform moet twaalf DDR5-kanalen bieden en tdp's tot 500W ondersteunen.

Granite Rapids en Sierra Forest komen volgens een slide van hardwareleaker YuuKi_AnS uit op socket LGA-7529. Dat platform krijgt volgens de leaker ondersteuning voor processors met tdp's van maximaal 500W. Ter illustratie: de onlangs uitgebrachte Sapphire Rapids-cpu's worden geleverd met tdp's tot 350W.

Verder moet het platform twaalf DDR5-geheugenkanalen bieden. De maximale geheugensnelheden zijn 6400 megatransfers per seconde wanneer er een cpu-socket wordt gebruikt. De slide noemt ook ondersteuning voor PCIe 5.0, hoewel de uitgelekte slide geen concreet aantal lanes noemt. Het referentieplatform omvat een moederbord met een pcb van twintig lagen. Het bord is ongeveer 42cm breed en 50cm lang. Het moederbord heeft daarnaast 24 DDR5-slots en twee sockets.

Intel deelde eerder al details over zijn Granite Rapids- en Sierra Forest-cpu's. Eerstgenoemde wordt de opvolger van Emerald Rapids, een serie serverprocessors die op de planning staat voor dit jaar. Sierra Forest wordt de eerste serie server-cpu's die volledig gebruikmaakt van E-cores. Intel gebruikt dergelijke cores al sinds Alder Lake uit 2021 in zijn desktopprocessors, hoewel die dan worden gecombineerd met krachtigere P-cores. E-cores zijn energiezuiniger, maar langzamer dan P-cores. De efficiënte kernen bieden daarnaast geen hyperthreading. De cpu's worden gemaakt op het Intel 3-procedé.

Door Daan van Monsjou

Nieuwsredacteur

20-03-2023 • 15:26

66

Reacties (66)

66
65
26
0
0
24
Wijzig sortering
Ik stel me echt de vraag hoe de grote serverparken hier naar kijken?
Ik snap dat computing density enorm grote pluspunten met zich meebrengt maar in de tijd dat ik nog actief was in deze sector was het probleem koeling en verkrijgbaar vermogen per tile reeds een issue.

Racks in LCL Diegem hadden bv maar maximum 16A waardoor je zelfs met moeite een 42U serverkast kon vullen in het Pentium 4-era. Er waren opties voor meer stroom te voorzien maar dit werd zelden gedaan net doordat de koeling ook niet afdoende zou geweest zijn om de warmte te verwerken.

Lijkt me dat dit toch voor gigantische logistieke problemen zorgt binnen datacenters als plots het stroomverbruik zo gigantisch omhoog zou gaan? (ik snap dat dit stelselmatige shifts zijn maar farms bv worden gemiddeld om de 3-4 jaar geupgrade. Als er dan ineens een zooi van die gigaslurpers neergepoot worden, zitten ze toch snel over de maximale capaciteit van koeling/stroom lijkt me)
Ik denk dat je daar zeker een punt hebt, zelf ook een heel gedoe gehad, kwart rek vol bladecenters, tegen de power limit aan, zit je dan met je 50U rek. Tegenargument dat je met minder hardware meer kan gaat dan ook niet op, want geen DC doet meer aan veilig afgesloten deelverhuur, of weer met nog lagere powerlimits vanwege de density. Om van de koeling nog maar te zwijgen.
Bijkomend is het argument meer met minder natuurlijk ook niet relevant doordat er daarnaast ook steeds hogere computing demands komen en de vraag naar rekenkracht blijft stijgen. Zeker de grote farms waarvan er ook steeds meer ingezet worden voor AI, hebben enorm veel rekenkracht nodig en ik zie de noodzaak aan rekenkracht eerder exponentieel stijgen dan lineair als je de AI en machine learning evolutie ziet die momenteel aan de gang is.

Benieuwd of er iemand met wat meer toegepaste vakkennis hier zijn mening is over kan delen.
Stroomverbruik en dichtheid heeft een relatief voorspelbaar gedrag. Als je op 'vandaag' op maat bouwt dan weet je dat binnen 5 jaar je al niet mee kunt.

Veel datacenters bouwen dus met genoeg capaciteit om veel meer stroom per kast te vreten, ik was vandaag nog in een datacenter en ze waren daar ook hele dikke stroomkabels aan het leggen, volgens de uitbater gaan ze nu van rond de 25% vulling van de kabelkanalen naar 50% en dat datacenter is grofweg 15 jaar oud, het datacenter kan dus nog gemakkelijk 10 jaar mee alvorens ze in problemen lopen ivm dichtheid (waar ze de racks niet meer kunnen vullen).
Lijkt me dat dit toch voor gigantische logistieke problemen zorgt binnen datacenters als plots het stroomverbruik zo gigantisch omhoog zou gaan?
Je moet kijken naar het totale verbruik vs de rekenkracht. Je spreekt over twaalf x DDR5. Ik gok 1.5 terabyte RAM per CPU. een moederbord bevat er twee.

Intel gaat een versie uitbrengen met enkel e-cores. Efficiente cores dus. Dus uiteindelijk zal 1 rack nu 256 cores bevatten en 3 terrabyte RAM. Daar kon je vroeger maar van dromen als je daar enkel 500 watt voor moest reserveren.

In het P4 tijdperk naarwaar je verwijst had je misschien 100x meer vermogen nodig om aan die rekenkracht te komen. Nu zijn de Servers compacter en energiedenser, dan moet je de koeling en de zekeringen daar maar op aanpassen. Die evolutie van grotere chiplet ontwerpen en meer cores per chip is al tijdje aan de gang dus dat zal wel meevallen. Zo 'plots gaat dat niet'.

Jij noemt dat gigaslurpers maar dat klopt natuurlijk niet. 500watt voor 128 cores = 4 watt per core. De TDP zal wel wat verdeeld worden naargelang de core die extra vermogen nodig heeft maar echte energieslurpers zijn het niet als je dat vergelijk met voorgaande generaties. Het enige wat nu anders is, is dat een CPU nu groter is en meer cores bevat.

[Reactie gewijzigd door Coolstart op 23 juli 2024 05:57]

Anoniem: 58485 @Coolstart20 maart 2023 22:56
Server verbruik totaal zal veel hoger uitvallen dan 500w alleen hoor. Denk richting de 1.2kwh tot 2.5kwh
500 watt in een cpu? Dat vraagt om waterkoeling: op de camping gebruik ik een waterkoker met dat vermogen. :o
Ik hoop dat je beseft dat dit geen processoren zijn voor thuisgebruik, of in workstations. Het gaat hier om heavy duty server systemen. Zoals je aan de moederborden met 24 memory sloten ook kunt zien.

Daar draaien dus meestal enorm veel VM's op, en is de TDP weliswaar belangrijk, maar een veel minder grote factor dan bij een reguliere thuis-PC systeempje.
TDP is wel degelijk van invloed, aangezien naast het hoge verbruik de koeling ook verzwaard moet worden, wat op zijn beurt ook voor een hoog verbruik zorgt. Niet voor niets gebruiken MS & Google ARM voor hun infra.
Dat zeg ik dus ook precies: het is belangrijk, maar het verbruik alleen is bij een server minder belangrijk.

Als voorbeeld: als je op een CPU die 500W trekt 1000 VM's kunt hosten, terwijl je op de oude met 350W 'slechts' 500 VM's kwijt kunt, is die nieuwe CPU dus nog altijd aantrekkelijk: voor slechts 150W extra kan je het dubbele aantal VM's hosten, wat weer minder hosts noodzakelijk maakt. En daardoor het overall verbruik van je serverfarm alsnog lager uit kan vallen, ondanks dat de CPU meer vermogen vereist.
500 watt in een cpu? Dat vraagt om waterkoeling: op de camping gebruik ik een waterkoker met dat vermogen. :o
Deze CPU's zijn ook niet voor huis tuin en keukengebruik, dus ook niet voor op de camping
klopt die zijn voor in de technische ruimte waar de boiler staat :-d
Deze CPU's zijn bij uitstek geschikt voor grote verwarmingsinstallaties. Voor huis-, tuin- en keukengebruik zijn ze zwaar overkill.

[Reactie gewijzigd door psychicist op 23 juli 2024 05:57]

de bedoeling is dat je deze cpu aan je gascondensatiekachel koppelt om zo een milieuvriendelijk combi systeem te verkrijgen. icm zonnepanelen zeker aan te raden
LTT verwarmt hier een zwembad: https://www.youtube.com/watch?v=4ozYlgOuYis
Ook wel interessant ;p
We weten dat je een grapje maakt, maar het begint wel plausibel te worden.
Gebruik van restwarmte van datacentra om te verwarmen wordt al op diverse plaatsen gebruikt. Dus meer dan plausibel.
https://www.rvo.nl/onderwerpen/restwarmte/datacenters
Wegens omstandigheden heb ik mijn (i7) laptop andersom op mijn bureau staan (ik gebruik een apart toetsenbord en scherm) en ik moet bekennen dat er op sommige momenten een warm windje staat.
Toevallig laatste een video gezien van Linus Tech Tips, daar hebben ze een mining rig gebouwd, die de hele dag crypto's mined en met de warmte die daarbij vrij kwam geprobeerd de ruimte op te warmen. Zo verdien je geld door je ruimte warm te krijgen. Helaas steeg de temperatuur in de ruimte maar met 0,5 oC. Nu weet ik dat zo'n mining rig niet in de buurt komt van deze CPU maar toch het idee is wel dik vindt ik zelf.

[Reactie gewijzigd door AdoptieMoeder op 23 juli 2024 05:57]

Leuk experiment maar de meeste mensen hebben geen datacenter in hun woonkamer. Dus moet je iets efficiënts verzinnen om die warmte naar locaties te vervoeren waar mensen verblijven.
Ik had het ook niet over een data center maar over een mining rig. Niet hetzelfde. Maar het ging enkel om het idee erachter, niet als een breed inzetbare oplossing voor elke woonkamer.
Nu weet ik dat zo'n mining rig niet in de buurt komt van deze CPU maar toch het idee is wel dik vindt ik zelf.
Een mining rig trekt veel meer stroom dan een enkel 500 watt cputje hoor. Stel je monteert een videokaart of 8, dan zit je maar op 63 watt per kaart. Dat is niet realistisch.

Temperatuur van de ruimte zegt alleen weinig. Je moet het interne volume van de ruimte ook weten en de kwaliteit van isolatie van de ruimte.

In de kamer waar mijn pc staat, die maar 4x4x2,5 meter oid is, warmt het meerdere graden op als ik zit te gamen met het deur en de ramen dicht en de warmte uitstoot van mijn hele setup is beduidend lager dan 500 watt. Die kamer is dan ook vrij klein en best goed geïsoleerd

[Reactie gewijzigd door youridv1 op 23 juli 2024 05:57]

In de kamer waar mijn pc staat, die maar 4x4x2,5 meter oid is, warmt het meerdere graden op als ik zit te gamen met het deur en de ramen dicht en de warmte uitstoot van mijn hele setup is beduidend lager dan 500 watt. Die kamer is dan ook vrij klein en best goed geïsoleerd
Vergeet de 100W warmtedissipatie van de gamer niet mee te rekenen ! :)
Zeker, alleen neem aan dat de systemen waar deze CPU's van 500W inzitten niet enkel en alleen bestaat uit de CPU. Maar snap wat je zegt. Jammer alleen dat het schijnbaar niet genoeg warmte af geeft om een ruimte te verwarmen. Als dat zo was had ik deze winter een mooie mining rig neergezet (heb toch nog wat oude GPU's en onderdelen liggen) in plaats van mijn verwarming aan te zetten hahaha.
Elektrisch verwarmen is veel duurder dan op gas. Vergis je niet, je bespaart daar echt niets mee. Op inductie koken is bijvoorbeeld ook duurder dan met een ouderwets gasstel. Het aantal cent per effectief bruikbaar kWh is bij gas gewoon veel lager.

Het zou best wel eens kunnen dat bepaalde servertjes met deze CPU's alleen uit de CPU en RAM bestaan hoor. Storage zit dan weer op een andere bak en niet alle taken hebben acceleratie-/videokaarten nodig. Kan zomaar om een VM-server gaan. Minder servers met sterkere chips is vaak zuiniger dan meer servers met meer minder sterke chips

[Reactie gewijzigd door youridv1 op 23 juli 2024 05:57]

Electrisch verwarmen/koken duurder? Ligt er helemaal aan hoe je de electriciteit inkoopt cq zelf opwekt. Paar zonnepanelen en je kookt gratis; paar erbij en je warmtepomp draait ook.

Bij nieuwbouw heb je sowieso geen keus; je krijgt geen gasaansluiting/
Paar zonnepanelen en je kookt gratis;
Als iemand met de zonkant het dak van zijn rijtjeshuis vol met panelen en een inductieplaat: Dat dacht ik dus niet.
Sowieso kook je nooit gratis met zonnepanelen zolang je nog kunt salderen en dat kan voor nu nog 1:1 via mijn energieleverancier. Totdat je netto verbruik op jaarbasis de 0 raakt betaal je elke kWh die je netto verbruikt nog steeds en is op gas koken nog steeds goedkoper.
Tot zover in 2023 heb ik nog steeds netto 551 kWh verbruikt, dus bij die 0 ben ik nog lang niet en zo lang dat niet gebeurt, zou ik nog steeds goedkoper uit zijn met en gasstel.
Alleen dat wil ik niet, want een inductieplaat is veel gebruiksvriendelijker.
Bij nieuwbouw heb je sowieso geen keus; je krijgt geen gasaansluiting/
Klopt, maar dan bouwen ze een warmtepomp in. Er zit een wezenlijk verschil tussen een in je huis geintegreerd verwarningssysteem op basis van een warmtepomp en conventioneel elektrisch verwarmen met de restwarmte van een pc of een elektrisch standkacheltje

[Reactie gewijzigd door youridv1 op 23 juli 2024 05:57]

Mijn huis staat precies noord-zuid en heb sinds januari 10 panelen naar het oosten en 6 naar het westen. Sinds de installatie heb ik 80kWh teruggeleverd; dit zal dus duidelijk nog positiever gaan uitvallen als de dagen langer cq zonuren toenemen.
Super man! Uit ervaring kan ik je vertellen dat als je huishouden ook maar soortvan op dat van mij lijkt, je met die 16 panelen op jaarbasis niet in de buurt gaat komen van het salderen van je totale verbruik tot 0 kWh.

Ik neem daarbij aan dat die teruglevering niet je netto energieverbruik is, maar gewoon het totaal dat je hebt teruggeleverd. Die staat bij mij op 233 kWh sinds 1 januari.

Ik heb maar half zoveel panelen als jij, want voor meer was gewoon geen plek, maar met dubbel zoveel panelen (of nouja, dubbel het aantal kWh opwekken per jaar) was ik vorig jaar absoluut niet op 0 uitgekomen.

[Reactie gewijzigd door youridv1 op 23 juli 2024 05:57]

Alleen dat wil ik niet, want een inductieplaat is veel gebruiksvriendelijker.
Als hobby kok ben ik dat dus totaal niet met je eens. Ik heb thuis inductie, inmiddels zelfs één van de betere systemen, maar zelfs op het gasstel van een vakantiehuisje vind ik het prettiger koken
Gaat me niet om prettiger koken, maar om prettiger schoonmaken :)

Bij iedereen die van koken houdt, prefereert gas in mijn ervaring. Ik houd niet bijzonder van koken en doe nooit iets ingewikkelders dan een vers pakket van de AH, hollandse pot of iets van knor ofzo.
Het kookproces is voor mij niet heel belangrijk.

Wat ik wel een belangrijk voordeel vind, is dat een inductieplaat na het koken gewoon een platte glasplaat is die je in 1 keer kunt afnemen met een doekje
Dat heet gewoon lui ;)
Al ben ik het met je eens dat zo’n glasplaat wel makkelijk schoonmaakt.
Heb je helemaal gelijk in :)
Elektrisch verwarmen is veel duurder dan op gas.
Daar ging nou het hele experiment juist om. De crypto's die je mined tijdens het verwarmen kan je verkopen waardoor je de kosten van de energie dekt en eventueel zelfs winst kan maken. Het is in sommige gevallen zelfs mogelijk om geld te verdienen door stroom te verbruiken (welliswaar weinig maar toch). Dus het hoeft niet zo te zijn dat je doordat je stroom gebruikt ipv gas je altijd duurder uit bent. https://www.rtlnieuws.nl/...dienen-met-stroomverbruik
Al moet ik zeggen dat het elektrische kacheltje dat ik deze winter een maand had staan net zo duur was om 1 ruimte te verwarmen als met gas 3 ruimtes.
Het zou best wel eens kunnen dat bepaalde servertjes met deze CPU's alleen uit de CPU en RAM bestaan hoor.
Jaa daar heb je dan zeker wel weer gelijk in. Maar toch geeft ook een mining rig schijnbaar niet genoeg warmte af om een ruimte te kunnen verwarmen. Heb de link naar de video erbij geplakt, wellicht vindt je het interresant! https://www.youtube.com/watch?v=nr4kmlTr9xw

[Reactie gewijzigd door AdoptieMoeder op 23 juli 2024 05:57]

Daar ging nou het hele experiment juist om. De crypto's die je mined tijdens het verwarmen kan je verkopen waardoor je de kosten van de energie dekt en eventueel zelfs winst kan maken.
Moet het wel rendabel genoeg zijn. Dat is tegenwoordig best een dingetje.

Ik voeg die video toe aan watch later

[Reactie gewijzigd door youridv1 op 23 juli 2024 05:57]

Moet het wel rendabel genoeg zijn.
Jaa dat was het dus niet dus in die zin heb je gelijk hahahahha maar het idee is wel dik
Nee serieus. Dus, waarom staat er nog geen datacenter naast een waterpretpark of (subtropisch)zwembad of omgekeerd?
Voor op een houtkachel wordt wel eens een kachelventilator aangeboden. Dat genereert stroom op basis van warmte verschil en een piezo-element of zo iets. Misschien wordt dat met dit soort vermogens voor cpu-s ook rendabel.
Nu hoef je tenminste niet meer het USB koffieapparaat aan te sluiten op je PC, je kan gewoon je koffieketel op de heatsink plaatsen... ;)
Ik heb een rack van servers met ~2400W verbruik per 2U server (A40 GPU+Xeon) en die is nog steeds gekoeld met lucht (de deuren in de datacenter zijn wel gekoeld met vloeistof) en adhv de temperatuur hebben we nog genoeg 'headroom'.
Nou misschien het help iig aanzienlijk. Maar ik verwacht dat 128core ook flinke plank als grote die-size heeft.
500wat voor 128cores is grof 4 watt per core met 16cores is 64watt dus relatief zuinig voor 128 core. Als dat basis van Pcores is heb je te maken met ULV setting ver in optimal curve deel voor pcore en dat is zonde voor core gemaakt voor enorme klok schaling.
Als deze trend zo door blijft zetten zie ik een grote toekomst voor op ARM gebaseerde serverprocessoren. De meeste bedrijven kijken toch naar een trend waarbij het energieverbruik omlaag gaat in plaats van steeds hoger.
De instructieset bepaalt niet het stroomverbruik: er zijn energiezuinige en onzuinige x86 cpu’s, net zo goed als zuinige/onzuinige ARM of POWER chips.

[Reactie gewijzigd door Dreamvoid op 23 juli 2024 05:57]

Het geval wil dat Intel en AMD (nog?) geen ARM serverchips maken en het is duidelijk dat het gevecht tussen Intel en AMD wordt gevoerd met het ophogen van clocks en energiegebruik.
Je gaat langs een wel heel belangrijk punt waarom er uberhaupt verschillende instructiesets/architecturen bestaan, de efficientie van ARM woordt vooral behaald uit het weglaten van instructiepaden die ARM niet nodig heeft, maar voor X86/x64 ondersteund moeten zijn.

Dat een datacentrum voor x64 kiest werkt dan tweeledig; in een vps situatie kan je "alles" doen met die architectuur, maar er kan ook zelfs een eis zijn voor instructiefuncties/grootten die allen binnen x64 beschikbaar zijn, dat virtualiseren onder ARM zou dan op zijn eigen wijze weer inefficient kunnen worden (sterker nog, dat is waarom x64 software bij win10-arm zo enorm slecht presteert, maar zonder die virtualisatielaag zouden héél veel applicaties botweg niet werken).
de efficientie van ARM woordt vooral behaald uit het weglaten van instructiepaden die ARM niet nodig heeft, maar voor X86/x64 ondersteund moeten zijn.
Niet dat die vlieger nog op gaat bij ARM; die instructieset heeft in de afgelopen 25 jaar ook genoeg complexiteit erbij gekregen. Bij x86(_64) is de decoder al enige jaren niet de bottleneck meer (en bovendien hebben ook ARM-chips gewoon een decoder).
Het verschil tussen ARM en x86 is de achtergrond en branche waar vandaan komen en dus is dat de kern van architectuur.
ARM overheesrte in ultra lowpower embeded iot de architecturen daar zijn 1 stage 2 stage en 6 stage en zeer lage klok tov procede waar ze op zitten.
Je vergeet hier dat apple silicon op meest moderne leading procedie amper voorbij 3ghz gaan ik vermoed dat deze architectuur weinig stages heeft misschien rond 10.
Dat houd in dat de transistor budget meer in ipc gaat de transistor implementatie gemaakt is met lage klok en dus minder druk op flankstijlheid van schakelen hoeft ook lage VDD werken . Dus transister budget gaat naar ipc

X86 is historisch gezien server workstation desktop . Dat zijn hoge vermogen formfactors wat naar onderen voor laptops geschikt gemaakt zijn dus onder de 100wat waar 15wat.
Arm embeded zit je in de fractie van watt voor CR2032 3V operatie wat naar boven gegroeid is naar server.

Je hebt nu e-cores die op mindere procede ipv 6ghz maar 4gz aantikken en dus nog steed redelijke klok schaling hebben.

Wat ik zie is dat ARM en X86 architecturen maken waarbij x86 4 8 16 32 64 128 256 core sku met maar 2 core architecturen oplossen dus niet ideaal voor de edge cases
Pcore doet zeer goed tot 8core. Vanaf 32cores is die enorme klok schaling transistor diespace weasting voor architectuur dat met veel stages en klok optimized transistor en logic bloks in ULV mode lopen.

ARM 1 2 4 8 16 32 64 128 256 zitten idealer bij 16 32 64 128 256 voor mobiel en server.

Ook groot verschil ARM big little is bij mobile meer 2 a 4 big cores intel bied meer pcores aan 8stuks voor desktop.

Ik heb meer de indruk dat ARM en x86 meer dan 2 core sizes kan toepassen als je 1 tot 256 cores gaat toepassen 4 core de 32 core en de 256 core architecturen.

ARM heeft geen 6ghz architectuur en verliest door laptop te stekkeren benches.x86 mist 3ghz high ipc architectuur. Maar dat kan altijd nog komen.
AMD had een ARM serverchip in ontwikkeling, maar koos uiteindelijk in 2015 toch voor hun x86 Epyc architectuur. Qualcomm introduceerde ook een ARM server chip, maar die is een stille dood gestorven.

Andere ARM server fabrikanten als Applied Micro zijn failliet, hoewel Amazon en Huawei custom ARM chips gebruiken in hun datacenters.
Toch gaat de ontwikkeling van ARM serverchips gewoon door, bijvoorbeeld:
Oracle Cloud Infrastructure offers Ampere Altra processors with an industry-leading 80 cores per CPU, with all cores capable of running at the maximum frequency of 3.0 Ghz consistently. Each core comes with its own 64 KB L1 I-cache, 64 KB L1 D-cache, and a huge 1 MB L2 D-cache, and delivers predictable performance.
En ik kan je uit ervaring dat ze goed presteren.

Edit: Citaat 14-2 The Register
Last week, it was claimed by Arm's parent company SoftBank that as much as 5 percent of the cloud services operated by AWS, Microsoft Azure and Google Cloud are already delivered by Arm chips.

[Reactie gewijzigd door synoniem op 23 juli 2024 05:57]

Idd, de ontwikkeling van ARM serverchips gaat gewoon door, en ze worden inderdaad steeds meer gebruikt. Maar de grote hype die er een jaar of acht, negen geleden was, die is wel ietwat bijgesteld.
Ik heb ook al details over het platform erna, 16 DDR5 kanalen en 700W per CPU. LGA10000.
Het platform erna ook trouwens, 24 DDR6 kanalen en 1kW per CPU! De oppervlakte gaan ze dan ook aangeven in m2 ipv mm2.

Het lijkt erop dat de meer cores races (sinds quad core) door blijft gaan maar daarnaast hebben we nu ook een prestatierace, alleen gaat het helaas op de brute force manier.

Zoals Jeremy Clarkson zou zeggen: MORE POWAAA!

[Reactie gewijzigd door Navi op 23 juli 2024 05:57]

De reden van meer cores staat in een reactie hierboven goed uitgelegd: meer cores betekent meer VM's op 1 pCPU dus uiteindelijk, ondanks meer energieverbruik per server, een lagere TCO voor het datacenter.
Een Xeon met een 500W TDP???

Thuis wil je niet zo'n processor hebben, tenzij dit je hoofdverwarming is.

In je rekencentrum wil je ook niet zo'n processor hebben, je rekencentrum is dan namelijk niet meer te koelen, tenzij hij minimaal zo'n 10 processoren vervangt.

Voor wie maakt Intel dit? Is het om te laten zien wat er nu technisch kan, want dat lijkt me prima, of willen ze deze CPU echt gaan verkopen? Dat laatste lijkt me zeer ongewenst!
Alles is relatief. Ik neem ook aan dat de oppervlakte van zo'n chip een flink stuk groter is, waardoor er een groter koelblok op past wat deze warmte gewoon goed kwijt kan. Daarnaast zal geluidsproductie geen probleem zijn, dus Delta fan er op en blazen maar :)

Voor professioneel gebruik zijn er meer dan genoeg use cases en is de enkele vraag of de concurrentie meer prestaties per watt weet te bieden of niet.
is de enkele vraag of de concurrentie meer prestaties per watt weet te bieden of niet.
Ja, daar draait het inderdaad om! Het lijkt erop dat AMD een lastig in te halen voorsprong heeft...
Schrijf jij dan even alle software om naar ARM? In een beetje data center draaien zo veel verschillende applicaties dat een migratie naar ARM een veeljarenplan is. Zelfs het overwegen van AMD i.p.v. Intel is al een groot risico waar maar weinig data center architecten aan zich durven wagen. M.n. applicaties waarvoor een hoge performance en throughput van belang is willen nog wel eens rare dingen doen als er een niet Intel platform onder zit.
Als je x64 code niet clean van Intel naar AMD kan overzetten heb je waarschijnlijk ook problemen als er een nieuwe generatie Intel processors aankomt. Misschien tijd om eens wat netter te programmeren dan (of niet zulke brakke software in te kopen).

Reden dat AMD in datacenters minder populair is heeft er vooral mee te maken dat Intel meer fab capaciteit heeft en grotere aantallen kan leveren. Ook al zijn hun processors mogelijk niet beter, een server met CPU doet het altijd beter dan een zonder.
Het is niet zo simpel als code omzetten. Er zijn inderdaad instructies die AMD emuleert die niet volledig overeenkomen met de implementatie van Intel. Daarnaast moet je ook bouwen, testen etc, en in de meeste gevallen is het kostverschil tussen AMD en Intel niet doorbrekend.

We spreken over een duizend euro of minder, de meeste klanten betalen niet de MSRP van Intel/nVIDIA, wij betalen 50% van de MSRP voor de vorige generatie en 75% voor de huidige generatie, AMD geeft weinig/geen kortingen.

Hoeveel kost het een programmeur om een programma zoals AutoCAD of Oracle DB volledig om te zetten, testen en certificeren voor alle soorten gebruik. Die certificatie (ondersteuning) is meestal het probleem. Je kan vb. VMWare niet gecertifieerd krijgen op de nieuwste hardware van Intel en nVIDIA, ze lopen meestal een jaar of zo na en je 'zelfbouw' server gaan ze echt niet ondersteunen, alhoewel ze AMD ondersteunen voor hun basis applicatie, vergeet het maar voor allerlei plugins en hardwarecombinaties.
Certificatie is geen taak van de programmeurs, maar de QA afdeling. En de meeste CPU/GPU fabrikanten doen gewoon hard hun best om zoveel mogelijk certificeringen te scoren wanneer hun hardware competitief is.
Software als Oracle of VMWare zijn gewoon gecertificeerd op AMD platformen dus daar zit het probleem niet. En als je je als klant zwaar afhankelijk maakt van obscure plugins die je hardware keuze sterk beperken ga je daar hoe dan ook problemen mee krijgen. Dat is niet de schuld van AMD...
Dat is nu juist het probleem bij veel bedrijven; men wil niet investeren & probeert het zolang mogelijk te rekken, met alle gevolgen vandien... Bovendien zijn er tegenwoordig zat frameworks, die dit probleem (gedeeltelijk) kunnen oplossen.
ARM komt uit 1983, ook geen modern platform.

Maar Intel heeft in dit high-end segment helemaal geen concurrentie van ARM, enkel van AMD en IBM’s Power10.
Vergeleken met x86 is het nog steeds een moderner platform. Intel is duidelijk een voorbeeld van hoever zo'n old-boys network kan reiken, met flink wat lobby-werk.
Het is niet echt een "old boys" verhaal. x86 was traditioneel helemaal geen grote speler in het serversegment, maar Intel en AMD hebben de markt sinds de milenniumwissel vrijwel volledig overgenomen van de vroeger dominante RISC "old boys" als HP, IBM en Sun.

Vanaf hier kan het marktaandeel alleen maar omlaag natuurlijk, en je ziet dat de vette marges op serverchips nu weer nieuwe RISC spelers aantrekken (voornamelijk ARM), zoals inderdaad Amazon, Huawei en Ampere.
Och, jij weet het ook beter dan Intel natuurlijk. Als er geen vraag naar zou zijn dan zou Intel dit ook niet maken, maar zij kennen de (server)markt die ze bedienen vele malen beter dan iemand als jij.
Ik ben al ruim 30 jaar systeembeheerder & heb met veel platforms gewerkt. x86 was in de beginjaren, met OS-sen, zoals Novell Netware zeer efficiënt, totdat Windows dominant werd... Gelukkig is de afgelopen 15 a 20 jaar Linux steeds dominanter geworden, waardoor x86 servers nog redelijk weten te presteren, maar het zegt mij al genoeg dat alle grote techbedrijven steeds meer naar ARM overstappen.

Op dit item kan niet meer gereageerd worden.