Ampere brengt ARM-serverprocessors uit en komt later met variant met 128 cores

Ampere heeft zijn line-up Altra-serverprocessors uitgebracht. De fabrikant levert de chips in twaalf verschillende varianten met maximaal 80 ARM-cores. In het vierde kwartaal begint Ampere daarnaast met sampling van Altra Max. Dat is een chip met 128 cores.

Eerder kondigde Ampere al zijn Altra-serverprocessor met 80 cores aan, maar het bedrijf maakte deze week zijn complete line-up bekend. In totaal levert Ampere twaalf verschillende Altra-varianten, waarvan vier modellen met 80 cores, een met 72 cores, vier met 64 cores en een met 48 cores. Het bedrijf komt ook met twee 32-coremodellen, hoewel dat om dezelfde cpu gaat, waarbij een variant 4TB aan voorgeïnstalleerd geheugen heeft, schrijft AnandTech.

Ampere AltraAmpere AltraAmpere AltraAmpere Altra

Slides van de Altra-aankondinging uit maart

De Altra-cpu's zijn gebaseerd op de Neoverse N1-cores van ARM, net als Amazons Graviton2-chip. Momenteel levert Ampere zijn Altra-cpu's in verschillende varianten van 32 tot 80 cores, met snelheden tot 3,3GHz, afhankelijk van het model. De meest high-end variant is de Q80-33, die beschikt over 80 cores op een kloksnelheid van 3,3GHz. Deze chip heeft een tdp van 250W. Het goedkoopste model is de Q32-17, met 32 cores op 1,7GHz en een tdp van 45W. De cpu's worden gemaakt op een 7nm-procedé van TSMC.

De cpu's kunnen geïnstalleerd worden in moederborden met maximaal twee sockets. Iedere cpu beschikt over 128 pci-e 4.0-lanes. In configuraties met twee sockets zijn 192 pci-e-lanes beschikbaar voor add-in-cards. De processors ondersteunen daarnaast 4TB ddr4-3200-geheugen per socket, verdeeld over 8 channels en 16 dimmslots.

Ampere werkt verder aan een Altra-serverprocessor met 128 cores. Deze cpu heeft de werknaam Altra Max en zal hetzelfde platform gebruiken als de huidige Altra-processors. Verder komt het bedrijf in 2022 met een tweede generatie Altra-cpu's, die gebruik zullen maken van een 5nm-procedé van TSMC.

Ampere heeft de prijzen van zijn cpu's niet publiekelijk kenbaar gemaakt. Wel meldt het dat momenteel verschillende klanten, waaronder Cloudflare, zijn cpu's afnemen. De chips zijn per direct verkrijgbaar voor bedrijven, met uitzondering van de 128-corevariant, waarmee Ampere in het vierde kwartaal van 2020 begint met sampling.

Ampere Altra is niet de eerste serverprocessorline-up van Ampere. Eerder bracht het bedrijf zijn eMAG-serverprocessors uit met maximaal 32 cores. Ook andere bedrijven werken aan ARM-serverprocessors, waaronder Fujitsu, met zijn A64FX-cpu. Momenteel maakt de krachtigste supercomputer gebruik van deze processors.

Ampere roadmap

Afbeelding via AnandTech

Model Aantal cores Kloksnelheid Tdp
Q80-33 80 3,3GHz 250W
Q80-30 80 3,0GHz 210W
Q80-26 80 2,6GHz 175W
Q80-23 80 2,3GHz 150W
Q72-30 72 3,0GHz 195W
Q64-33 64 3,3GHz 220W
Q64-30 64 3,0GHz 180W
Q64-26 64 2,6GHz 125W
Q64-24 64 2,4GHz 95W
Q48-22 48 2,2GHz 85W
Q32-17* 32 1,7GHz 58W
Q32-17 32 1,7GHz 45W

*Met 4TB voorgeïnstalleerd geheugen

Door Daan van Monsjou

Nieuwsredacteur

24-06-2020 • 10:10

102

Lees meer

Reacties (102)

102
102
41
6
0
52
Wijzig sortering
Wellicht een domme vraag, maar gaat ARM het toekomst beeld worden voor CPU’s? Nu Apple over gaat en je ze meer ziet in verschillende markten.
Ze zijn extreem energiezuinig, dat was de voornaamste reden van Apple om over te stappen op ARM.
Het grootste probleem is dat Windows ARM wel ondersteunt, maar er is nog niet zoveel programmatuur voor geschreven. Mogelijk dat daar nu verandering in komt! :-)
Het grootste probleem is dat Windows ARM wel ondersteunt, maar er is nog niet zoveel programmatuur voor geschreven.
Het is toch gek aangezien C# net zoals Java gewoon JIT compilatie toelaat. Een .net applicatie in C# zou derhalve moeiteloos onder Windows ARM moeten kunnen werken. C++ is een lastiger verhaal maar Apple werkt ook al met bytecode wat later geoptimaliseerd kan worden zonder dat de ontwikkelaar daar nog wat voor hoeft te doen. Swift en Objective-C zijn goed te vergelijken met C++. Daar zit dan natuurlijk wel de "store" tussen die alles packaged voor de client die een applicatie downloadt (bijvoorbeeld ook door "app thinning" te gebruiken).

Een centrale "Store" zou een hoop van dit soort problemen kunnen oplossen., maar niemand wil Microsoft zo veel macht geven en hun eerste aanpak was niet geweldig.

[Reactie gewijzigd door BikkelZ op 22 juli 2024 15:06]

Het doet niet anders dan JIT.

Maar goed, het gaat vooral om oude applicaties.

Ook c++ compiled prima voor ARM als target, maar dan moet je het dus wel opnieuw compilen. En dat is nou net de kruks voor dat ene stukje software uit 1998 dat enkel draait op een x86, en de source code inmiddels kwijt is, of het bedrijf er achter foetsie.
Maar goed uit 1998 draait het ook prima op een geëmuleerde laag. De performance van 68k op PowerPC was vaak ook best goed simpelweg omdat PowerPC zoveel beter was.
Het probleem zit er meer in dat high-end / high-performance code vaak specifiek voor een architectuur is geschreven, en niet in een high-level taal.

Ook in de Linux kernel (zal bij Windows niet anders zijn) kom je her en der wel eens een blob assembly tegen.
Klopt en je kan niet zomaar die instructies vertalen. Dan moet je of X86 simuleren op een ARM processor, of een heel vertaal boek maken. Beide kost performance, zolang je geen specifieke chip hebt om dat te regelen, maar als je zo'n chip gaat gebruiken, verlies je een deel van de efficientie, die je juist wilde hebben door met ARM te gaan. Dus in de realiteit wil je gewoon ARM Native programmas hebben maar zolang die markt klein blijft is het niet winstgevend om dit te programmeren. Maar dat zal met de tijd veranderen, niet dat Apple een echt grote golf aan veranderingen zal brengen aan de computer wereld door naar ARM te switchen, hun software is vaak toch alleen verkrijgbaar in hun eigen ecosfeer. Maar Apple kennende hebben ze wel een oplossing voor de software zodat ze wel X86 programmas kunnen blijven draaien
C# is bytecode, maar z'n runtime is native. Enkel met de laatste releases van .Net Core kan je ARM runtime targetten en waardevolle webapps maken, maar dat moet je application wel dit framework gebruiken. Vele desktop apps zitten vermoedelijk nog op het klassieke .Net framework.
Wil je een cross-platform GUI oplossing dan heb je al helemaal gedaan met zingen, release notes .Net Core 3.1: "Windows Forms and WPF apps are only functional and supported on Windows."

Met Mono kon je al enkele jaren genieten van C# op je linux systeem. De markt voor Mono is echter klein, veel mensen zweren bij het "echte" MSFT framework ook al moet je weten dat Xamarin, de beheerder van Mono, nu een MSFT dochterbedrijf is. Een GUI applicatie op ARM met Mono heb ik nooit geprobeerd, op x86 ging dit wel m.b.v. Winforms. Maar geen WPF, dus ook daar is de support maar bagger.

Voor desktop apps in C# is het wachten op project MAUI, maar dat is nog niet voor onmiddellijk. Bovendien is het nog maar de vraag hoe snel m'n voor ARM runtimes deze support gaat voorzien. In .Net core heeft dit toch allemaal wel langer geduurd dan dat MS in z'n oorspronkelijke berichtgeving deed uitblijken.
Xamarin/MAUI draait altijd al crossplatform en op alle architecturen (86/64/ARM/ARM64), windows, mac, linux, ios, android en nog een paar obscure besturingssystemen.

Dat mensen ‘zweren’ bij wpf/winforms is omdat ze niet anders weten en vaak niets nieuws willen leren. WPF is haast automatisch om te zetten naar xamarin, alleen moet je dan wel opeens met permissies en moderne standaarden omgaan, dat kost wel tijd.
Je noemt Xamarin en MAUI in één ruk alsof dit hetzelfde is. Dat is het niet.
Het mag er dan wel heel hard op gaan lijken (MAUI zit nog in testfase), maar er zijn toch wel belangrijke onderliggende verschillen. Neem de github repo er maar eens bij.

Je hebt gelijk, Xamarin kan veel, maar het reflecteert toch ook een beetje het zooitje dat MS gecreëerd heeft met .Net. Pas in 2021 met .Net 6 is Microsoft rond met het heruitvinden van dit alles zodat zowel het framework, de tools, enz. allemaal één geheel zijn i.p.v. een verzameling van dingetjes.
MAUI is de opvolger van xamarin, dat is bij Build aangekondigd. Inderdaad met behoorlijk wat veranderingen, maar wel een opvolger voor hetzelfde doel, vandaar dat ik het samen noemde.
Als je libraries gebruikt die zowel op Windows RT als op Windows 10 werken dan zou de naar bytecode gecompileerde C# code volgens mij ook al moeten kunnen werken. Je Java code geeft er doorgaans ook geen biet om of je de JVM op Linux ARM of op x86 macOS draait tenslotte.
De (system) libraries worden bepaald door het framework (en z'n versie) waar je tegen aan werkt, en daar zijn toch wel wat exemplaren van:
- mono
- .net classic
- .net core (1/2/3)
- e.a.

Er zijn echter wel merkbare verschillen tussen al deze frameworks (en dus ook de libraries).
Je hebt wel gelijk, maar je onderschat een beetje de pitfalls hiervan voor complexe software.
Daarnaast is veel (desktop) .Net software gegroeid in een periode waarin de ontwikkelaar enkel met Windows rekening diende te houden, dus gebruik makende van .Net classic (Windows only). Wi je die code op linux dan zal je als ontwikkelaar dus zelf de code moeten omzetten naar een framework dat wel cross platform is.
Dit kan project afhankelijk een hele brok zijn, maar in andere gevallen ook weer niet. "Moeiteloos" is het enkel wanneer je project vanop voorhand hiermee tekening heeft gehouden, en dat is denk ik de grote minderheid wanneer we spreken over x86 en ARM.

Verder, tijdens het publishen van je code moet je wel degelijk een target runtime ingeven.
Hier een lijst met target runtime ID's.

En dan vergeten we eventjes dat de compiler ook van belang is, je kan bv naar native compileren (om performance/embedded redenen) waardoor je binary niet zomaar van het ene naar het andere platform kan. Dat spreekt voor zich en heeft verder niets met je opmerking te maken eigenlijk, maar als ontwikkelaar moet je er wel eventjes bij stil staan.

[Reactie gewijzigd door geoffrey.vl op 22 juli 2024 15:06]

Waar zie jij extreem zuinig in bovenstaand nieuwsartikel dan? Ik zie TDP's ~gelijk aan x86.
TDP is idd gelijk aan x86 maar uiteindelijk gaat het om prestaties per watt en daar wint arm het (nog) nier van x86.
Dat is niet wat ik uit dit bericht concludeer.

De performance zou 13% hoger zijn dan een Epyc 7702, met een verbruik dat ook ~13% lager is bij de Epyc.
Maar ze hebben daar niet de top Epyc gekozen. De 7742 heeft hetzelfde aantal cores als de 7702, maar een baseclock die 0.25 GHz hoger ligt (op 64 cores) met een TDP die alsnog onder deze ARM chip ligt.
Ik ben erg benieuwd hoe de vergelijking met deze chip op zou gaan.

Ook zijn de threads van de Epyc sneller, en is dat vaak zelfs bij zulke extreem multithreaded PCs een voordeel (minder communicatie tussen threads bij taken die dat vereisen, taken die singlethreaded draaien zijn sneller).

Natuurlijk lijkt een chip van Altera gunstig in het marketingmateriaal van Altera. Maar voordat je concludeert dat de performance per watt gunstiger is moet je verder kijken:
- Zijn er onafhankelijke vergelijkingen?
- Heeft de workload die je draait baat bij de complexere x86 instructieset?
- Hoe zit het met de links? AMD deelt zijn processors in in verschillende chiplets in een mesh-netwerk met communicatie-overhead tussen deze chiplets. Hoe doet Altera dat? Is dit relevant voor jouw workload?

[Reactie gewijzigd door Niet Henk op 22 juli 2024 15:06]

Ik kijk naar de tweede slide, zelfde verbruik, meer performance.
nee je kijkt naar wij van wc eend zeggen dat,

laten we eerst even een onafhankelijke benchmark afwachten ipv de fabrikant op zijn blauwe ogen te vertrouwen dat hun product sneller is.

Sneller in wat ze claimen specint 2017 , Maar dat is geen gevalideerde score. https://spec.org/cgi-bin/osgresults),

Teven zijn dit single threaded dus igg epic is het 80 altera vs 128 epic threads. (ben beniewed of ze smt uit hebben gezet)

Daarbij is het echt marketing want zij plaatsen 160 cores in 2U, Bij epic plaatsen we inmiddels al 512 cores in 2U dus die hele slides is onzin met rack density.

https://www.supermicro.co.../2123/AS-2123BT-HNC0R.cfm

2000+ Specinf 2017 op 2U , wedden dat altera dat niet haalt.

[Reactie gewijzigd door Scriptkid op 22 juli 2024 15:06]

Ik reageerde op de vraag Ruvetuve met betrekking tot Apple. Apple wil zich meer richten op energiezuinig dan extreem krachtige processoren die heel veel stroom vereisen.
Ik reageerde op de vraag Ruvetuve met betrekking tot Apple.
Hoe vroeg niks over Apple, hij vroeg naar het toekomstbeeld van ARM...
Apple wil zich meer richten op energiezuinig dan extreem krachtige processoren die heel veel stroom vereisen.
Op mobiel/airbook misschien maar op de desktop willen (en moeten) ze echt wel een vergelijkbare performance halen als de alternatieven (van Intel en AMD) en dat gaat uiteraard ten koste van het verbruik.

[Reactie gewijzigd door watercoolertje op 22 juli 2024 15:06]

Als multi-core goed geoptimaliseerd wordt is ARM heel sterk, je ziet in veel telefoons van een aantal jaren voor Ryzen al 'octa core' processors. Heel veel kleine ARM processors zijn goedkoper en energiezuiniger dan een groot silicoon blok.

Echter is een sterke single-core vaak handig voor programma's, vooral wanneer een loop vaak uitgevoerd wordt en deze bepaalde memory waardes vasthoud.
Er zijn genoeg voorbeelden waarin Apple's dual core een octa core verslaat. Dat zegt dus niets ;)
Tja ARM is slechts een architectuur, de werkelijke core kan heel groot of klein zijn. 2 grote cores kunnen sneller zijn dan 8 kleintjes. Natuulijk is de transistorgrootte heel belangrijk, voornamelijk voor power efficiency tegenwoordig. Apple gaat al naar 5nm binnenkort.

Opzich heb ik veel lof voor Apple voor het pushen van een andere architectuur. Het is een beetje jammer dat het ARM is en niet RISC-V of een andere opensource variant, want momenteel kost het nog steeds miljoenen om een license te krijgen voor ARM.
Het zou kunnen dat Apple in de toekomst nog een transitie doormaakt naar RISC-V, maar dan blijft het Apple Silicon. Ik denk dat ARM daarom ook expliciet niet is benoemd in Apples keynote voor WWDC 2020. Op die manier wordt de deur opengehouden voor wellicht nog een transitie in de toekomst, maar dat zie ik de komende 10 jaar nog niet gebeuren, tenzij RISC-V ook voor Apple grote voordelen heeft.
Het is een beetje jammer dat het ARM is en niet RISC-V of een andere opensource variant
Mja, wat maakt het uit? MacOS kan je officieel toch niet op eigen hardware draaien. Hackintosh is in de toekomst echt verleden tijd.
Als Risv-V developers erachter zou hebben zou het ecosysteem groeien. Het is leuk dat er open-source hardware is, maar als de software geen ecosysteem heeft doet dat vrij weinig.
Gaan ze die nog niet zo lang geleden geïntroduceerde Mac pro kaasschaven dan weer met pensioen sturen?
Als daar MacOS op blijft draaien en te updaten is, dan zal er vast een mogelijkheid zijn om hackintosh op je x86 systeem te draaien.
Zolang x86 MacOS ondersteund blijft worden wel, ik verwacht dat dat ook nog wel een tijdje gaat zijn.
Echter had ik het daar dus over MacOS in de toekomst, zodra ook de high performance machines over kunnen op ARM.
RISC-V is nog lang niet zo ver als ARM. Wellicht is er een mooie toekomst, maar als je nu een CPU wil hebben is ARM de enige serieuze optie.
Nee, ze zijn niet extreem energiezuinig. Performance per watt zitten ze op een gelijkaardige hoogte. Apple kiest voor arm om meer grip te hebben op de roadmap en meer controle te krijgen over zijn eigen computerplatform.
Deze processoren wellicht niet, echter richt ARM zich niet zozeer op snelheid maar meer op power efficient processing. Energiezuinig zijn is op de mobiele markt júíst hun verkooppunt :-). Ze zijn ook RISC based. Minder clocks per instructie dus.
Ook x86 is al jaren maar RISC dan CISC based. Dat is echt geene exclusief domein van arm systemen. Voor programmeurs gedragen x86 CPUs zich nog altijd als CISC, maar intern worden die instructies opgebroken en omgezet naar RISC achtige instructies net om de performantie per opgenomen vermogen te kunnen verbeteren zonder dat de legacy ondersteuning erdoor gebroken wordt.
Nadeel voor x86 is dat je dat dus eerst moet omzetten en dat daar toch een significante hoeveelheid aan plek op een die voor "gewaste" wordt.
Dat percentage die wordt wel steeds kleiner - bij de eerste Intel Core zal het wellicht nog significant zijn geweest maar de omzetting wordt niet groter terwijl de grootte van de cpu wel enorm is toegenomen... ik weet niet wat het vandaag is maar het zou me verbazen als het meer dan 3-4% is. Dat zal het verschil dus niet maken...
ARM-processoren verzetten meer werk per instructie dan een x86 en zijn in dat opzicht meer CISC dan x86-processoren.
Nee, ze zijn niet extreem energiezuinig.
De tweede slide spreekt je tegen. 13% sneller dan Epyc en 120% sneller dan Xeon bij zelfde verbruik. Heb jij een specifieke bron die het tegendeel beweert/bewijst?
De 2de slide klopt niet omdat Epic met 4 Procs per U komt , Zij rekenen met 1 proc per U

dus die slide bedoelt eigenlijk dat ze 15-20% Minder density hebben dan Epic maar ja dat staat niet goed in je eigen slide natuurlijk.

Daarmee verliezen ze waarschijnlijk ook de performance omdat epic 512 cores heeft VS 160 van Altera
Hoezo bij hetzelfde verbruik? Dat staat niet op de slide. Er staat 13% sneller dan een Epyc 7702. Dat is een 64 core 200 watt TDP. Er van uitgaande dat dit vergeleken is met Amperes snelste 80 core, dan is die 250 watt.

Hmm, ik zie nu 12,5kwu staan met 42U. Dat is 300 watt per U wat betekent dat het single core U's moeten zijn. Want 7702 heeft 200 watt nodig.

[Reactie gewijzigd door lordawesome op 22 juli 2024 15:06]

Hoezo bij hetzelfde verbruik?
Zie onderin de slide:
Rack Config: 42U w/ 12.5kw rack power
Er wordt dus gekeken naar een heel rack wat 12.5kw verslurpt, althans, zo lees ik dat.
Apart toch dat jij het allemaal beter weet dan Apple zelf;
For over a decade, Apple’s world-class silicon design team has been building and refining Apple SoCs. The result is a scalable architecture custom designed for iPhone, iPad, and Apple Watch that leads the industry in unique features and performance per watt, and makes each of them best in class. Building upon this architecture, Apple is designing a family of SoCs for the Mac. This will give the Mac industry-leading performance per watt and higher performance GPUs
Sinds wanneer is wat Apple zegt waarheid?
Meestal eigenlijk wel. Performance en batterij zitten ze 9 van de 10x in hun eigen specs onder de daadwerkelijke cijfers. Maar uit je woorden begrijp ik dat ze altijd onzin verkopen, misschien een iets objectiever brilletje op zetten.
Maar stel, alle software zou werken met ARM.
Zijn er dan nog steeds nadelen t.o.v. x86-64?
ARM op zichzelf is enkel een instructieset - je kan er zuinige of onzuinige chips mee ontwerpen, net als je enorme verschillen hebt binnen x86 chips. De grote reden om ARM te gebruiken is dat een licensie op de ARM instructieset relatief goedkoop is, en dat er ontzettend veel software libraries al voor geoptimaliseerd is.

Als server chip maker kan je een MIPS, SPARC of POWER instructieset gebruiken (of zelfs iets 'cutting edge' als RISC-V), maar je moet dan wel accepteren dat er veel minder OSsen en software op je platform draait.

[Reactie gewijzigd door Dreamvoid op 22 juli 2024 15:06]

het kan aan mij liggen, maar als ik naar het tabelletje hierboven kijk vind ik de tdp's flink hoog, ook in vergelijk met de kloksnelheden? of is de performance per klok tik niet vergelijkbaar met x86?
Ik verwacht van niet. Te veel legacy meuk dat enkel op x86 draait maar waar mensen en bedrijven geen afscheid van kunnen nemen.
Geef het tijd en het ondersteunen van je legacy meuk wordt zo duur dat afscheid nemen wel heel aantrekkelijk wordt. Zie: mainframes...
Genoeg budget en het word een non-argument, zie banken.
Mainframes hebben in bepaalde gevallen nog meerwaarde. Dat maakt ze niet minder niche, en personeel wat ze kan bedienen is moeilijk te vinden - hoeveel budget je ook hebt.
Dat wordt dan wel veel tijd. We zijn nog steeds niet verlost van win9x of zelfs DOS.
Behalve een paar aansturingsmachines voor oude hardware of andere niche toepassingen zullen toch niet veel mensen een nieuw project beginnen met een van die besturingssystemen...
Nee, daar heb je gelijk in.
Juist.

Windows kan pas overstappen zodra ARM echt duidelijk krachtiger is, zodat alle legacy software ge-emuleerd kan draaien zonder snelheidsverlies.

Dat gaat nog wel even duren, zover is ARM nog niet. Maar hoop wel dat Microsoft een goed alternatief bied op ARM.

Ik wil niet net zoals in de telefoon markt MOETEN kiezen tussen t gesloten en dure Apple of Googles data-graaierij, puur omdat er geen andere/betere keus is.
Denk je niet dat Apple X86-software via emulatie gaat draaien net zoals ze met PowerPC gedaan hebben?
zeker niet, ik had t ook over windows.

en windows zal wel moeten.

apple heeft nooit om legacy gegeven,...wil je oude software draaien, dan heb je pech en betaal je maar voor nieuwe software of OS.

bij windows is legacy juist een big thing. vrijwel elke software ooit gemaakt voor windows werkt tot op de dag van vandaag nog steeds.
Tegen dat issue lopen we al decennia aan, maar veel verdwijnt uiteindelijk toch. Oa.de verplaatsing naar 'cloud' heb ik de laatste 10 jaar gemerkt dat we steeds minder servers nodig hebben. Veel wordt opgevangen door webbased SAAS applicaties of zelf geschreven web applicaties die dan weer op 'serverless' |:( cloudservers draaien... Zeker veel van die webapplicaties kunnen relatief makkelijk op ARM draaien.

Legacy meuk houd toch op een gegeven moment op met werken omdat gewoon de infra er niet meer voor geschikt is en op een gegeven moment een hele Citrix omgeving in stand te houden voor 1 of 2 legacy applicaties gewoon niet meer rendabel...

Zo een verschuiving duurt jaren, zo niet decennia. Momenteel draaien ook niet alle servers ter wereld de modernste AMD Epyc CPUs...
Nope, the performance per watt is nog niet heel interessant voor meeste server doeleinden.
Wellicht voor shared hosting dat dit leuk is.

Aangezien ik gedownmod word, zal ik uitbreiden:

De charme van ARM is dat het goed genoeg en zuinig voor meeste taken is.
De charme van een meer complexe instructie sets zoals x86 vandaag is dat het vrij gecompliceerde taken relatief efficient kan uitvoeren.

Als je bij ARM meer instructie sets gaat toevoegen die hetzelfde doen als bij x86, word deze krachtiger, maar minder zuinig.
Als bij x86 instructie sets weghaald word deze zuiniger, maar minder krachtig.

Dit is kort door de bocht, maar kan het niet beter uitleggen op het moment.
Laten we vooropstellen, dat het in ieders voordeel is dat we er een echte competitor bijkrijgen.

Ik _moet_ erop werken, en zie de arm overgang niet heel rooskleurig tegemoet (ook al heb ik veel systemen hierop draaien).
Maar als main ontwikkelsysteem/poweruser, mjah "show me the money".

[Reactie gewijzigd door mg794613 op 22 juli 2024 15:06]

Dat is niet de enige reden. ARM cpu's zijn door hun ontwerp geschikt voor specifieke taken, maar ongeschikt voor andere. Virtualisatie bijvoorbeeld is iets waar x86 veel efficiënter in is. Voor dedicated taken als SAN of webserver, kan ARM een uitkomst zijn. Tot het moment dat er van een webserver meer variatie verwacht wordt, zoals ASP.net applicaties.

De basis van ARM ligt in dat de instructieset compact en simpel is, maar heel snel uit te voeren is. Bij x86 is de instructieset veel complexer en kan dus een grotere variatie aan workloads 'efficiënt' afhandelen. Zodra de taken simpel zijn, dan doet ARM het heel goed (zoals op mobile devices). Zodra de taken wat complexer worden, dan begint x86 het flink te winnen. Het ziet er voor mij dus ook naar uit dat een macbook met ARM cpu soms heel interessant kan zijn en soms heel onhandig.

Dat maakt ook benchmarks tussen ARM en x86 vaak een lachtertje. De architecturen verschillen teveel.
Dingen waar x86 chips beter in zijn hebben vaak niet zo gek veel met x86 te maken. Niemand houdt je tegen om extra functionaliteit toe te voegen aan je chip. En dat doen veel Chipmakers dus ook, bijvoorbeeld de NPU in Apple SoCs.
Nee, de NPU is een dedicated chip waar Huawei een van de eerste mee was. Maar nog steeds een chip voor specifieke berekeningen, net als een GPU. Een NPU kan ook als toevoeging voor een x86 chip dienen.

Het gaat ook niet om specifieke soort berekeningen, maar meer om de complexiteit van de instructiesets die gigantisch verschillen.
"Niemand houdt je tegen om extra functionaliteit toe te voegen aan je chip."

Dat klinkt gaaf, maar is een beetje simplistisch, zoals fapkonijntje al beter heeft kunnen uitleggen; de instructie sets worden zodanig anders gebruikt dat een een toevoeging zowat een annulering is van de kracht van de specifieke CPU.
Nope, the performance per watt is nog niet heel interessant voor meeste server doeleinden.
De tweede slide spreekt je tegen. 13% sneller dan Epyc en 120% sneller dan Xeon bij zelfde verbruik. Heb jij een specifieke bron die het tegendeel beweert/bewijst?
Wat dacht je van jarenlange ervaring op beide architecturen en een elke keer dit soort slides van de fabrikant voorgeschoteld krijgen, wordt je wellicht wat realistischer ingesteld van?
Uhm, in die slide gaat het om rack density, er staat nergens iets over performance per watt?
er staat nergens iets over performance per watt?
Zie onderin de slide:
Rack Config: 42U w/ 12.5kw rack power
Er wordt dus gekeken naar een heel rack wat 12.5kw verslurpt, althans, zo lees ik dat.
Tijd zal het zeggen. PowerPC en Itanium is het niet gelukt om X86 te vervangen.

Ondanks dat PowerPC nieuwer was, liep het op een gegeven moment achter op de X86 structuur.
Dat zal grotendeels zijn omdat ze vaak niet compatible waren. Tegenwoordig wordt software steeds meer platform-onafhankelijk. Interpreted languages en multi-platform compilers helpen hier zeer bij. Vooral het feit dat ARM in iedereens telefoon zit maakt het een populair platform.

Ik doe veel Python development en de meeste populaire libraries hebben prebuilt ARM wheels beschikbaar, de enkele die het niet heeft moet je wel zelf compilen maar het scheelt al een hoop i.v.m een paar jaar geleden.
Ik denk dat het voornamelijk met kosten te maken heeft. Als de hardware relatief duur is en ontwikkelaars niet gemakkelijk een systeem kunnen kopen om op te ontwikkelen in vergelijking met de industriestandaard, zal er niet veel voor ontwikkeld worden. Ten tijde van Apples PowerPC hardware zag je dat er wel wat meer ontwikkeling plaatsvond, maar met de overgang naar Intel hardware is er veel minder PowerPC hardware beschikbaar gekomen en aan software ook niet meer zoveel aandacht besteed.

Dat is de afgelopen twee jaar eigenlijk pas weer veranderd door de komst van POWER9 workstation/serverhardware, maar het blijft een dure niche. Dat was met SPARC, MIPS en Alpha ook het geval. ARM doet het op een andere manier met goedkope, zuinige en niet al te krachtige chips die echter in goedkope systemen zoals een Raspberry Pi te vinden zijn en derhalve voor iedereen beschikbaar zijn. Zo hebben veel kinderen en studenten sinds 2012 leren programmeren.

Als code voor zulke machines geschreven worden, zal er op een gegeven moment ook vraag komen naar ARM servers en dat is wat we nu zien. Linus Torvalds zei eerder ook al dat je redelijk krachtige desktops nodig hebt voor ontwikkelaars, voordat ARM servers een kans van slagen hebben en daar heeft hij volgens mij wel gelijk in.
Precies, het is op dat punt dat Itanium en PowerPC gefaald hebben. ARM is op dit punt niet perfect, maar doet het wel lichtjaren beter met alle Raspberry PI's en andere bordjes die voor een appel en een ei te vinden zijn. De meesten hebben geen Raspberry PI-desktop, maar het kan wel en achter je bureau software ontwikkelen die later op een zware server draait is bij ARM veel beter mogelijk dan bij deze andere architecturen.

Het keerpunt voor PowerPC was eigenlijk het verlies van de Xbox en Playstation aan x86: Met name de Playstation werd dankzij de Linux (die later verwijderd werd) nog flink gebruikt door ontwikkelaars. Toen die weg was, was PowerPC een hoekje voor excentrieke servers geworden.
PPC ging achterlopen omdat Apple de enige serieuze afnemer was. Freescale ging zich meer op embedded richten en IBM meer op de POWER kant.
Freescale ging zich meer op embedded richten en IBM meer op de POWER kant.
En dat was de reden dat Apple uiteindelijk mer de PowerPC gestopt is. Ze hadden de keuze uit langzame embedded Freescale processoren of een highpowered IBM POWER derivaat. De G5 was een erg krachtige processor met een hoog verbruik, dus kansloos in een laptop. De verwachting toen was dat Freescale en IBM beiden niet met een energiezuige, snelle PowerPC zouden komen.
Grote rekenclusters gebruiken in de orde van megawatts aan stroom als ze vol staan te stampen.
Bij de aanschap van een cluster zijn er drie grote onkostenposten:

1: aanschaf van het cluster :*)
2: stroom om hem zijn levensduur (typisch 10 jaar) te runnen :'(
3: stroom om hem die 10 jaar te koelen. :'(

Die kostenposten zijn alle drie doorgaans ongeveer even groot.
Als je hetzelfde rekenwerk kan uitvoeren met zuinigere processoren, kun je erg veel geld besparen, of voor je budget een dikker cluster kopen. 8-)
Correct, en vuistregel 1 Watt cluster = 1 Watt koeling. 1 Watt minder verbruik door het cluster is dus 2 Watt besparen.
Ook correct. De gemaakte warmte moet ergens heen, en alle stroom gata op aan warmte (en entropie, maar dan wordt het ingewikkeld).

[Reactie gewijzigd door hooibergje op 22 juli 2024 15:06]

ARM gaat niet alleen het toekomstbeeld worden voor CPU's, maar dat is het nu al met alle chips die in allerlei apparaten gebruikt worden. Apples transitie op de desktop is de eerste serieuze, maar Linux werkt ook al prima op ARM en vandaar dat het meegenomen werd in Apples keynote voor WWDC 2020.

Er is eigenlijk maar één groot platform dat er niet volledig op draait inclusief applicaties en middleware en dat is Windows. Maar dat zal degenen die met ARM apparatuur werken, weinig boeien, omdat Windows in die markt toch al niet relevant is. Als Microsoft serieus is met betrekking tot ARM, zal het al zijn eigen software ernaar moeten porten en derde partijen ervan moeten overtuigen om dat ook te doen.

Maar dat lukt tot nu toe niet zo goed en ik vraag me af of het ooit echt van de grond komt.
Er zijn meerdere Windows versies die al een ARM variant hebben.
Probleem is echter dat er weinig software voor beschikbaar is. Daar kun je Microsoft moeilijk de schuld van geven.
En waarom zouden we ook overstappen als het op het moment prima werkt? Zolang wij, als eindgebruikers of beheerders, geen significant voordeel hebben van een andere architectuur zie ik weinig voordelen, hoogstens een verhoging van de concurrentie (maar die is nu ook al flink).
Voor Apple is dit een heel ander verhaal aangezien ze alles in eigen beheer willen hebben.
Er zijn meerdere Windows versies die al een ARM variant hebben, maar geen enkele ervan kan je "zomaar" gebruiken zonder verder veel erover te moeten nadenken.

Het is natuurlijk appels en peren vergelijken, maar ik draai sinds een half jaar een Raspberry Pi 4 met daarop Ubuntu server. Ik ben in al die tijd welgeteld 1 pakket tegengekomen dat niet in de ARM repositories zat. En zelfs toen was het rap opgelost door gewoon even de source te clonen van github, "./configure", "make" en "make install" te doen om het aan de praat te krijgen. Standaard zaken als je in Linux werkt die je ook af en toe moet doen zelfs al werk je op x86.

Zo vlot werkt het dus in Linux land. Ik ben vaak skeptisch over wat Apple doet, maar ik ben er van overtuigd dat bij Apple die transitie even vlot gaat verlopen. Ik twijfel juist wat over hoe games gaan lopen, maar dat is sowieso al een ramp op Mac. Koop een console of Windows bak als je wilt gamen, dan ga je sowieso al een betere ervaring hebben.

Om even terug te stappen op waarom overschakelen: Waarom niet? Het geeft je extra opties. Intel houdt x86 echt compleet vast. AMD geeft goede concurrentie op dit moment, maar dat is ook maar 1 extra bedrijf dat niet elke niche kan vullen. Op ARM heb je nu hopen fabrikanten in alle verschillende niches en formaten. Zo is mijn Raspberry Pi hier eigenlijk verrassend krachtig. Ik draai op dit moment 10 Docker containers met verschillende services (home assistant, backups, webservertje, etc). Dat voor 50-60 euro met maar een paar Watt aan vebruik. Voor een bordje met Intel zit je rap aan 2-3x de prijs.
Er zijn meerdere Windows versies die al een ARM variant hebben, maar geen enkele ervan kan je "zomaar" gebruiken zonder verder veel erover te moeten nadenken.
Maar hoe is dat anders aan enig ander OS? Zelfs met "x86" Windows inbegrepen?

Windows en Linux vergelijken m.b.t. software is een kwestie van programmeurs aansporen. Windows heeft tegenwoordig zelfs een appstore.
Dat voor 50-60 euro met maar een paar Watt aan vebruik. Voor een bordje met Intel zit je rap aan 2-3x de prijs.
2-3x de prijs maar 10x de performance... appels met peren. Uiteraard ook een hoger verbruik.
[...]

Maar hoe is dat anders aan enig ander OS? Zelfs met "x86" Windows inbegrepen?

Windows en Linux vergelijken m.b.t. software is een kwestie van programmeurs aansporen. Windows heeft tegenwoordig zelfs een appstore.
Omdat je voor de x86 niet moet nadenken of je programma's gaan werken. Je weet dat alles gewoon gaat werken. Dat heb je niet bij ARM. Wil je een ARM Windows machine kopen, moet je eens goed nadenken wat je allemaal gebruikt en of dit wel compatibel gaat zijn. Dit is veel minder het geval bij Linux, en dan zeker voor server toepassingen. 99% van de tijd besef je niet eens dat je op een andere architectuur werkt. Dat is gewoon echt niet zo als je op ARM Windows werkt. En ik vermoed dat Apple op ARM hier ook gewoon beter gaat zijn. Worst case gebruik je iPad apps, waardoor je nog eigenlijk bijna alles kan (al zou er in het begin geen developer support zijn).

Als PC persoon doet het me pijn om te zeggen, maar Apple is ook gewoon beter in hun developers aansporen dan Microsoft. Dit heeft zijn voordelen en nadelen, maar voor dit soort moves zijn ze beter gepositioneerd.
2-3x de prijs maar 10x de performance... appels met peren. Uiteraard ook een hoger verbruik.
10x de performance gaat het zeker niet zijn. Die ultra low power Intel chips zijn ook niet van de snelste. Om trouwens even te schetsen hoe verrassend krachtig die rpi4 is met een heatsinkje er op: ik kan via Plex eigenlijk zonder probleem h264 realtime transcoden naar 1080p aan 6-8mbps op CPU. 6mbps werkt altijd, de 8mbps is op het randje en hangt wat af van de file die je wilt transcoden. Maar hey, dat op een Raspberry Pi zonder de hardware encoder te gebruiken. Wat een gigantische vooruitgang toch? Op de Raspberry Pi 3 had je (als het ware) al geluk als je 1080p video al vlotjes kon afspelen.

Anyway, ik heb nooit gezegd dat die Raspberry Pi even snel was. Wat ik beweerde is dat met ARM er gewoon meer niches zijn waarin je kan kopen. Die Raspberry Pi is perfect voor mijn use-case. Waarom 2-3x zoveel betalen voor performance die ik toch niet gebruik.
Ik geeft Microsoft nergens de schuld van en ik ervaar het ook niet als een probleem, omdat ik nauwelijks gebruik maak van Windows en programma's die ervoor geschreven zijn. Maar om in ieder nieuwsitem over ARM processoren de discussie op te rakelen over het nut ervan en of deze wel of niet beter zijn dan Intel/AMD processoren, gaat voorbij aan het feit dat deze ARM processoren voor gebruikers van andere besturingssystemen (Linux, Free/Net/OpenBSD, Illumos) wel relevant zijn en soms ook de betere keuze kunnen zijn.

Voor Windows zou ik vanwege legacy zo lang mogelijk op x86 blijven, totdat er na een grondige evaluatie blijkt dat het de moeite waard is om over te stappen. Maar zoals ik al zei, dat gaat er volgens mij nooit van komen. Ik denk dat er eerder nog een ARM64 versie van ReactOS komt met een ruime selectie aan open source software.
Ah, dat kan ik alleen maar met je eens zijn.
Nee, de echte toekomst ligt in mijn mening in RiscV of IBMs Power ISA!

RiscV is een echt open licentie en Power ISA is ook redelijk open.
ARM is een iets strictere licentie en legt de focus voor desktop applicaties te veel op efficiëntie, das de reden waarom ze wel de mobiele markt hebben over genomen, maar niet de desktop markt.

Wel is het ook belangrijk om te begrijpen dat de servermarkten en particulieren markten heel anders zijn, zelfs in servers zelf heb je verschillen. Maar het komt er op neer, als je performance wilt dan neem je een X86, maar als efficientie belangrijker is dan neem je een ARM procesor. Maar dan moet je ook in gedachten nemen welk software je gaat gebruiken, want ARM draait niet moeiteloos alle X86 software!

De x86 kroon van AMD en Intel zal nog niet gauw verstoten worden, maar wie weet wat er in de toekomst gebeurt.
Wel opvallend dat ze nergens performance per watt noemen, iets wat normaal het stokpaardje van ARM vs x86 is.
Waar halen mensen dat idee toch vandaan? Waarom zou het zuiniger zijn? Al jarenlang zien we dat dat niet het geval is. Enkel als een systeem idle is kan het en net daarom gaat Intel nu ook het big.little principe toepassen op zijn nieuwste CPUs
Dat is een beetje kort door de bocht. Maar bij dit soort server CPUtjes is het vooral dat ARM meer cores in een package kan proppen, die per stuk een lagere ipc hebben. Waarbij x86 een hogere ipc per clock kent, maar minder cores.

De vraag is vooral wat je nodig hebt voor je workloads. Er zijn situaties dat een ARM cpu heel handig is en veel sneller kan zijn, maar er zijn veel meer situaties waarbij een x86 cpu beter om kan gaan met het werk dat 'ie moet doen.

Een x86 CPU is ook veel breder inzetbaar met alle extensies die er zo langzamerhand op zitten. Dat maakt soms verschil. Zelf heb ik bewust voor een NAS met een ARM SoC gekozen, want die past veel beter bij het werk dat 'ie voor mij moet doen en zo veel goedkoper is voor dezelfde performance.
Als ze het niet noemen vul dat zelf maar in of de performance per watt beter zal zijn dan x86. Als dat zou zijn zou je dat heel duidelijk horen.
Kwam deze tegen:
https://www.nextplatform....server-chips-against-x86/

Zou iets betere perf/watt hebben dan een Epyc CPU, maar aankoop is ook wat duurder. Je zou kunnen stellen dat AMD daar einde van het jaar ook weer overheen zou kunnen gaan, zo klein als het verschil nu is.

Op dat performance-niveau lijkt het dus beetje stuivertje wisselen.

[Reactie gewijzigd door watercoolertje op 22 juli 2024 15:06]

128(!) cores. Geweldig! Ik kan me nog goed herinneren toen de eerste dual-core uit kwam. Wat zijn we toch ver gekomen.

Ik kan niet wachten wat de toekomst brengt voor de processorwereld. Zeker als we straks niet meer in nanometers meten, maar in angstroms.
Oh, je bedoelt de IBM POWER4 uit 2001?
Inderdaad erg veel cores! Zijn deze allemaal ook multi-threaded of is dat voor servers niet interessant?

Bij mijn eerst 4 cores PC vroeg men zich nog af wat de meerwaarde er van was; er draaide toch geen enkele app op meer dan 1 core ...
Deze cores zijn niet multithreaded, maar die van Marvell's ThunderX2 en ThunderX3 ondersteunen bijvoorbeeld SMT4. Ze hebben bij Altra expres gekozen voor singlethreaded cores, omdat dan beter latencies gegarandeerd kunnen worden. Ik hoop dat ze na de 128 cores doorpakken naar 256, hoewel dat niet echt hoeft en er misschien beter gewerkt kan worden aan hogere IPC en hogere frequenties.
Er zijn ARM cpu's met SMT, maar door het ontwerp van ARM heeft dat vaak niet veel nut, in tegenstelling tot x86 cpu's.
dus qua "threads"zijn ze gelijk aan AMD epyc met 64 cores en 128 threads?
Ik heb nog geen arm CPUs gezien met SMT dus het zou mij verbazen.
Ze bestaan zeker wel, onder andere als onderdeel van de ARM Cortex-A65AE spec. In dit geval vooral bedoeld voor de automarkt, om de signaalverwerking zo snel en optimaal mogelijk te laten verlopen. Dat zijn héééél veel extreem kleine simpele taakjes (signalen) die verwerkt moeten worden. Daar past SMT op ARM goed bij. Maar zodra die verwerking een stukje complexer worden, doet SMT voor ARM niets meer. Daarom zie je het bij telefoons en servers niet.
Maar de Angstrom is de grootte orde van een enkel atoom. Dat zal zo snel niet gaan gebeuren.
14 angstroms is al een roadmap voor, 2029. :-)
Dat is erg optimistisch.
Dat zal misschien wel, al gaan de ontwikkelingen wel heel erg hard natuurlijk. 9 jaar geleden hadden we Sandy Bridge, op 32NM. Tegenwoordig hebben we al chipmakers die klaar zijn / al chips op 5nm produceren.
Cross platform. (Apple TV, iPod, IPhone,iWatch, Mac) applicatie development, beschikbaarheid / compatibiliteit moet je niet onderschatten. ARM heeft zich bewezen om meerdere devices, nu Is de desktop / laptop aan de beurt. Het heeft er Alle schijn van dat dit gaat lukken.
De desktop zal enorm meeliften op de mobiele platform architecturen en toekomstige ontwikkelingen, verwacht dat deze ontwikkelingen sneller blijven gaan dan Intel.
Het zou aardig zijn als het artikel ook context biedt aan mensen die iets minder thuis zijn in de materie.

Zoals ik het begrijp zijn dit servers bedoeld voor de grote (en kleine) cloud leveranciers die met ARM-based hardware betere efficiëntie halen.
Lol.. Ben al jaren fan van niet intell alternatieven. Met name de amd en risc processor zoals in de atari /amiga en nu in de fpga apollo 5... Arm gaat nu ook meedoen

Op dit item kan niet meer gereageerd worden.