IBM onthult nieuwe Telum II-processor en Spyre-accelerator voor mainframes

IBM heeft de volgende generatie van zijn Telum-processor onthuld, samen met een nieuwe AI-accelerator genaamd Spyre. De technologieën zijn gericht op het verbeteren van de prestaties van IBM Z-mainframes, met name op het gebied van AI en grote taalmodellen.

De Telum II-processor beschikt volgens IBM over acht cores die draaien op 5,5GHz, met een toename in cachecapaciteit van 40 procent ten opzichte van zijn voorganger. Per core is er 36MB L2-cache beschikbaar, wat resulteert in een totale on-chipcache van 360MB. De virtuele level-4-cache is gegroeid tot 2,88GB per processorlade. De geïntegreerde AI-versneller biedt vier keer zoveel rekenkracht als bij de eerste Telum-processor. Een andere toevoeging is de geïntegreerde data processing unit, die de verwerking van input en output moet versnellen en vereenvoudigen.

Naast de Telum II introduceert IBM de Spyre-accelerator, een PCIe-kaart speciaal ontworpen voor complexe AI-modellen. Deze kaart kan tot 1TB geheugen bevatten en verbruikt maximaal 75W. De Spyre-accelerator kan met acht kaarten samenwerken in een standaard I/O-lade. Elke Spyre-chip bevat 32 rekenkernen die verschillende dataformaten ondersteunen.

IBM mikt met deze nieuwe hardware op toepassingen als fraudedetectie, antiwitwaspraktijken en AI-assistenten. De combinatie van Telum II en Spyre moet leiden tot verbeterde prestaties bij zowel traditionele als nieuwe AI-modellen. Naar verwachting komen de Telum II-processor en de Spyre-accelerator in 2025 beschikbaar voor klanten met IBM Z- en LinuxONE-systemen.

Door Andrei Stiru

Redacteur

27-08-2024 • 09:31

37

Submitter: S913

Reacties (37)

37
37
19
2
0
14
Wijzig sortering
Acht cores. Per core is er 36MB L2-cache beschikbaar, wat resulteert in een totale on-chipcache van 360MB
Dat is dus niet hoe het werkt. 360 / 36 = 10, niet 8.

De totale L2/L3 cache per chip is inderdaad 360 MB, waarvan 80% (8*36) bij een core hoort, en 20 % (72 MB) niet. Die laatste 72 MB is dus exclusief L3; de andere 8*36 MB kan gebruikt worden voor L2 én L3. En in de standaard architectuur kan de L3 cache van één CPU gebruikt worden als virtuele L4 cache van een andere CPU.
Dat wil dus zeggen dat elke cache line een veld heeft om aan te geven bij welke core die hoort: de lokale core (L2), een andere core op dezelfde chip (L3) of een andere core op een andere chip (L4).
Zijn dit x86 CPU's? Of is IBM-Z iets helemaal anders?
De instructieset is gebaseerd op Z Architecture, niet op x86. Deze architecture is gericht op mainframe taken en, naar ik meen, een hoge parallelisme cq samenwerking tussen sockets. Daarnaast heeft IBM ook de Power architecture waar ook de multisocket support belangrijk is. Door het aantal cores per socket tegenwoordig is deze functionaliteit wel minder van belang bij reguliere systemen maar bij mainframes nog zeker wel van grote waarde.

zie ook Wikipedia: IBM Z

[Reactie gewijzigd door Aragnut op 27 augustus 2024 09:42]

Het zijn CISC-architectuur cpu's, dus in dat aspect lijken ze op x86 (in tegenstelling tot RISC-cpu's zoals bijvoorbeeld ARM).

Maar het is geen x86 instructieset, maar z/Architecture instructies. Dus ja, het is iets helemaal anders
RISC en CISC zijn concepten van decennia geleden en helemaal niet meer van toepassing op hedendaagse CPUs. Een moderne Intel en AMD CPU heeft ook een RISC instructieset waarbij, naar ik begrepen heb, vele van de complexe instructies worden opgebroken in meerdere eenvoudige instructies.
Dan heb je het niet goed begrepen!

De x86/x64 instructieset is CISC. Dit kan in microcode vertaald worden naar RISC instructies.
Ik denk dat hij het wel goed heeft begrepen? Moderne x86 processors zijn intern alsnog grotendeels risc processors met een x86 overlay?
Een moderne Intel processor heeft naar de buitenwereld maar één instructieset, en dat is CISC. Intern wordt dit vertaald naar RISC, de Intel Core "core" is RISC. Maar het geheel is CISC. Je kunt je Core i5 geen RISC instructies geven.
Dat laatste kan dus wel. Dat is wat er in je microcode updates zit. Overigens is het innerlijk van een moderne processor waarschijnlijk geen RISC maar een VLIW processor.

VIA processors kun je trouwens rechtstreeks RISC instructies voeren met een paar handelingen, de zogenaamde alternate instruction set mode. Zie bijvoorbeeld https://x.com/xoreaxeaxeax/status/1027642170860163072

[Reactie gewijzigd door xorpd op 27 augustus 2024 13:28]

Volgens mij weet je het niet beter. Helaas. Volgende keer beter!
.

[Reactie gewijzigd door leonbong op 27 augustus 2024 13:24]

Moest ook even zoeken, maar hier vindt je meer informatie:

Wikipedia: z/Architecture

Het is dus zArchitecture ? Hun eigen architectuur zou ik zeggen..
Staat in de eerste zin van het artikel:
Telum II-processor
Maar dat zegt dus niks over de architectuur ;) het is een terechte vraag; je kan je processor ook PietjePukProcessor noemen maar dan weet je nog niet of het x86-compatible is of niet.
Als ie x86 compatible is wilt het zeggen dat er hardware matig iets aan wiskundige formules zijn toegevoegd bij de destbetreffende processor dat in samenwerking met de architektuur maakt hem cics of risc.Het enige nadeel van cics en risc is dat ze dus niet compatible met elkaar zijn en best wel veel verschillen.daar mede is het van toepassing dat men met veel kunst en vliegwerk het met elkaar compatible maken een heuze workaround word voordat ze met elkaar kunnen cominiseren daarom zal er x86 instructies toegevoegd moeten worden wilt een processor x86 worden en vice versa ook.Wat dooe de meeste mensen gebruikt word is dus de x86 processoren.Bij de cics processoren zal men dus een heuze x 86 lijn moeten programmeren op de chip of op de south bridge zodat de cics processor weet wat voor een programmaas hij allemaal moet laden voor een hwardware matige x86 emul;atie te simuleren dat gaat gepaart met processor power verlies zo een 30 procent als men dat harwdare matig doet als men het software matig doet kan er nog meer verloren gaan zodat het bijna niet meer loont om een cics processor voor verschillende taken te laten werken.En voor die taken dus een cics processor te kiezen.Cics processoren hebben meer voordeel als ze een cics compatible os hebben zodat niks geemuleert hoeft te worde.En daar zit de echte kracht van de snapdragon die zonder x86 code heus echt snel te werk kan gaan.
x86 code is een handicap voor hem en heeft het niet nodig.
Dit heeft natuurlijk niks te maken met de telium processor van ibm.

[Reactie gewijzigd door rjmno1 op 27 augustus 2024 13:44]

Ik snap letterlijk geen één zin die je schrijft hier......
Verschil tussen risc en cisc is and gates of nand Gates.
Precies. Om maar weer eens de autovergelijking erbij te pakken: als je alleen schrijft dat er een Toyota-motor in de auto zit, dan weet je nog niet of die compatibel is met benzine, diesel of lpg.
Telum is de lijn van processors. Dit is dan ook de tweede in die lijn.

De architectuur is z/Architecture
Ik weet dat IBM mainframes maakt, maar wat is precies het voordeel van deze IBM hardware tegenover bijvoorbeeld de nieuwste AMD Epyc?

Is dit puur architectureel, omdat IBM een andere architectuur gebruikt en hiermee dus ook support voor hele specifieke hardware?

Leveren de gebruikers van deze mainframes hier in op prestaties wegens exclusiviteit? Of is dit simpelweg de enige manier?

Deze vragen stel ik omdat 8 cores op 5.5ghz natuurlijk gewoon niet super indrukwekkend klinkt naast b.v. 128 cores. Of 96 cores met 1152MB cache. Nu begrijp ik opzich wel het principe 'juiste gereedschap voor de taak', maar vraag ik me dus af waar precies de overweging/het verschil in zit?

[Reactie gewijzigd door NoobishPro op 27 augustus 2024 10:22]

8 cores op zichzelf is misschien niet zo indrukwekkend. Echter koop je deze processor niet in een klein kartonnen doosje om op je eigen moederbord te schroeven.
(Jammer genoeg :+ )

Deze gaan in kant en klare mainframes die compleet gemonteerd afgeleverd worden bij eind klanten met niet 1 maar misschien wel 20 of meer van deze chips aan boord. Je kan er met een gerust hart vanuit gaan dat als je ergens een bankrekening of een verzekering hebt je gegevens met regelmaat door dit soort chips gaan. Interssant feitje de machines zijn over het algemeen best wel energie efficiënt. Ik heb door datacenters heen gelopen die vol stonden met x86 en in het hoekje een paar mainframes die met minder floorspace en minder stroom een hogere transactie volume afhandelen.

Bijkomend deze dingen draaien heerlijk op Linux als je wilt O-)

[Reactie gewijzigd door coolkil op 27 augustus 2024 11:07]

Nee, die worden geleverd in een groot houten krat, see https://www.reddit.com/r/homelab/comments/w8touq voor mijn 3907 ;-).

Standaard opleveringen zijn vijf van die processors per CPU shelf, waarvan er vier bruikbaar zijn. De vijfde is een hot spare dat overneemt als er eentje het begeeft. Hetzelfde gebeurd met RAM - mijn 3907 heeft 320GB aan DIMMs maar daar blijft maar 256GB van over na de RAIM taks.

Re: energie efficientie, die van mij slorpt 1.4kW aan de muur op, disk array excluded, tape library emulator included. Heel erg efficient gaan ze hier echter niet met om; die dingen doen niet aan power management, en er is nul verschil tussen mijn 13 CPUs op 100% load en 12 uitgeschakeld en de laatste die overschiet op 10% load. Dit is jammer genoeg wel een gemiste kans.
You crazy SOB 8-) 8-)

Blijft mooi spul om mee te werken ik heb zelf een z13 van scratch mogen implementeren. Bij een klant dan dit is te groot en duur speelgoed voor thuis :+

Wat betreft energie heb je wel een punt geen dynamische management. Aan de andere kant deze machines zijn bedoeld om 24/7 80-100% load te draaien dus het zou ook weinig toevoegen
* 80-100% van de licensed capacity, niet perse 80-100% van de capaciteit dat aanwezig is in het frame.

Een Z06 CPU tier zoals die van mij (all CPUs active, 100% perf) is _enorm_ zeldzaam om in het wild tegen te komen. Iemand dat ik ken heeft een B02 tier van dezelfde CPU (wat al een heel eind meer courant is), en die heeft maar 2/26e van de CPU cycles op twee CPUs die actief zijn. De manier waarop dit word geimplementeerd op die hardware is een verborgen partitie met een unoptimised while(1) loop dat door PR/SM (de hypervisor dat op de HW zelf draait) wordt gescheduled op basis van wat je CPU tier is - heb je een lagere CPU tier gaat die while(1) loop aan een veel hogere prioriteit dan je effectieve workload draaien.

Die B02 waar ik het hier over heb komt van bij een grootbank uit het VK, en die gaat indd aan 80-100% van de licensed capacity gedraaid hebben, maar da's in de praktijk maar tussen de 2-2.5% van de effectieve capaciteit van die hardware, en dat voor hetzelfde fixed power budget.

Re: weinig toevoegen, power en thermal management in datacenters is erg relevant tegenwoordig, makkelijk te besparen stroom is makkelijk te besparen warmte waar je niet meer vanaf moet, en da's warmte/stroom die naar iets anders kan gaan.
Architectuur gaat verder dan alleen maar aantal cores en Ghz'en. Als je alles wilt weten, zou je je moeten verdiepen in de z/Architectuur (niet per ongeluk op "uitprinten" klikken :P )
Een Z processor heeft allerlei co-processoren on-chip en soms on-core om de "normale" core te ontlasten. Zo zijn er co-processoren voor AI, compressie, sort, encryptie plus dedicated processoren voor I/O. Allemaal dingen waardoor dit soort operaties geen invloed hebben op de (applicatie) workloads.

Hardware.info heeft na de vorige aankondiging een leuk stuk geschreven:
https://nl.hardware.info/...quantum-proof-crypto.html

[Reactie gewijzigd door S913 op 27 augustus 2024 10:41]

@NoobishPro Heel sterke backwards compatibility met existing code bases; mijn 3907 CPU draait met veel plezier onder z/VM code dat mee in de VM/370 sixpack voor Hercules word gedistribueerd. Al die oude compilers en tools blijven gewoon werken; ik kan op mijn z/VM 6.4 partition zonder problemen PROFS of OfficeVision/VM uit de jaren '90 deployen.

Idem voor mijn VSEn partition; de compilers/toolsets uit een oude ADCD kunnen even goed ingeladen worden en doen nog steeds hun ding.
Deze systemen zijn een klasse apart niet te vergelijken.

De geheugenbandbreedte is gigantisch vs intel/amd.
Geen thermal throttling altijd full speed.

YouTube: Why Do Mainframes Still Exist? What's Inside One? 40TB, 200+ Cores...

[Reactie gewijzigd door leonbong op 27 augustus 2024 11:57]

Ik heb mijn eigen personal pet mainframe (3907-Z06) + werk er professioneel mee, en naar mijn ervaring worden deze dingen bitter weinig voor effectieve workloads gebruikt.

In theorie zijn die dingen aanwezig, maar de meeste plekken waar die hardware in PROD draait zijn niet echt agile genoeg met deze omgeving om hier effectief van gebruik te maken. Vaak kruipen er ook pikante details in licensing, want op Z (en high-end Power) zit je ook met capacity licensing + usage fees er voor.

Linux op MF is ook iets dat enorm word gehyped langs de IBM kant, maar in de praktijk hangt het met haken en ogen aan elkaar. Ik herinner mij onlangs een support ticket met RHEL/IBM over RHEL9 dat een minimum requirement heeft van een z14, en dan tijdens early boot een kernel panic gooit met "unsupported CPU, you need a z14" op een z14. z/OS blijft de norm, met een erg beperkte deployment van z/VM en een nog beperktere deployment van VSEn (het vroegere z/VSE).

TL;DR, awesome hardware, maar ik vermoed dat dit weer heel erg underutilised gaat worden omwille van externe factoren.
Er bestaat blijkbaar ook nog altijd z/TPF. Gespecialiseerd OS zoals de naam zegt Transaction Processing Facility. (Wikipedia: Transaction Processing Facility)
Met een eigen Database Facility. z/TPFDF. Education anno 2020 hier : https://community.ibm.com...2a-4623-84fb-2b08eecc8d03
z/TPF is indd iets waar ik al lang naar op zoek ben voor in de collectie, maar je vind het nergens. Het word nog maar op een handjevol (lucratieve) sites gebruikt waardoor het in leven word gehouden.
Long shot : via de UG een van de leden http://www.tpfug.org/member_companies.htm (waarom niet KLM) eens contacteren of ze via higher-ups binnen IBM een zPDT-achtige omgeving zouden kunnen regelen (en tegen welke voorwaarden). Er moeten voor applicatie-modernisatie toch mensen zijn die de materie kunnen kennen, dus ook tools.
Meer details over dit fascinerende platform, recente presentatie ook 2024 z/TPFDF Performance and Storage Improvements
z1090 heb ik hier niet nodig, ik kan het gewoon native draaien hoor ;-).

Niet dat ik het niet heb liggen - ik heb zowel een P/390e als z1090 als een z14.
z/TPF is een OS voornamelijk in gebruik bij luchtvaartmaatschappijen en credit card maatschappijen dat geoptimaliseerd is voor hun specifieke high volume workload karakteristieken.
Eigenlijk bijna niet meer een OS, maar meer een transactie processor en database in één :-) One purpose.

[Reactie gewijzigd door S913 op 27 augustus 2024 18:32]

Dat lijkt me een kwestie van hoeveel mensen erop zitten en documentatie. Zo'n ding is toch compleet gespecificeerd op papier? Krijgen linux-devs daar inzage in? Ik weet er niks van maar je begint met een minimalist kernel die alleen maar alle hardware dekt op elementair niveau. Daarna multitasking/proces management en een shell en volgens mij ben je klaar om programmacode te draaien. Alles moet alsnog wel snappen waar we op draaien, uiteraard.
Het probleem is dat CI/CD testing vaak via QEMU of KVM gebeurd, en dat die omgevingen bijlange niet accuraat zijn voor echte hardware. Problemen die maar pas boven komen op echte hardware kunnen heel erg lang onontdekt blijven voor dingen die niet vaak gebruikt word.
75w voor 1TB geheugen én processor? Volgens mij ga je al richting de 75w voor al dat geheugen alleen al. Dan nog denk ik dat er eerder een 1 vóór moet staan of een 0 erachter.
75W klopt wel voor de Spyre kaart, maar de TB's zijn wat verwarrend opgeschreven. Elke Spyre kaart heeft 128GB memory (en 32 cores) en 8 Spyre kaarten kunnen "gebundeld" worden om samen te werken en zo kom je op 1TB.

Op dit item kan niet meer gereageerd worden.