IBM kondigt z17-mainframe met Telum II-chip aan voor grootschalige AI-taken

IBM heeft zijn nieuwste mainframe voor enterprisetoepassingen aangekondigd, de z17. Het systeem, dat vanaf 8 juni beschikbaar komt, is volgens het bedrijf specifiek ontwikkeld voor grootschalige AI-toepassingen.

De z17 is uitgerust met de nieuwe Telum II-processor en kan dagelijks 450 miljard inferentiebewerkingen uitvoeren. Dit is 50 procent meer dan de z16 uit 2022. De processor bevat een ingebouwde AI-accelerator en beschikt over 32 cores.

Het systeem kan ook worden uitgerust met de optionele Spyre-accelerator, een PCIe-kaart die in het vierde kwartaal van 2025 beschikbaar komt. Bij de release ondersteunt de z17 maximaal 48 Spyre-accelerators, wat binnen 12 maanden wordt uitgebreid naar 96. In tests verwerkte een prototype Spyre drie keer zoveel afbeeldingen per watt als high-end gpu's, volgens IBM.

De ontwikkeling van het systeem nam vijf jaar in beslag. Het systeem is geoptimaliseerd voor generatieve AI en agentic AI, en kan volgens IBM worden ingezet voor meer dan 250 toepassingen waaronder fraudedetectie, het voorkomen van witwassen en het bepalen van kredietrisico's.

Door Andrei Stiru

Redacteur

08-04-2025 • 07:59

40

Reacties (40)

40
40
17
0
0
21
Wijzig sortering
Wow, IBM gooit even flink wat spierballen in de strijd zeg! 450 miljard AI-bewerkingen per dag, dat is niet misselijk. Klinkt bijna alsof ze een Skynet aan het bouwen zijn. Ben vooral benieuwd naar die Spyre-accelerator, drie keer zuiniger dan high-end GPU’s klinkt wel heel lekker. Nu nog een goede use-case buiten banken en verzekeraars, en dan wordt het echt interessant!
Het is natuurlijk volkomen ongedefineerd wat een "AI bewerking" precies is. DLSS op je videokaart doet een AI bewerking op ~100 miljoen pixels per seconde, dan zit je na een uur al op 360 miljard AI bewerkingen.
Tegelijk lijkt IBM de Spyre chips wel graag te vergelijken met oudere GPU series.
https://tachoshpc.com/spy...lest-ai-platform-of-2025/
When you link up 8 Spyre cards, you get theoretical AI computational power about on par with the latest GPUs. The difference is now you have 1TB of coherent memory, as opposed to 80-128 GB on a typical GPU.
Tegenover vandaag bij NVidia en AMD, gaat dat al heel hard richting 2TB RAM:
https://www.nextplatform....ious-heat-in-gpu-compute/
Zie je in de afbeeldingen staan voor de diverse oplossingen.
Hoe verhoudt dit zich met chips met optical interface. Zoals NVIDIA Rubin GPU. Als ik volgende video kijk staan we nu in kinderschoenen met wat over 5 jaar een data center kan...
YouTube: HUGE Microchip Breakthrough and The Secret Plan of NVIDIA

[Reactie gewijzigd door 01--Rolf--01 op 8 april 2025 08:31]

Dat de Z-serie nu al op de markt is (en al decennia track record heeft) en die optical speeltjes nog niet zo te bestellen zijn. Voor bedrijfscontinuiteit wil je geen experimentjes, daarom pak je juist een mainframe.
Ik schat in dat de toegevoegde waarde van de "AI" voor de meeste klanten van IBM voor zOS zeer beperkt is en ronduit onverstandig.
Het zijn vooral banken, verzekeringen en de overheid die er massale (batch) verwerking op doen en dit vanuit het verleden meenemen. De policy van IBM is namelijk ook dat je regelmatig mee moet in de upgrades anders verlies je je "inruilwaarde" na 2 keer overslaan van een nieuwe generatie. Alternatieven qua hardware bestaan er feitelijk niet dus hang je er als organisatie aan vast.
Aangezien het een betrouwbaar (niet onfeilbaar trouwens!) platform is en "de hart van de zaak" daarom vanuit het verleden hierop draait is het lastig om er zomaar mee te stoppen. Veel klanten moeten dus meegaan en lopen er dan tegenaan dat het ook nadelen kent (bij zaaksgewijs vs batch verdampen veel voordelen..).
Los daarvan is het niet alleen een hardware afhankelijkheid maar is er ook een demografisch/ personeel probleem. Het MF werk gewoon anders en de expertise is net als het gebruik uitermate schaars en wordt niet meer gezien de huidige alternatieven. Bestaande gebruikers lopen er dus ook steeds meer tegenaan dat het personeel binnen afzienbare tijd (10-15 jaar) permanent op vakantie is (pensioen) en dan sta je daar met je mainframe in de kou.
Ondertussen zoeken ze dus eigenlijk allemaal naar alternatieven om de afhankelijkheid te verminderen. De kans dat er nu nog iemand instapt is marginaal (lees:dom). Het lijkt dan ook ook op dat men nu probeert via de achterdeur het inrichten van een AI-platform hierop te stimuleren. Gezien de aangehaalde afhankelijkheid en het ontbreken van alternatieven zullen "verstandige" klanten hier dan ook hopelijk niet intrappen. Dit overigens los van de vijandige houding van de VS en het niet weerstand bieden door de VS-bedrijven wat aleen maar een reden temeer is om je los te maken van een dergelijke SPOF.
Zover ik begrijp is de "AI" ondersteuning op de Telum zo gebouwd dat het in principe heel snel op dezelfde data kan werken als een reguliere CPU core. Lage latency, enorme bandbreedte.

Hun voorbeeld is bvb dat de CPU reeds betalingslogica uitvoert, waaronder fraudedetectie. Betalingsinformatie komt binnen, CPU voert allerlei instructies uit, on-chip AI accelerator doet simultaan fraudedetectie, klaar. Geen interactie met een GPU op een idioot verre PCI-E bus.
Ter herinnering: PCI-E is enkele honderden nanoseconden latency. Een interne L2 cache is zo'n 3-4ns.
Voor grote LLMs of plaatjes moet je een gigantisch model inladen in honderden gigabytes geheugen, maar da's niet waar ze met de on-chip AI op mikken.

Dit is trouwens al de tweede generatie, dus het is niet nieuw.
Ik schat in dat de toegevoegde waarde van de "AI" voor de meeste klanten van IBM voor zOS zeer beperkt is en ronduit onverstandig.
Je gaat geen AI toepassen om je transacties te verwerken, maar voor bijv. 3rd party risk kan ik me wel voorstellen dat ze met AI aan het experimenteren zijn.
Dat gebeurt net wel. Dat is realtime antifraudedetectie en dat is een hot topic voor banken.
Waarom denk je dat die bankautomaten 20 seconden nadenken voor ze iets doen? Anders zou het gemakkelijk binnen de seconde lukken.
Enkele maanden geleden betaalde iemand op een camping in detroit $20 met mijn creditcard. Daarop is mijn kaart onmiddellijk geblokkeerd. Hoe mastercard kan weten dat dat fraude was maar op vakantie geen problemen is mij een vraagteken. Maar ze kunnen het dus wel.

[Reactie gewijzigd door jorisporis op 8 april 2025 14:55]

Detecteren van fraud usecases zoals "Impossible Travel" is een solved problem. Daar heb je geen AI voor nodig.
Tussen de frauduleuze transactie en de voorgaande zat genoeg tijd om de wereld rond te reizen. Ik vermoed dus dat er ook naar andere devices gekeken word. Bv waar heb je je bankapp gebruikt, al gebruik ik die ook niet elke dag. Dus moet er meer intelligentie zijn die gebruikspatronen herkent. Dat kan een klassieke if else zijn maar kans is groot dat er modernere technieken toe worden gepast. Bv heb je vleigtuigtickets gekocht etc etc
Inmiddels zijn er genoeg initiatieven om de kennis bij te spijkeren! Zo heeft Hogeschool Gent al enkele jaren een mainframe gefocust curriculum beschikbaar.

Daarnaast is z/OS niet het enige wat deze bakken kunnen. Je kan ook gewoon Linux draaien. Hiermee zou je dus een zeer hoog beschikbare Linux omgeving kunnen draaien voor meer tegenwoordig gebruikelijke databases. Postgres, oracle, mongo, etc combineer dat met AI accelerators in dezelfde machine als je database en transactie verwerking. Ik denk dat voornamelijk banken best een experiment kunnen draaien om hun fraude detectie algoritmes met een sausje AI af te toppen

[Reactie gewijzigd door coolkil op 8 april 2025 12:00]

9 Mainframe Statistics That May Surprise You
https://www.precisely.com...me/9-mainframe-statistics
Artikel 23 september 2024.
Ik ben van mening dat als je statistieken nodig hebt om een bepaalde technologie/hardware op te hemelen het eigenlijk niet echt goeie reclame is ;)

Mijn gevoel is dat op de locaties waar mainframe nog gebruikt wordt vaak een stukje vendor lock-in zit en de vrees om het werk van de mainframe door iets anders te laten doen. Als het werkt, niet aankomen. Waar mainframe in gebruik was zag je de "hand" van IBM wel ver reiken. Van het pushen van DB2 als database binnen de organisatie tot het gebruik van Lotus 123. Dat gaf me toch wel een raar gevoel. Dit is een persoonlijke mening en kan voor iedereen anders zijn.
Mijn gevoel is...
Dan heb ik toch liever statistieken, die de werkelijkheid weergeven.
Ik denk dat je verrast zou zijn als je bij een grote bank of verzekeraar binnenloopt (of eigenlijk bij ieder bedrijf dat mainframes gebruikt). Jazeker zijn er ook stukken code die niemand aanraakt "omdat het werkt". Die kom ik alleen ook tegen in unix omgevingen van multinationals die al lang in bedrijf zijn. Maar er wordt veel meer wel continue herbouwd dan je denkt.

Waarom blijven bedrijven op mainframes? Omdat er eerlijk gezegd geen echt goede alternatieven zijn voor sommige onderdelen van de backbone. Al mijn klanten die proberen van het mainframe af te komen lopen er tegenaan dat een unix/linux omgeving die de werklast aankan vele malen duurder is dan op het mainframe. Dit gaat er natuurlijk wel vanuit dat een omgeving opgezet wordt die een vergelijkbare uptime kent. Dit kan in een unix/linux omgeving natuurlijk door technieken zoals b.v. clustering, wat het wel dynamischer maakt. Maar dat levert ook complexiteit op die er op het mainframe niet is.

Mensen die nooit met dit soort werklasten gewerkt hebben kunnen zich moeilijk voorstellen hoeveel werk het is. De meeste van mijn klanten hebben meer transacties per dag dan het aantal zoekopdrachten dat Google dagelijks wereldwijd verwerkt. Dat zijn nog niet eens de grootste financiele instellingen, die een veelvoud aan transacties verwerken. Je moet je voorstellen dat die transacties door een klein aantal computers in een klein aantal racks verwerkt wordt, en niet door miljoenen machines in een aantal grote datacenters.
Al mijn klanten die proberen van het mainframe af te komen lopen er tegenaan dat een unix/linux omgeving die de werklast aankan vele malen duurder is dan op het mainframe
Kijk, dat is tenminste een valide reden waar je iets mee kan. Probleem die ik soms tegenkom is dat het helemaal niet om massale processen gaat van miljoenen of miljarden transacties per dag, maar omdat het al decennia op mainframe draait. Het zijn ook vaak bedrijven waar de core business hetzelfde is en niet veel veranderd, dus blijft de mainframe staan.

Dat er nog een business case is voor mainframe geloof ik meteen, maar het merendeel is echt omdat het al decennia draait en vernieuwing totaal niet aan de orde is, want het werkt.
Er zijn inderdaad ook de nodige processen die op een mainframe draaien waarbij het mainframe niet het beste platform is. Veel van dat soort processen worden naar andere platformen gemigreerd. Maar ook veel van die processen worden van Cobol naar Java omgezet met de gedachte dat ze dan later misschien wel naar een ander platform kunnen. Vaak wordt dan niet voldoende naar de architectuur gekeken waardoor de nieuwe Java implementatie net zo hard aan het mainframe vast zit. Kortom, er is nog genoeg te leren.

Het kiezen waar processen zouden moeten draaien valt onder het kopje "fit for purpose". Het mainframe is geweldig voor sommige werklasten, maar er zijn ook veel werklasten die meer last dan profijt van een mainframe hebben.

De laatste oplossing die vaak goed werkt is om Linux te draaien op een mainframe (zLinux). Dit kan een goede oplossing zijn voor processen waarbij het mainframe niet de juiste oplossing is, maar latency tussen het proces en andere processen die wel op het mainframe thuishoren belangrijk is.

Al met al vind ik dit een fascinerend domein. Zelf zit ik in de performance hoek, waarbij we klanten helpen om de maximale performance voor applicaties op het mainframe te verzorgen tegen minimale kosten. Het grappige is dat er veel meer developers zijn die werken aan al die applicaties die van het mainframe afgehaald worden. Die applicaties zijn meestal afhankelijk van andere services die wel op het mainframe blijven. Door inventiviteit van al die nieuwe developers worden er nieuwe waardevolle services bedacht en gemaakt die effectief het gebruik van het mainframe verhogen. Alleen zit dat verbruik in minder services. Dit levert weer veel werk op voor mensen waar ik mee samenwerk, omdat de performance van die mainframes weer verbeterd moet worden door de extra werklast.
De foto is misleidend, dit is geen z17, maar een partij server racks waar massaal "pizzadozen" in geschoven worden.

Een Z17 is gewoon een grote koelkast, of 2 naast elkaar als je uitbreiding nodig hebt.
https://techcrunch.com/20...-built-for-the-age-of-ai/
Achter dat knappe deurtje zitten gewoon verschillende 1u, 2u en 4u boxen.
De maatvoering misschien. Maar de inhoud van die boxen is toch wel degelijk een heel stuk anders dan gebruikelijke server racks
Interessant voor partijen die niet van de Amerikaanse BigTechs afhankelijk willen zijn maar hun data on-prem willen verwerken.
En met IBM ben je dan niet afhankelijk van de Amerikaanse BigTechs denk je?
Je blijft sowieso dingen houden die uit de USA komen, maar nu hoef je je data niet aan een cloud toe te vertrouwen. Hardware is iets makkelijker dicht te timmeren dan cloud, en jij beheert de aan/uit-knop.

IBM is de ouwe BigTech, ik denk dat ocmer de nieuwe BigTech bedoelt (Microsoft, Google, Amazon) die vooral je data minen. IBM stuurt nog ouderwets een (hele) dikke rekening, en daarmee klaar (zover ik weet).
IBM doet de firmware upgrades op afstand voor je. Ook schakelen ze cpu’s, wederom op afstand, voor je bij op verzoek, of weer af… dus of je nou de aan/uit knop echt in handen hebt.

Het is meer huur, dan eigendom, een mainframe.

@coolkil Interessant, ik zit er niet heel diep in, maar zo had ik het begrepen. Kan zijn dat er uiteraard een wat andere deal was bij de klant waar ik dit meemaakte. Alles ging gewoon vanuit Montpellier.

[Reactie gewijzigd door Keypunchie op 8 april 2025 10:51]

Das niet waar. Voor firmware upgrades komt 1x in de zoveel tijd een systeem technicus. Deze doet de upgrades. Wat betreft activeren van hardware dat gaat met offline licentie keys en firmware upgrades.

Ik ken geen 1 klant die z’n hardware management console benaderbaar heeft vanaf internet of die vanaf z’n HMC bij het internet kan.

[Reactie gewijzigd door coolkil op 8 april 2025 10:50]

Die offline license keys zijn vooral voor volledige unlocks, en volledige unlocks zijn bewust omhoog gepriced om zo iedereen richting annual/monthly commitments te duwen.

De "nieuwe" Capacity on Demand is wel degelijk mogelijk om per CPU-second verrekend te worden en verbind met de cloud hiervoor. Uiteindelijk is hier niets nieuws aan, het is uiteindelijk het digitale equivalent van het fysieke urentellertje dat op de oude 370s zat dat de service tech kwam uitlezen.
Mijn klanten gebruiken allemaal IBM Capacity on Demand (nou ja, zo min mogelijk) en die Mainframes zijn van buiten echt niet bereikbaar, ook niet voor IBM. Capacity on Demand op een z-systeem is niet afhankelijk van cloud.
Het zou vast kunnen tegenwoordig. Maar capacity on demand is ook bijvoorbeeld cbu licenties om tijdelijk uitwijk capaciteit toe te voegen. Ook daar is bij mijn weten geen cloud afhankelijkheid.

Ik zit meer in de zlinux hoek maar op z/OS wordt de capaciteit voor operating systeem license uitgebreid bijgehouden. Maar dat wordt volgens mij niet via cloud gedaan (niet 100% zeker)
Hoe is Microsoft nieuwe big tech?
In vergelijking met IBM is alles nieuw :+

Microsoft is all-in op cloud en data nu, zelfs al moeten ze daar Linux voor omarmen. Dat gooi ik even onder 'nieuw', hoewel het bedrijf al wel wat ouder is en ook nog steeds z'n oude beroep als besturingssysteem-bakker uitoefent.
Je bent wat betreft Microsoft en Linux en beetje blijven hangen in 2010 lijkt wel. Het merendeel van de Azure Cloud draait op Linux en dat is al vanaf het begin. We zijn al 15 jaar verder...
Hyperscaler deel van Microsoft
IBM is de ouwe BigTech, ik denk dat ocmer de nieuwe BigTech bedoelt (Microsoft, Google, Amazon) die vooral je data minen
En met Microsoft, Google en Amazon bedoel je Azure, Google Cloud en AWS voor bedrijven? Want dan kan je dat data minen wel achterwege laten en staat los van deze discussie.

In alle gevallen, al helemaal bij mainframe, is er wel vaak sprake van vendor lock-in en dus afhankelijkheid met deze big tech uit de VS.
Voor onderhoud, maar (mits goed ingericht) niet voor dagelijks gebruik. Dat beperkt al enigszins de risico's die van dag tot dag zich ontwikkelen en weer verdwijnen in de wispelturige VS.
Dit is wel een mooie vervanger voor de iSeries 740, kan die ook een keertje rebooten. :P
250 toepassingen waaronder fraudedetectie, het voorkomen van witwassen en het bepalen van kredietrisico's.
Zoveel toepassingen maar degenen die worden genoemd zullen vermoedelijk onder de noemer 'profiling' vallen....
Zijn IBM mainframes nog steeds Big Endian of zijn ze inmiddels overgestapt naar Little Endian?
Nog steeds Big Endian.


Om te kunnen reageren moet je ingelogd zijn