Apple onthult M3 Ultra-soc met '50 procent snellere cpu' dan M2 Ultra - update

Apple heeft een nieuwe M3 Ultra-soc aangekondigd. Deze chip is bedoeld voor high-end Mac-computers en beschikt over 32 cpu-cores, 80 gpu-cores en maximaal 512GB aan 'unified memory'. De soc wordt gebruikt in een nieuwe Mac Studio.

Net als voorgaande Ultra-chips van het bedrijf is De Apple M3 Ultra gebaseerd op twee M3 Max-chips. Die worden met elkaar verbonden via een UltraFusion-interconnect, die bestaat uit meer dan 10.000 verbindingen. Volgens Apple zorgt deze interconnect voor een bandbreedte van 2,5TB/s tussen de twee chips. De soc wordt door TSMC gemaakt op een 3nm-procedé en beschikt in totaal over 184 miljard transistors.

De M3 Ultra beschikt hiermee over een cpu met in totaal 24 Performance-cores en acht Efficiency-cores. Volgens Apple presteert het cpu-gedeelte van de soc daarmee tot 50 procent beter dan de bestaande M2 Ultra. De chip beschikt daarnaast over 'de grootste gpu in een Apple Silicon-soc tot nu toe'. De M3 Ultra krijgt 80 gpu-cores en presteert volgens Apple twee keer beter dan de gpu in de voorgaande M2 Ultra. Verder wordt het aantal cores van de Neural Engine-npu, die wordt gebruikt voor het uitvoeren van AI-rekenwerk, verdubbeld naar 32.

De M3 Ultra krijgt daarnaast meer geheugen dan voorheen. Het instapmodel krijgt 96GB aan unified memory, maar gebruikers kunnen kiezen voor maximaal 512GB geheugen. De geheugenbandbreedte loopt volgens Apple op tot 800GB/s.

Verder biedt de nieuwe M3 Ultra verschillende nieuwe features ten opzichte van de voorgaande M2 Ultra. De chip ondersteunt bijvoorbeeld Thunderbolt 5-aansluitingen, die ieder doorvoersnelheden van 80Gbit/s ondersteunen. Apple zegt dat gebruikers meerdere Mac Studios aan elkaar kunnen koppelen via Thunderbolt 5 om de rekenkracht van die desktops te kunnen combineren.

De M3 Ultra krijgt ook een betere displayengine, die het mogelijk maakt om acht Pro Display XDR-schermen aan te sturen op een enkel systeem. De media-engine wordt ook beter en kan volgens Apple tegelijkertijd 22 ProRes-422-streams van 8k afspelen. De nieuwe Ultra-soc maakt zijn debuut in een nieuwe versie van de Mac Studio, die vanaf 12 maart in de verkoop gaat.

Update, maandag - In het artikel stond aanvankelijk dat de cpu-prestaties van de M3 Ultra '80 procent' hoger liggen dan die van de M2 Ultra. Dat was echter in vergelijking met de M1 Ultra. Het artikel is hierop aangepast.

Apple M3 Ultra

Door Daan van Monsjou

Nieuwsredacteur

05-03-2025 • 15:23

50

Submitter: doc

Lees meer

Reacties (50)

50
50
34
0
0
13
Wijzig sortering
Vraag me een beetje af waarom ze niet direct met een M4 ultra komen in plaats van nu nog de M3 ultra. Problemen met yield?..
Mogelijk problemen met de yield, of voor de Mac Pro houden? Hebben ze toch een reden om de Mac Pro te verkopen... :)
Maar iemand die niet op de hoogte is van hoe de model ranges in elkaar steken gaan toch denken dat M4 beter/nieuwer is dan M3. Dus marketing-wise vind ik het een gekke keuze om een nieuwe Ultra processor het modelnummer van de vorige generatie te geven. Ook al is het technisch gezien geen M4 Ultra, Apple zou er goed aan doen hem de M4 Ultra te noemen. Tenzij er nog een M4 Ultra aan komt op korte termijn natuurlijk! ;)
Denk dat er nog flink wat M3 Max'en op de stapel liggen, iets anders kan ik ook niet verzinnen. En Marketing technisch safe spelen, want mogelijk single core is een M3 Ultra minder dan een M4 Max?
de pro is helaas zo dood als een pier.
Bedoel je de Mac Pro? Waarom zou deze dood zijn? Omdat de Mac Pro al bijna twee jaar geen update heeft gehad? De verwachting is dat deze update later dit jaar zal komen. Lijkt me logisch dat ze dan ook met een nieuwe ultra-chip gaan komen.
Volgens mij is de Mac Pro in de grafische wereld nog steeds een veelgebruikte computer, juist om zijn grafische kracht.
Overigens is Apple een tijd terug wel gestopt met de iMac Pro.
De Mac Pro heeft inderdaad al heel lang geen update gehad, kreeg ook als laatste de update naar Apple Silicon en sinds hij dat gebruikt, heeft hij praktisch geen meerwaarde meer ten opzichte van de Max Studio. Tuurlijk, het ding heeft een sloot pcie-slots, maar lang niet alle insteekkaarten werken daar zomaar in. Bovendien kost het ding 2x zoveel als een Studio met dezelfde cpu.
Nou ik zie ze amper nog, heel af toe een. Over het algemeen zijn t iMacs. Voor bijna al het grafisch werk is dat ook voldoende. Zwaardere toepassingen, 3d, dat is voornamelijk pc gebied. De Mac Pro komt uit een tijd waarin je na een paar jaar je computer een upgrade kon geven, nieuwe gpu, misschien een IO kaart. Dat is er niet meer. Voor extra opslag heb je de ruimte ook niet meer nodig. Bovendien is t nu zodanig dichtgetimmerd dat je zelf niet veel meer kunt doen. Je kunt misschien met een beetje tinkering zelf zo'n aangepaste ssd erin zetten en dat is t wel. Maar wie weet, komen ze met een soort uitbreidingskaart met een losse processor. Maar heb het idee dat het bij apple vooral om efficiënt stroomgebruik gaat en dat een energieslurper daar niet meer binnen past.
Tegenwoordig breid je Macs uit met externe Thunderbolt/USB4 SSDs.
Vanwege die enorme hoeveelheid ‘unified’ geheugen vermoed ik dat deze chips vooral voor AI bedoeld zijn. Misschien heeft Apple dit al een tijd geleden ontwikkeld met de M3 en in de tussentijd intern gebruikt voor hun AI werk, en is het nu tijd om het aan het publiek te releasen.
Als t ook een beetje wil renderen op de gpu dan is die hoeveelheid ram ook interessant.
Zou wel logisch zijn, of hij nou wel of niet gebaseerd is op de M4 architectuur. De concurrenten doen dit al geregeld volgens mij (o.a. AMD die de zen versies door elkaar gooit etc).
Volgens mij komt de M3 versie nu uit omdat die eindelijk klaar, af en/of goed genoeg is. Ook de ontwikkeling van dit soort gecombineerde cpu's/soc's heeft ook haar tijd nodig.
Leuk ding voor LLMs , 512GB RAM welke vrijwel geheel beschikbaar is voor de GPU.
Als de LLM's CPU optimized zijn misschien, de GPU hierin is geen echte LLM vreter.

[Reactie gewijzigd door GewoonWatSpulle op 5 maart 2025 21:08]

De 30-core M3 Max GPU komt in de buurt van een RTX 4070 kwa compute, en deze M3 Ultra heeft 80-cores. En dus tot 512 GB unified RAM. Ik denk dat je daar echt geen slecht platform aan hebt voor LLM inferencing (voor training ga je uberhaupt geen desktop workstation gebruiken lijkt me).
Hoeveel kost dat ding eigenlijk? De 30-core M3 Max GPU met 512GB ram?
Dat lijkt mij toch een flink stuk duurder dan een RTX 4070? (Zo'n eurootje of 5 duurder. :+ )

Kan je dat dan niet beter vergelijken met een steviger AI kaartje?
Een M3 Max GPU kan je niet met 512GB RAM krijgen, maar tot voor kort met maximaal 128GB in de MacBook Pro. Die kostte je dan ongeveer 5500 euro. Nu kun je een 40-core M4 Max GPU met 128GB krijgen in de MacBook Pro, voor ~5800 euro. Die zal dan misschien eerder in de buurt van een RTX 4080 komen kwa compute.

Vergelijkingen met een RTX 4070/80 gaan mank want ten eerste kan je die niet met zo veel geheugen kopen, en ten tweede is het geen complete PC. Maargoed uiteraard kan je voor minder een PC kopen met zeg een RTX 5080 erin als je geen 128GB VRAM nodig hebt.
Kan je dat dan niet beter vergelijken met een steviger AI kaartje?
Ik weet niet precies meer wat dat NVidia AI doosje met 128GB RAM precies kostte dat ze onlangs aangekondigd hadden, maar als ik me niet vergis ging dat ook al richting de 4000, en daar kan je verder niks anders mee dan AI modellen draaien.

Dus hoe je het ook bekijkt, als je een compleet systeem wil dat ook nog AI modellen kan draaien en schaalt tot 128GB of voor de Ultra zelfs 512GB, dan heeft Apple iets in de aanbieding wat je volgens mij nergens anders kunt krijgen, en ja dat kost geld...
Blijkbaar is er al een preorder prijs:
https://www.apple.com/sho...uct=MU973LL/A&step=config
M3 Ultra chip, met 80 core gpu + 512GB unified memory. (en allerkleinste SSD) komt op 9499$

Ik wilde dit monstertje niet vergelijken met een 4070. Mijn post-parent deed dit.
Ik wilde er gewoon op wijzen dat dit monstertje toch wel een stukje duurder is, en dan beter kan vergeleken worden met een ander toestel met gelijkaardige waarde. (Geen idee welk dat zou zijn)

Hierboven werd ook enkel LLM's besproken, geen compleet systeem om andere zaken mee te doen.
Gezien dat geheugen een van de belangrijkste beperkingen is voor AI zou je moeten kijken wat het kost om 512gb aan geheugen van NVIDIA te krijgen - hebben ze dat uberhaupt wel?

De video kaart voor prosumers met het meeste VRAM van NVIDIA heeft 24 gb. Hun duurste, zwaarste pro oplossing heeft 80GB. De A100 80GB kost een auto, en is bijna niet verkrijgbaar - en heeft dus 'maar' 80gb. Met infiniband of hoe ze 't ook noemen kun je er unified memory van maken als je er meer hebt maar 10K is dan een grap kwa prijs - je zou 6x A100 moeten hebben, plus een server board en cpu waar je ze in stopt. Die hebben dan samen weer veel, VEEL meer compute, maar wel veel hogere latency, dus vergelijken is erg moeilijk...

Voor iemand die AI inferencing wil doen in iets van video editing bijvoorbeeld, die zal met een 256 of 512gb M3Ultra absoluut dingen kunnen doen die op elk platform zelfs voor een paar ton niet snel te krijgen zijn. Of die apps en use cases er zijn dat kan ik dan weer niet zo inschatten. Maar het simpele feit dat je het allergrootst nu beschikbare taalmodel zonder enige quantization makkelijk 3x in geheugen kan hebben en nog zat ruimte overhoud is zeker interessant.
Zal een stuk sneller zijn dan b.v. een 5090 met maar 32GB VRAM die continue delen v/h model moet inswappen over de relatief trage PCIe bus.
Ze worden toch echt gebruikt voor grote modellen door een steeds groter wordende groep.

Alle andere opties zijn een stuk unpraktischer en gebruiken 5x meer stroom.
De grootste bottleneck normaal gesproken bij LLMs of CPU draaien is de memory bandwidth, dat is hier geen probleem vanwege unified memory, en je hebt ook de intergrated GPU hier :)

Natuurlijk met hoe duur dit ding wordt is de grafische performance een lachertje vergeleken met een 5090, maar je zult hier best een model van een paar honderd GB op kunnen draaien met enigsinds redelijke performance. Geen idee hoe je dat anders zou willen doen, tenzij je een server CPU gebruikt met heel veel RAM kanalen.
En ik lees dat er meerdere Studio’s kunnen worden gekoppeld. Zou al dat geheugen dan cumulatief beschikbaar zijn?
Wat zijn toepassingen waarbij je 8 pro displays gaat gebruiken in 1 systeem?
Zelfs dan zie ik daar het nut niet van.
Een control-room met heel veel videofeeds, statistieken of dashboards, dat soort zaken?
En dat doe je met Apple Pro displays?
Nee dat lijkt me niet. Maar moet dat, dan?
Nee absoluut niet, maar het ging er over dat je 8x een Pro display kunt gebruiken en waarom je dat zou doen. Pro displays hebben zeker hun nut maar ik weet niet waarom je in een control room zulke dure schermen zou gebruiken.
Hoe weegt deze chip op tegen de huidige M4 Pro bijvoorbeeld?
Dat is geen goede vergelijking, in principe zijn er 4 verschillende chips.

De normale M, de Pro, de Max en de Ultra.

Hoe hoger je gaat in klasse, hoe meer processor en grafische kracht je tot je beschikking hebt.
Dat is een prima vergelijking. De M3 ultra wordt schijnbaar namelijk boven de M4 pro geplaatst. En zolang er geen M4 Ultra kan je hem daar toch niet mee vergelijken. Als je puur geinteresseerd bent in de snelste Apple chip is het zelfs de enige vergelijking.

[Reactie gewijzigd door Thekilldevilhil op 5 maart 2025 16:15]

Nee, boven de M4 Max.
De M3 Ultra krijgt ook een betere displayengine, die het mogelijk maakt om acht Pro Display XDR-schermen aan te sturen op een enkel systeem. De media-engine wordt ook beter en kan volgens Apple tegelijkertijd 22 ProRes-422-streams van 8k afspelen.
Ik ben wel benieuwd of er echt mensen zijn die dit nodig hebben, of zijn dit kreten van Apple waar uiteindelijk niemand iets aan heeft?
Videobewerking lijkt me? En dat je het niet perse gebruikt wil niet zeggen dat het niet goed is om die (over)capaciteit te hebben.

Dat een auto 200 km p/u kan rijden wil niet zeggen dat je dat elke dag de hele dag door móet doen.
Kan je dit echt gebruiken met videobewerking? Ik ben een leek hierin, vandaar ook m'n vraag, maar dan lijkt me dit een auto die 1000km/h kan halen. 😅
Bij serieuze videomontage werk is dat inderdaad wel handig.

ProRes 422 stream voor 1080p30 draait rond de 147Mbps. (8bpp)
8k is een veelvoud hiervan, 10bpp verhoogt dat nog eens.

Een raw 10bit 8k video: 7680 * 4320 * 3 * 10/8 = +- 120 MB per (packed!) frame.
Als we dat unpacken:
Een raw 10bit 8k video: 7680 * 4320 * 3 * 2 = +- 190 MB per frame.

Zo'n 4 a 5 frames uncompressed / GB memory.

Het loopt snel op. :)
Het is denk ik een leuke bijkomstigheid van het aan elkaar plakken van twee pro chips, maar het zal geen ontwikkelingsdoel ansich geweest zijn.

Qua use case, tja geen idee wellicht iets van een centrale waar ze zo'n muur met schermen hebben of zo'n finance bureau setup.
Multicam montage? Wel indrukwekkend. 22x 8K streams. Kan een Nvidia dat wel eigenlijk?
Aan de ene kant lijkt het tegenvallen, dat ze dit met een M3 gaan doen. Het zal wel komen door yield problemen.
Maar aan de andere kant, voor mensen die lokaal LLM's draaien is het door de 80-core GPU en 512GiB geheugen een fantastisch interessante machine. Zeker ook omdat je ze met Thunderbolt 5 kan koppelen.

Veruit het lastigste aan een lokale capabele LLM machine, is de hoeveelheid videogeheugen. Als je de Geforce route gaat heb je snelle GPU's maar ontzettend weinig videoram per gespendeerde euro.
Mac's zijn daarom al een tijdje populair, omdat ze erg vlotte GPU's hebben die gebruik kunnen maken van het unified geheugen, en dat ook met een behoorlijke bandbreedte.

De Mac mini (tot 64GiB) en de Mac studio (tot 192 GiB) zijn al best populaire opties, omdat het vaak de beste prestaties voor de prijs geeft voor het lokaal draaien van LLM's. Maar zelfs deze opties kunnen niet een groot model zoals Deepseek R1 (400MB download) draaien. Ik heb mensen hem op youtube zien draaien met gekoppelde mac studio's. Get koppelen van mac's gaat schijnbaar redelijk eenvoudig met een opensource programma waarmee je eenvoudig een soort LLM clustertje kan maken. (Dit vertraagt wel een hoop, maar bij thunderbold 5 is dit nog wel werkbaar)

Deze nieuwe Mac studio, waarbij je met 512GiB echt heel serieuze LLM's kan draaien is denk ik straks een fantastische optie. Je hebt dan een computer onder de 10K, die grote modellen kan draaien! Als je iets dat vergelijkbare modellen kan draaien met een set dedicated videokaarten, ben je er niet onder een 100K.

En ja dedicated videokaarten zullen sneller zijn, maar in mijn ervaring met mijn Mac mini M4 Pro, zijn de mac GPU's zeker niet langzaam. Ik draai 32B modellen met 10 tok/sec en dat werkt comfortabel.
...why?

Wat een bizare move om de Studio een M3-gebasseerde chip te geven terwijl de M4 generatie al half weg is en M5 bijna voor de deur staat. Zeker aangezien de Studio ook een M4 Max krijgt...

[Reactie gewijzigd door Loller1 op 5 maart 2025 16:18]

Mogelijk omdat ze met de M3 architectuur nog wel goede yields halen en het mogelijk een stuk goedkoper te produceren is?
Het verschil tussen de M3 en M4 is vooral het proces. De M3 is waarschijnlijk juist duurder om te produceren.
Maar hoe werkt de m3 ultra dan want ik dacht dat Apple de UltraFusion Interconnect op de M3 Max had verwijderd
Source: https://www.extremetech.c...on-interconnect-on-m3-max
Een aangepaste versie van de max?
Voor de liefhebbers: de prijzen staan op de preorder pagina:
https://www.apple.com/shop/buy-mac/mac-studio
Met welke nvidia GPU is deze nieuwe versie die in de chip zit dan te vergelijken? Apple lijkt op dat gebied ook steeds grote stappen te halen, voor je het weet halen ze AMD, Nvidia en Intel in.

Op dit item kan niet meer gereageerd worden.