Bloomberg: Apple test M3 Ultra-soc met 32 cpu-cores en 80 gpu-cores

Apple test volgens Bloomberg een nieuwe Mac Studio met een onaangekondigde M3 Ultra-soc. De chip zou beschikken over 32 cpu-cores en 80 gpu-cores. Het is niet bekend wanneer de chip precies verschijnt, maar vermoedelijk gebeurt dat op zijn vroegst eind volgend jaar.

Volgens developerlogs die zijn ingezien door Bloomberg-journalist Mark Gurman heeft Apples M3 Ultra-testchip 32 cpu-cores. Het zouden 24 Performance-cores en 8 energiezuinigere Efficiency-cores betreffen. Daarmee wordt het aantal cores mogelijk opgehoogd ten opzichte van de huidige M2 Ultra, die in totaal 24 processorkernen heeft. De M2 Ultra kan daarnaast geleverd worden met een gpu met 60 of 76 cores, maar de geteste M3 Ultra beschikt over maximaal 80 gpu-cores.

Apple heeft zijn M3-serie nog niet officieel aangekondigd. De eerste Macs met een M3-soc verschijnen volgens Bloomberg echter in oktober. Een M3 Pro en M3 Max volgen mogelijk in 2024. Gurman speculeert dat de M3 Ultra, die nu getest wordt in een Mac Studio, op zijn vroegst eind 2024 uitkomt. De M3-serie wordt naar verwachting geproduceerd op TSMC's 3nm-procedé.

Soc-type M1 Ultra M2 Ultra M3 Ultra-testchip
(volgens Bloomberg)
Cpu-cores 20 24 32
Cpu-cores per type Performance: 16x
Efficiency: 4x
Performance: 16x
Efficiency: 8x
Performance: 24x
Efficiency: 8x
Gpu-cores 64 Maximaal 76 Maximaal 80
Procedé (TSMC) 5nm 5nm 3nm
Release 2022 2023 2024/2025

Door Daan van Monsjou

Nieuwsredacteur

14-08-2023 • 11:11

103

Lees meer

Reacties (103)

103
103
23
2
0
70
Wijzig sortering
Wel goed nieuws, dit geeft maar weer aan dat multi-core echt een vereiste blijft van je software. Veel software kom ik nog tegen wat niet goed multi-threaded is. Het zal me niks verbazen als er straks 64, 128, 256 enz. core-counts komen. Die moeten wel aan het werk.
Wanneer jouw software dusdanig goed multi-threaded is dat het (pakweg) >64 cores goed kan benutten kan je ook de vraag stellen of het niet beter gebruik kan maken van een GPU ipv een CPU.
Wanneer jouw software dusdanig goed multi-threaded is dat het (pakweg) >64 cores goed kan benutten kan je ook de vraag stellen of het niet beter gebruik kan maken van een GPU ipv een CPU
Nouja er is nog best een grote stap van 64 cores naar het aantal concurrent threads in een typische GPU hoor, ongeveer een factor 50 tot 100 :+

Er zijn best wel toepassingen die je niet op een GPU kan/wil draaien, ongeacht hoeveel threads je er mee bezig houdt. Eigenlijk elke taak die veel wil rekenen, maar niet precies hetzelfde en niet makkelijk voorspelbaar voor elke element in de data set. Veel HPC achtige berekeningen op complexere data structuren willen gewoon heel veel CPU cores. Een voorbeeld uit mijn eigen ervaring is berekeningen op data sets die veel te groot zijn om in 1x volledig in het geheugen te houden en dus verschillende vormen van compressie gebruiken (sparse storage, run-length encoding, etc). Dat soort data structuren zijn een ramp voor GPU taken, vooral als ze read-write moeten zijn (read-only biedt vaak nog wel mogelijkheden om ze eerst om te butsen naar iets wat beter werkt voor een GPU).

Ander voorbeeld zijn natuurlijk server taken met grote hoeveelheden gebruikers/requests/processes, hoewel je je wel kunt afvragen wie daar een Mac Studio voor gaat gebruiken natuurlijk. Dus het is inderdaad wel de vraag hoeveel cores nog zinvol is voor een workstation-achtige machine als een Mac Studio.
Control flow(=beslissing adhv data) afhankelijke programma's zijn idd ook een ramp op GPU of in custom hardware. Een CPU core besteed niet voor niets de helft van z'n area aan branch prediction, scheduling, L1 cache (=register file ten behoeve van register renaming) en virtual memory mapping (load/store + TLB).

Dat is het mooie van een CPU core; het kan zeer generieke code uitvoeren en ook nog erg snel. Het zal nooit een Pareto optimum winnen als het gaat ook energie efficiency, als je daar tegenover een custom ASIC zou zetten, maar het wint wel by-far op 'ease of use'.

Zet daartussen een GPU die ook steeds meer kunnen, maar eigenlijk richt die zich volledig op dat stukje FPU/ALU wat we helemaal links weggestopt kunnen vinden op de Zen 4 die shot. Veel algoritmes mappen zoals je beschrijft mappen idd niet (goed) op een GPU.
Dus het is inderdaad wel de vraag hoeveel cores nog zinvol is voor een workstation-achtige machine als een Mac Studio.
Vergeet niet dat bij de M2 Max het minimaal aantal cores 12 was en het maximale 24. Je heb dus keuze en indien je nog minder nodig hebt, kan je gewoon voor een 8 core Mac Mini gaan. Wat zinnig is voor een workstation is een vrij nutteloze vraag imho. Waar wordt die workstation voor gebruikt en voor wie, is een veel betere vraag. En dat kan heel bizarre en extreme antwoorden opleveren waarbij zoveel cores onzinnig is of een absolute noodzaak. De eerste vraag zal uberhaupt zijn: Mac, Windows of Linux? De ene heeft een ton Cuda cores (specifiek) nodig met een sloot videocard memory, de ander een berg CPU cores met wel of niet een sloot RAM, specifieke uitbreidingskaarten, specifieke certificatie van de hardware voor de software, etc.
Vergeet niet dat bij de M2 Max het minimaal aantal cores 12 was en het maximale 24.
Bedoelde je niet de M2 Max 12 cores en de M2 Ultra 24?
Dat verschilt. Wanneer je double precision berekeningen moet doen gaat de snelheid van de gemiddelde consumenten GPU drastisch omlaag en kan het handiger zijn om het niet te accelereren. Niet iedere gebruiker koopt een peperdure quadro.

En er moet ook wel iets van een library of pakket zijn om de specifieke workload van jouw software op de GPU te draaien. GPU acceleratie van scratch tikken voor je pakket is een hele onderneming.

[Reactie gewijzigd door youridv1 op 23 juli 2024 18:41]

Zeker, mee eens, niet alles is geschikt of handig om op een GPU te draaien. Echter als jouw code al dusdanig geparallelliseerd is, wat een prestatie opzich is, dan is het in mijn optiek geen verkeerde vraag om over na te denken.

Ik wil zeker niet de indruk wekken dat het een eenvoudige opgave is.

[Reactie gewijzigd door Caayn op 23 juli 2024 18:41]

Een beetje uitzoekwerk doen is inderdaad nooit een slecht idee.
Ik schrijf mijn meeste software in een actor-based architectuur waarbij je ieder stukje van je programma een aparte thread geeft. (deze communiceren dan onderling) Dit is fantastisch omdat als 1 actor opeens veel te doen heeft, de andere niet vastlopen. (bv bestand inladen van 5GB terwijl je nog iets op je UI wil doen)

Programmas met over 100 threads zijn totaal geen uitzondering

Iedere actor heeft toegang tot system resources zoals file io, USB, Serial, FPGA's, ... etc. Dit zou totaal niet mogelijk zijn bij GPU computing, hier kan ik over het algemeen enkel wiskunde doen.

Als je enkel wiskunde wilt doen dan is het inderdaad een andere kwestie. In dit soort gevallen kijk ik meestal naar ArrayFire om makkelijk te kunnen schakelen tussen GPU en CPU voor al mijn berekeningen.
maar nog steeds vraag ik me af hoeveel cores je daadwerkelijk aan het werk zet op hetzelfde ogenblik.

Voor server applicaties schaalt dit soort dingen prima maar desktop?

Waar users 1 actie doen (wij mensen zijn nu eenmaal niet echt multi threaded) en ja we kunnen die actie wel opsplitten en zo veel mogelijk verdelen in threads maar dat zegt helemaal niks want een beetje i/o of synchronizatie en al die threads doen weer niks.

in mijn development laptop zie ik alleen 7zip bv vrij dicht bij komen om echt al mijn cores een beetje te belasten, als ik bv 700MB inpak naar 300MB.7z file...
maar zelfs dan is het lang niet de hele tijd gewoon al mijn cores 100%...

dingen als compileren en bouwen (bv java of typescript) das maar heel matig echt multithreaded en natuurlijk heel veel I/O
Dat ligt er maar dus aan... Een GPU is heer en meester in parallelle berekeningen, waar dat voor een applicatie in het algemeen niet per sé zo hoeft te zijn. Er kan dus wel degelijk een prima use case zijn om de GPU dus níet te gebruiken, ook al heb je zoveel threads.
Gpu compute unit bij de 1000den zijn micro cores. Tov P-core is het verschil
De bulk aan registers icache en data cache en shared cache voor constanten.
Is transformatie kleine routine en data past lokaal in compute registers dan zijn GPGPU retesnel. Past het er niet in moet elke keer swappen uit tier lagere shared memory tot aan de vram tot sysmem dan wordt rete traag.
Gpgpu heeft zijn use case en fat core servers hun usecase. Naast 1GB+ L3 wat Epyc bied is er nog andere waar shared dependend data tranform goed tot recht komen als geheel in de L3 cache past.
Veel software kom ik nog tegen wat niet goed multi-threaded is
Dat heeft er vooral mee te maken dat multithreaded programmeren een heel stuk ingewikkelder is dan "multithreaded: aan" of een paar functies herschrijven.

Voor render workloads en simulaties/computation is het "redelijk eenvoudig" toepasbaar omdat je de workload op kunt splitsen in brokken die niets met elkaar van doen hebben. Voor heel veel software pakketten is de uit te voeren taak vrij lineair en hangen berekeningen van elkaar af. Dan kun je wel heel erg veel FTE gaan steken in multithreading en er dan achter komen dat je 10-20% prestatiewinst boekt, of je kunt ervoor kiezen om die FTE anders te besteden.
Omdat Autocad voor de meeste functies weinig heeft aan multi core, enkel bij redraw die is processor intensief. Echter ga je bijvoorbeeld renderen dan trekt Autocad alle cores open.

Dit zijn ook inherent verschillende packages die je hier met elkaar vergelijkt dus dat die processorkracht verschillend benaderen is begrijpelijk.
Wel goed nieuws, dit geeft maar weer aan dat multi-core echt een vereiste blijft van je software. Veel software kom ik nog tegen wat niet goed multi-threaded is.
Je verwoording suggereert een beetje alsof het gewoon een kwestie van moderniseren of investeren is om software multi-threaded te maken. Maar niet alle code is even makkelijk te parallelliseren. Bij complexe code zoals in games is dat überhaupt lastig en zal het typisch je code complexer maken, en het kan netto ook een performance overhead geven, wat de multi-core prestatiewinst deels compenseert (en het programma in uiterste gevallen zelfs trager kan maken, zeker voor gebruikers die niet veel cores hebben). In het ergste geval is het parallelliseren van een rekentaak zelfs fundamenteel onmogelijk.

[Reactie gewijzigd door bwerg op 23 juli 2024 18:41]

Toch is meen ik ID's Tech 7 engine opgebouwd op basis van een job architectuur. Dwz een vrije core pakt een opstaande job op.

Deze architectuur hebben wij zelf ook meermaals toegepast en dat schaalt perfect met het aantal cores. Als je per taak heuristics bijhoudt en hiermee rekening houdt (priority queue) dan pakt een core welke een zojuist een tragere taak heeft uitgevoerd, de volgende keer een snellere op.

Maar je moet niet alles willen parallelliseren. 1 job/taak opknippen, als je er nog tientallen/honderden hebt die ook opgepakt kunnen worden, heeft eigenlijk weinig zin.

Ik vind het altijd wel leuk om te proberen zaken lock-free thread safe te maken. As er relatief veel readers zijn, relatief weinig writers en weinig kans op collisions (atomic compare exchange's are your friend). Soms is het sneller om een kleine taak 2x uit te voeren dan in 100% van de gevallen te locken.
Natuurlijk kun je er in veel applicaties wel iets mee. En gebruikmaken van de juiste frameworks/libraries kan je veel werk uit handen nemen.

Maar zoals je al zegt, je zit toch met bepaalde complexiteit als er afhankelijkheden tussen jobs zijn. Dan zit je gewoon vast aan locking, en kan het heel veel priegelwerk worden om je software uberhaupt correct te krijgen, en anders wel om het performant te krijgen. Als je als ontwikkelteam dan kan kiezen of je bakken met tijd gaat investeren in met de hand de parallellisatie goed krijgen of gewoon nieuwe features ontwikkelen, tja, dan houdt het een keer op. Zeker als je software gewoon goed genoeg presteert op een enkele moderne core.

Dan nog is er genoeg software die niet multi-threaded is enkel omdat het oude troep is, natuurlijk, en die conceptueel prima multi-threaded had kunnen zijn.

[Reactie gewijzigd door bwerg op 23 juli 2024 18:41]

Mag ik je vragen of je met jou kennis kunt zeggen of het ooit mogelijk gaat zijn om een game als total War (turn basesd strategie) wat in de Warhammer 3 editie 200+ AI facties heeft die allemaal op elkaar moeten reageren na de speler zijn beurt

Ooit goed kunnen paralleliseren of blijf je altijd single thread bound?

Zit zelfs met een 5800x ryzen cpu weer te springen om een flinke stap in single thread ipc vanwege het feit dat de cpu tijdens beurten 100% belast op 1 core

[Reactie gewijzigd door atthias op 23 juli 2024 18:41]

Hangt ervan af hoe de AI werkt en waar de meeste kosten zitten. Als die voor iedere unit 100 mogelijkheden afweegt, dan zou je inderdaad aan multithreading kunnen gaan denken.

Maar uiteindelijk zit je toch met 200 tegenstanders die allemaal op hun beurt moeten wachten, dus dat kan uiteraard niet parallel. Zelfs tijdens een enkele beurt gebeuren acties feitelijk één voor één.
Dat betekent dus vaak de CPU upgraden
Dank voor je uitleg
In bepaalde games lijkt het me juist belangrijk om in multi-threaded te steken waar mogelijk en zou ook rendabel moeten zijn. Vooral games waar veel in parellel gebeurt, zoals MMOs of met veel NPCs die hun eigen gangetje gaan, of waar het hele beeld volgespamt wordt is dit belangrijk, scheelt veel performance drops. In Unity heb je daar Jobs en BurstCompile voor. Je hebt idd overhead en wellicht merkbaar performanceverlies als je elke simpele actie in een Job gooit.

En je moet inderdaad optimaliseren voor je lowest common denominator, maar het is tegenwoordig niet heel gek om 4 cores te vereisen voor je game. Bijna elk apparaat heeft dat wel.
Het klinkt uiteraard makkelijker gezegd dan gedaan, maar we gaan in de toekomst toch wel tegen een asymptoot lopen waarbij de single core ipc de belemmering wordt en multithreaded programmeren een vereiste wordt.

Ik gebruik met enige regelmaat een tekenprogramma waarin ik bouwtekeningen in PDF laadt of andere PDF's zoals grafische vormgeving voor drukwerk en dan comments moet toevoegen, aantekeningen maken enz. Dit is een of twee keer per maand, en dan heeft dat programma toch echt moeite om vloeiend te werken en dan zie ik vaak maar een core actief op nog niet eens 100% (ter info, het is affinity designer). Alle opdrachten die gedaan moeten worden zijn al bekend, dus zoiets zou zover mijn beperkte kennis redelijk parallel te berekenen moeten zijn.
Software schrijven dat optimaal gebruikt maakt van meerdere processors/core's komt in de buurt van rocket science. Multi-threaded programmeren is echt moeilijk.
Rocket science is echt niet zo moeilijk meer hoor. Goede multithreading is dat wel nog altijd natuurlijk
Dat komt ook omdat ze net als software iteratief bezig zijn en het paradigma "move fast and break things" hebben. :)
Hangt van probleem dat wilt oplossen.
De task wat cinebench doet is makkelijk deelbaar in non shared mutable.
Games die vanila OOP volgen is er heel veel shared mutable data.
Naast antipaterns zoals global shared data werkt MT tegen.
Naast dat games nogal complexte afhankelijkheden kunnen hebben.
Maar uiteraard zijn er guidline die 1st moet volgen om MT stuk toegankelijker te maken. Ook algoritmes te kiezen die meest MT vriendelijker zijn.
Ja games zijn flink stuk lastiger Goed MT te maken. Maar in de praktijk laat men ook veel liggen. Ik zou als dev ook niet veel energie steken in 32+ threadpools. Als 20mil games wilt verkopen waar 0,01 promiel gamende treadripper user. Meeste sales zijn midrange cpu tot 3gens oud en 1060 tot 3060 8 threads 1080p en dan meer focusen op game op tijd opleveren en goede game experience voor 20mil gamers 11th gen 6 core en 2060
Wel goed nieuws, dit geeft maar weer aan dat multi-core echt een vereiste blijft van je software. Veel software kom ik nog tegen wat niet goed multi-threaded is. Het zal me niks verbazen als er straks 64, 128, 256 enz. core-counts komen. Die moeten wel aan het werk.
Ik ervaar dat ook, met CAD software. Die is in zeer hoge mate nog gebouwd op de voornamelijk single threaded architectuur, die soms al vele jaren en versies oud is (denk hierbij aan o.a. AutoCAD, Solidworks, etc.). Geleidelijk zie je wel verbeteringen in bepaalde (voornamelijk toegevoegde) onderdelen, maar door de bank genomen zie je, als je de pc prestaties bekijkt in het Taakbeheer, er bijv. maar 1 of 2 van de 16 processor threads worden belast. Relatief jonge softwarepakketten (o.a. OnShape, Sketchup) hebben daar veel minder last van omdat deze van de grond af al zijn opgebouwd met de multi-threaded processortechnologie ter beschikking.
Een beetje goed OS, en daar hebben we het wel over met macOS wat met 99% van de M3 CPU's gebruikt zal worden, zal sowieso alle processen slim verdelen over de aanwezige cores.

Zelfs in het uitzonderlijke geval dat je een zware applicatie gebruikt die single-threaded is dan kunnen alle andere achtergrondprocessen verdeeld worden over die overiges cores zodat die ene core voluit kan draaien.

Ik heb terwijl ik dit schrijf op macOS maar een paar applicaties open maar toch draaien er 379 individuele processen. Die zouden dus prima over 32 CPU-cores verdeeld kunnen worden. Of de overige 31 mocht ik een zware single-thread applicatie op de voorgrond hebben draaien.
Elixir ❤️
Leuk core-counts, maar dat zegt me dus echt helemaal niets, zeker niet zonder kloksnelheden/FLOPS of ook maar iets wat de prestaties weer kan geven.

80 GPU-cores? Kan je daar een beetje een nieuw spel op een beetje leuke settings mee spelen? (Of kan/wil je op Apple nog steeds niet gamen?)
Leuk core-counts, maar dat zegt me dus echt helemaal niets, zeker niet zonder kloksnelheden/FLOPS of ook maar iets wat de prestaties weer kan geven.
Apple's macOS kan overweg met zoveel cores. Het geeft je in ieder geval de zekerheid dat er veel apps / processen tegelijk kunnen draaien. Of PhotoShop op 32 cores sneller is dan op 4 cores hangt af van hoe goed multi-threaded PhotoShop is. Dat ligt niet aan de CPU maar vooral aan de software.
Hoe is dit een relevante reactie? Of de software (optimaal) van de hardware gebruik kan maken is een compleet andere vraag. Bovendien, als de hardware traag als strnt is, kan gaat geen enkele software daar verschil in maken.

En het lijkt me niet dat M1-2-3 cores allemaal hetzelfde zijn, of ook maar op dezelfde snelheid draaien.
Hoe is dit een relevante reactie? Of de software (optimaal) van de hardware gebruik kan maken is een compleet andere vraag. Bovendien, als de hardware traag als strnt is, kan gaat geen enkele software daar verschil in maken.

En het lijkt me niet dat M1-2-3 cores allemaal hetzelfde zijn, of ook maar op dezelfde snelheid draaien.
M1 was nieuw.
M2 was een kleine update.
M3 is een grote update (3nm ipv 5nm).

Dat laatste staat in het nieuwsbericht.
De M3 Ultra heeft meer cores dan de M2 Ultra (staat ook in het nieuwsbericht).

Meer cores = meer performance als de cores op dezelfde snelheid draaien.
Kleinere details is meer performance bij gelijk verbruik of minder verbruik met dezelfde performance (of er tussenin).

Beetje extrapoleren (geholpen door ervaringen uit het verleden) en je kunt obv het nieuwsartikel al heel veilig aannames maken over de toegenomen performance.
Bovendien, als de hardware traag als strnt is, kan gaat geen enkele software daar verschil in maken.
????

Natuurlijk wel. Als je super lichte software in assembly schrijft vliegt dat als een natte tiet over een glasplaat op een 486. Zie Rollercoaster Tycoon.
...vliegt dat als een natte tiet over een glasplaat...
:) _/-\o_
Die tiet kan wel vliegen op een 486 (mooie uitdrukking, die kende ik nog niet), maar als je dat dan op 30 jaar nieuwere hardware zou gebruiken, gaan het hypersonisch?
Als je heel veel cores hebt kunnen het ook interessante CPU's worden voor DC's. Hoe meer cores, hoe meer VM's of containers er op kunnen draaien.
Apple brengt al een aardig wat jaren geen server chassis meer uit, dus in het datancenter zal je deze denk ik niet snel terug vinden.

Edit: zoals @pBook aangeeft: mac pro kan ook in 19" chassis geleverd worden

[Reactie gewijzigd door Aragnut op 23 juli 2024 18:41]

De Mac Pro 2019 en 2023 zijn in 19" variant verkrijgbaar.
hah, waar een wil is....
Lijkt meer voor een huis-tuin-keuken-kantoor situatie. Ik wil niet weten wat het met de temperaturen doet als je dit in een DC rack schroeft met een aantal bovenop elkaar. Of je moet telkens 1u eronder vrij houden (met wat extra ducting om luchtstroom fatsoenlijk te houden?). Dan nog externe ILO oplossing, en voeding op een of andere manier redundant?
De Mac mini blaast alleen lucht naar de achterkant, dus dat valt wel mee. En sinds de m1 is de Mac mini behuizing zeer ruim bemeten. Erg warm wordt het dus niet.
Nog steeds: Hoe zegt het aantal cores iets over de prestraties van die cores?
Daar heb je toch gewoon de AmpereOne / Ampera Altra CPUs voor ;)
Dat wordt waarschijnlijk ook de basis voor mijn volgende "desktop" (eerder een workstation), al dan niet in combinatie met dit moederbord. Hopelijk zijn er te zijner tijd ook zulke kits voor AmpereOne te krijgen. Voor de legacy x86 software zet ik wel een relatief goedkope desktop in elkaar met een AMD/Intel processor, mits die echt nodig is.
Ik lees dit soort koppen ook altijd en denk dan ok. En nu?
Dat ga je natuurlijk eerder terugvinden in een review dan in een nieuwsartikel.
80 GPU-cores? Kan je daar een beetje een nieuw spel op een beetje leuke settings mee spelen? (Of kan/wil je op Apple nog steeds niet gamen?)
De huidige M2 Ultra GPU is grofweg vergelijkbaar met een RTX3060 kwa gaming prestaties, dus ja een city builder of een game met niet al te geweldige graphics kun je er prima op spelen. Maar ik denk niet dat veel mensen een Mac Studio gaan gebruiken om te gamen eigenlijk. Die GPU cores zitten er alleen maar in voor compute taken.
Zo goed? Een 3060 kun je heel behoorlijk op gamen, 1440p @100 Hz met redelijk hoge instellingen is geen probleem. OK, ik heb de Ti versie, maar dat noem ik persoonlijk wel 'geweldige graphics'.

Maar als het vooral voor 'werk'/compute toepassingen gebruikt wordt en niet voor grafische zaken, is het dan niet tijd om de term GPU te laten vallen en met iets beters te komen wat de lading beter dekt?

En alsnog mist er een indicator van de kracht van deze cores zoals FLOPS ofzo, of een of andere benchmark. Niet dat dat zaligmakend is, maar iets is beter dan niets.
Zo goed? Een 3060 kun je heel behoorlijk op gamen, 1440p @100 Hz met redelijk hoge instellingen is geen probleem. OK, ik heb de Ti versie, maar dat noem ik persoonlijk wel 'geweldige graphics'.
Ik ben het daar mee eens, maar veel mensen zullen zeggen dat 'slechts RTX3060 performance gewoon matig is want xyz...'. Waarbij xyz meestal de prijs van de machine betreft... Maar voor een iGPU is het gewoon best wel een prima prestatieniveau als je wil gamen, echter kan dat inderdaad goedkoper... Ik vind het een beetje een onzin discussie want echt niemand koopt een Mac om te gamen, en al helemaal geen Mac Studio. Maar ok het kan dus in principe wel...

Overigens is de compute performance van zoiets als een M2 Ultra nog wel iets beter, meer richting RTX4070 of in sommige gevallen nog hoger. De architectuur van de GPU's die Apple gebruikt is echt wezenlijk anders dan NVidia/AMD/Intel, ze zijn afgeleid van mobiele GPU's en gebruiken tile-based deferred rendering, wat allerlei voordelen heeft maar niet optimaal is voor games die voor meer brute-force desktop GPU's geoptimaliseerd zijn.
En alsnog mist er een indicator van de kracht van deze cores zoals FLOPS ofzo, of een of andere benchmark. Niet dat dat zaligmakend is, maar iets is beter dan niets.
De chip is nog niet beschikbaar dus op zich logisch dat dit soort gegevens niet bekend zijn. Je kunt wel een informed guess doen... De 10-core GPU in de 'gewone' M2 haalt ~3.6Gflops, dus een 80-core M3 Ultra zal minimaal om en nabij de 30TFlops doen. Waarschijnlijk iets meer. Dan zit je rond het prestatieniveau van RTX4080 mobile, op papier, in ieder geval voor FP32. Hoe de verhouding FP32:FP64 bij Apple GPU's is weet ik niet, voor consumenten kaarten van NVidia/AMD is de FP64 performance gewoon matig, dus het zou me niet verbazen als de Apple GPU's daar significant betere performance halen.
Was het idee bij de big-little architectuur niet dat je een paar high-performance cores hebt voor single-threaded workloads en daarnaast heel veel zuinige cores toevoegd voor multi-threaded workloads? Wat is het praktisch nut van 24 Performance cores hebben ipv. 8 Performance en bijvoorbeeld 32 of meer Efficiency cores?
Dat is handig voor zware toepassingen die wel multithreading ondersteunen.
Maar als die toepassingen al baat hebben bij multi-threading, waarom daar dan niet meer zuinigere cores op zetten? Was het idee van deze architectuur niet dat het efficiënter is door die verdeling van cores?
Het idee is volgens mij dat de efficiency cores sterk genoeg zijn voor simpele taken en achtergrondtaken. Met 8 efficiency cores kun je denk ik prima browsen en mailtjes lezen, plus alle achtergrondtaken laten uitvoeren. Die andere 24 zijn allemaal voor als je video's gaat bewerken etc. Anders heb je ze toch niet nodig.
Ja en nee.

Het idee er achter is dat je de zuinige cores inzet voor taken die weinig performance behoeven. Dus zaken als mails binnenhalen en een beetje browsen. De efficiëntie zit hem juist in het feit dat je niet die ene core volledig maximaal belast en hem tot het uiterste pushed, maar hem juist een beetje uit z’n neus laat eten en hem wat taken toebedeeld die wat langer mogen duren. Mail ophalen maakt niet uit of het 1ms duurt of 3 seconden. Performance schaalt niet lineair met vermogen. 2x zoveel vermogen betekent vaak 1.5 maal de performance dus lagere clocks en minder druk betekent vaak dat je efficiënter bezig bent.
De Mx Ultra serie zijn in feite gewoon 2 aan elkaar geplakte Mx Max socs. Het zijn dus eigenlijk 2 CPUs met elk 12 performance cores. In de praktijk doen ze het voor sommige taken nog wel eens slechter dan hun single-soc tegenhanger, maar er zijn wat niche toepassingen die er wel baat bij hebben alsnog.
Even los van dat de cijfers mij persoonlijk weinig zeggen, vind ik wel dat Apple bewijst dat je met ARM heel succesvol kunt zijn. Daar kunnen anderen (hallo Microsoft?) een voorbeeld aan nemen.

Ik zie, grappig genoeg, ook steeds meer mensen hun Wintel laptop inruilen voor een Macbook. Niet vanwege MacOS, maar stomweg vanwege de flinke performance in een klein pakket met een enorme accu duur. Daar in is met name de MacBook Air wel een koploper en zeker een zeer aantrekkelijke overstapkandidaat voor velen.

En ja, mensen hebben allemaal gelijk als ze zeggen dat een Windows machine voorzien van een 4080 met een sloot geheugen veeeeeel sneller is. En voor gamers is MacOS nog steeds een kale woestijn. Maar voor al die mensen die hun laptop voor stevigere productiviteit gebruiken, dus niet alleen email en documenten maar ook stevigere software, die ook mobiel willen zijn zonder iedere 30 minuten een lader uit de tas te moeten halen, is deze combo onverslaanbaar.

[Reactie gewijzigd door Froos op 23 juli 2024 18:41]

Hmm nee,

Zolang je over efficientie wil reppen prima, maar als je echt een bulk performance nodig hebt heb je nog steeds een echte x64 machine nodig, al is het zelfs enkel op softwarematig aspect.

De daadwerkelijke hoeveelheid performance is enkel interessant zolang je het lijnrecht met efficientie blijft betrekken, maar als dat de enige bepanghebbende factor zou zijn, zou iedereen aan telefoons en ipads meer dan zat hebben; genoeg mensen die dat wel hebben, maar dan hebben we het gewoon niet over "flinke performance" op-zich.

Zou fijn zijn als apple dit ook eindelijk in de marketing gaat representeren ipv vertekende benchmarks waar ze al enige tijd op afgerekend worden (en terecht) door serieuzere reviewers.

Het is nou eenmaal appels met peren vergelijken zonder waardige en objectieve benchmarking, daar komt niets, ook appels, onderuit. Want dan blijkt dat wel achteraf.

Werpt dit vragen op? IgorsLab en LTT hebben o.a. een boekje opengedaan over (gigantische) discrepanties tussen apples marketingmatriaal en benchmarks in de praktijk, en dat is ook niet de eerste keer.
Het is totaal niet nodig, apple zou heus moeten weten dat ze eigenlijk een efficientiemonster hebben, nu nog dat als zodanig (en niets meer) marketen.
Zolang je over efficientie wil reppen prima
Laat dat nu net de selling point van een laptop zijn? We hebben het hier over Macbooks, niet over desktops.
Klopt wel, maar dat wordt je uit het marketing materiaal van apple zelf niet-bepaald duidelijk, al helemaal met benchmarks die pogen te beweren dat de m2 of m3 even een stel i7's en i9's qua rendersnelheid in pathtracing en videobewerking eruit zou rossen; misschien bij hun eigen tdp/koelings-beperkte modellen, maar geen machine die genoeg koeling voor t onderdeel heeft.

Met de kennis en data die ze in huis moet hebben is het gewoon bewuste misrepresentatie, en dat terwijl efficientie eigenlijk heel "hip" is.

Ze hadden bijv ultra-makkelijk "gerenderde 1080p video per volle batterij" kunnen aanprijzen en met kloppende statistiek een sublieme vorm van marketing gehad; maar dat is niet wat is gebeurt, énorm gemiste kans (met als bonus dat geen statistiek of grafiek vertekend had hoeven worden.)

[Reactie gewijzigd door Annihlator op 23 juli 2024 18:41]

Jep da's wel waar, bovendien zijn ze zwaar de mist in gegaan met hun Mac Pro (hun enige kans om te bewijzen dat ze opgewassen zijn tegen x86 desktops).
De hoeveelheid officieel uitgebrachte games voor Apple is nog steeds een lachertje vergeleken met Windows.Qua performance is het wel redelijk, maar enkel op lage beeldschermresoluties.

BTW het gaat hier wel om een M3 Ultra met 80 grafische cores. Zijn voorganger, de M2 Ultra is peperduur en moet het desondanks afleggen tegen een highend Windows-PC met een RTX4090 die qua aanschafprijs een heel stuk goedkoper is.

https://www.youtube.com/watch?v=buLyy7x2dcQ

Uiteindelijk zijn die Mx-chips toch vooral bedoeld voor laptops en is de grote kracht de performace/energieverbruikratio. Maar op het moment dat de stroomrekening je niet interesseert en je enkel en alleen voor performance gaat wint Wintel met de vingers in de neus.

[Reactie gewijzigd door ymmv op 23 juli 2024 18:41]

Qua performance is het wel redelijk, maar enkel op lage beeldschermresoluties.
Voor een hele berg games heeft het niks te maken met of de game het trekt op welk niveau/kwaliteit. Ook veel Indie games en oudere games draaien niet op MacOS. Nog afgezien dat echt niet iedere Windows gamer een machine heeft die het max uit een game kan trekken.

Hoofdreden is dat voor gamen op de Mac weinig markt is. Meeste gamers met een Mac hebben ook al een game console (of een game pc). Dus er is weinig te winnen daar. En doordat het aanbod laag is kopen Mac gebruikers die willen gamen weer dat spel (of gaan cloud gamen) en zo blijf je in een vicieuze cirkel zitten.
Maar op het moment dat de stroomrekening je niet interesseert en je enkel en alleen voor performance gaat wint Wintel met de vingers in de neus
In de meeste gevallen wel ja. Niet als je CPU + GPU taken wil kunnen draaien die over de 128GB gaan alleen, want een 4090 heeft maar 24GB. Dit kan wel degelijk een requirement zijn als je met enorme datasets werkt. In hele specifieke GPU compute taken die goed geoptimaliseerd zijn voor Apple Silicon komt een M2 Ultra zelfs nog redelijk dichtbij een 4090 zoals dat LTT filmpje ook al aangeeft.

Hoe dan ook maakt het weinig uit dat je eenmalig een kleine 1500 euro kunt besparen door een PC met een 4090 te bouwen, als de software die jij (of je werknemers) gebruiken alleen op macOS werkt.
Ik denk dat gamers hier ook niet de doelgroep zijn. De Mac Studios zijn vooral workstation machines. Het is bijv. goed in taken waar je veel (V)RAM nodig hebt en concurreert dan met RTX4090 multi-GPU opstellingen (een enkele mac studie van de 192GB RAM versie @ 800GB/s kan dan meekomen met 8 RTX 4090s voor sommige taken ;) ). Het is zeker niche allemaal. Als consument kan je bijna altijd net zo goed een veel goedkopere Mac Mini nemen (doe ik ook voor mijn amateur AI werk). Maar er zijn gewoon toepassingen waar de Mac Studios wel heel competitief zijn (gamen zit daar dus niet bij).
Apple Silicon is wat mij betreft de beste move van Apple ooit. Al een tijdje in bezit van een M1 Air en een M2 Pro en wat een verademing. Het heeft mij echt aan het denken gezet hoe een firma als Intel überhaupt nog kan bestaan met hun totaal achterhaalde x86 architectuur.

Als je kijkt naar de evolutie van de smartphone (geen x86 maar arm) en die van de laptop, zal je opvallen dat de smartphone in de afgelopen 10 jaar exponentieel sneller en efficiënter is geworden terwijl de laptop hopeloos achter bleef. Een voorbeeld:

Een uur lang browsen, e-mailen en wat filmpjes kijken op een moderne smartphone kost je ongeveer 10-12% batterij. Het apparaat is niet heet geworden en bovendien maakt geen geluid.

Doe dat zelfde op een Windows laptop met een Intel chip: herrie van fans, heet, rode bovenbenen van de warmte en de batterij, ongeveer 10x groter dan die van een smartphone, bijna leeg.

Hoe kan dit? Hoe kan dit in 2023?

Apple Silicon SOC is in wezen een overgeklokte (iPhone) Bionic chip. Na 1 uur browsen, e-mailen en wat filmpjes kijken heb je nog 90-95% batterij over. Fluisterstil en niet warm. Bijzonder. Oh, en hij is ook nog vele male krachtiger dan welke Intel chip ook. Bizar!

Bedankt Apple. Vaarwel Intel (hopelijk snel) en welkom Apple Silicon en Google Tensor!

[Reactie gewijzigd door mooiboy op 23 juli 2024 18:41]

Betaal je dan ook wel gelijk 4x zo veel voor als een windows laptop als je hem alleen voor een uurtje internet browsen en video's gaat gebruiken.

Oftwel, koop een product dat voldoet aan je verwachtingen. Ik kan op een Apple geen Windows VM's draaien, dus daar heb ik geen snars aan. Kan die nog zo zuinig en krachtig zijn.
Gamen blijft ook een ramp. Langzaam komt daar wel verbetering in, maar je kunt bijna beter een Linux machine bouwen dan een Apple laptop kopen voor gaming.

Dus hou verhoudt deze Apple soc zich tegenover een intel chip met nvidia kaart bij de wat zwaardere taken?
Ik heb het niet over gamen gehad. Gamen doe je doorgaans op een desktop waarbij power efficiency weinig uitmaakt. Ik gebruik Apple voor de eenvoud en voor grafische doeleinden. Voor mij is het een verademing dat als ik mijn laptop open na 1 dag, hij instant wakker is en bruikbaar is, de batterij nog vol is en niet minuten nodig heeft om uit slaapstand te ontwaken met een lege batterij.

Daarnaast wil ik op de bank zitten met relatief lichte laptop die niet voortdurend mekkert om allerlei updates of andere waarschuwingen waar ik niet op zit te wachten.

Ik wil een laptop dat als ik op "Zet uit" klik, hij ook daadwerkelijk direct afsluit en niet eerst eerst allemaal applicaties moet afsluiten en daarna "Update 1 van 284.... zet de computer niet uit" laat zien.

Ik wil een laptop met een fijn toetsenbord, een prettige trackpad en een goed scherm.

Ik wil een laptop waar ik een dag op kan werken zelfs als ik de oplader niet bij me heb.

En dat kost niet 4x meer dan een Windows laptop in de zelfde klasse. Alle bovenstaande ergernissen heb ik met mijn HP ZBook Power G10 uit de zelfde prijsklasse maar met een plastic behuizing, een waardeloze trackpad, een batterij die binnen no-time leeg is, al geluid maakt bij web-browsen en de reeds genoemde Windows en Intel gerelateerde problemen.

En ik ben niet de enige met deze ervaringen.

Microsoft is Forcing me to Buy MacBooks - Windows Modern Standby

[Reactie gewijzigd door mooiboy op 23 juli 2024 18:41]

Heb je Rosetta geprobeerd of anders Windows ARM?
https://machow2.com/windows-on-m1-mac/
Linux lijkt ook te werken:
https://9to5mac.com/2023/02/21/m1-mac-linux/

Voor het beantwoorden van je vraag m.b.t. zwaardere taken zou je https://www.blender.org/download/ kunnen gebruiken. Je kunt op https://opendata.blender.org/ de resultaten van anderen bekijken.

De 76 GPU cores van Apple scoren in de Blender Benchmark ongeveer gelijk aan een NVIDIA GeForce RTX 3070 Laptop GPU.

[Reactie gewijzigd door djwice op 23 juli 2024 18:41]

1/ je scherm op een laptop is letterlijk vele malen groter dan je iPhone (en produceert veel meer licht). Dat scheelt veel i.v.m. verbruik. Batterij van een laptop is ook groter trouwens.
2/ je vergelijkt video decoden... dat doen ze allebei met een stukje hardware bij de processor, afhankelijk van de codec (anders is het GPU en/of CPU). Ik heb trouwens een laptop dat niet heet wordt tijdens het Netflixen voor een paar uren (en de fan amper af en toe wat aan staat), zelf zonder adapter doet hij het vlot op batterij. Of vergelijk je met een (oude?) laptop waar de decodering in software gebeurt? Netflix app vs. webbrowser is ook zo een verkeerde vergelijking.
3/ smartphone zijn niet exponentieel sneller geworden. Sneller ja, exponentieel niet. Het remt zelf terug af.

Vaarwel Apple waar je zo beperkt bent in wat je kan doen, waar je veel cores (maar niet snel) hebt... Er is nog in wat ik met een computer doen, teveel dat single-threaded is (EDA tools), en te weinig compatibel met ARM (en laat staat AppleOS). En dan spreek ik nog niet over de prijs.

tip van de dag: bekijk eens de recente AMD laptops met Zen4...
Ik denk dat je een beetje overdrijft. Ik herken sommige dingen wel, maar "vele malen krachtiger".. dat is gewoon niet waar. Sterker nog, een Intel verslaat de M1 Pro op veel vlakken.
Hoe kan een firma als Intel nog bestaan.. tja.. als je die vraag moet stellen dan mis je een hoop info.
Iedereen staart zich blind op hoe snel een M1 Pro een videootje kan maken. Heb je wel echt gewerkt op beide systemen? Want de snappyness van een high end Windows laptop is wel beter dan een M1 Mac. Ik kan het weten, ik werk elke dag op beiden.

Apple is ook klote met updates, net als Windows. Wat betreft accuduur; Ik heb een M1 Pro 14" en die gaat gewoon leeg voor het einde van de dag als ik erop werk (5,5 uur). Die accuduur is erg goed, maar je moet het wel houden bij een beetje internetten en ja dan haal je wel een uurtje of 12/14. Als je echt aan het werk gaat, dan is het snel over met de pret.
Als ik geen oplader meeneem naar het werk heb ik een probleem. Maar goed, dat heb ik ook met m'n XPS 15 5520.

Dan de hardware.. de afgelopen jaren was het niet makkelijk om klant te zijn van Apple. En zeker niet als fotograaf en muziek producer. Apple laat je gewoon in de stront zakken tenzij je je knip trekt. Schermen, keyboards, etc.. een regelrechte hell. Coulance? Nah.. betalen. Pas als ze echt niet meer anders kunnen, dan gaan ze overstag..maar dan zit jij wel al jaren met een niet functionerende laptop van een luttele 4500 euro. Dell belt gewoon bij je aan en schroef er wat nieuwe hardware in de volgende dag.. best lekker.

Ik vind dat verheerlijken van bepaalde merken/hardware sowieso een beetje simpel. Ik gebruik elke dag zowel Mac als PC. Ik vind beiden fantastisch. Op beiden is ook genoeg aan te merken. Buy a computer, get computer problems..
Fair enough....
Maar wat bedoel je precies met snappiness? Hoe dan ook, de performance vs. energy ratio bij Intel is gewoon ruk. De dikste Intel chip verslaat wellicht de M2 Pro met bepaalde taken maar de energie die daarbij vrijkomt, daar kan je een heel huizenblok mee verwarmen.

Daarnaast ben ik het volledig eens met dat Apple soms echt onredelijk duur is, vooral als het gaat om hardware upgrades. Een MacBook an sich vind ik prijzig maar dat vooral ook door de zwakkere Euro. Ik heb iets meer dan 2.000 euro betaald voor de M2 en dat is het mij waard wetende dat ik hier jaren plezier van ga hebben zonder kopzorgen or allerlei ergernissen.
Met Snappyness bedoel ik hoe snel het voelt. Dus het starten van applicaties e.d. Je klikt ergens op en hoe snel staat het er dan. Mijn XPS voelt sneller dan mijn M1 Pro. Ik heb 6 maanden op mijn Mac IT werk gedaan. Is gewoon niet te doen. Ik gebruik hem nu puur voor foto, video en muziek, dat gaat perfect, beter dan de XPS.
Voor coding en Office is de XPS heer en meester. Toegegeven, ligt eraan wat je doet (Office 365 en Azure IaC doe ik). Velen zweren bij VScode op een Mac, ik vind het een hel om alleen al mn werkomgeving op te zetten. Office is ook niet fijn. Ik werk gewoon sneller op een Windows machine met Office. De hele workflow is gewoon beter. Hele ochtend meetings in Teams op de Mac? Neem je oplader maar mee. Haalt net de lunch dan.
Fotobewerking is gelijk denk ik.. iig voor wat ik doe. Video bewerking, ja, ik ben een FCP user dus dan zit je al snel aan een Mac vast. Werkt geweldig. Ableton Live is ook gelijk denk ik op beide. Ik gebruik het op beide, gaat prima en ook projecten tussen de twee delen gaat prima. Tenzij er iets gedaan moet worden dat latency gevoelig is, dan moet het op de Mac, want op (een) Windows (laptop) is dat niet te doen. Desktop gaat wel beter, maar niet zo goed als een Macbook Pro (Core Audio is gewoon geweldig).

"Ik heb iets meer dan 2.000 euro betaald voor de M2 en dat is het mij waard wetende dat ik hier jaren plezier van ga hebben zonder kopzorgen or allerlei ergernissen."

Mja, ik moest wel even 2x nadenken of ik weer een Mac ging kopen na alle ellende met de voorgaande modellen. Ik heb even gewacht tot anderen hun ervaringen deelden, want zomaar bij de introductie een Mac kopen, dat doe ik niet meer.

Mijn oude laptops heb ik ook nog. Een XPS 9550 en een Macbook Pro 2013. De Macbook heeft een sterrenhemel op het scherm, zoveel dode pixels. De oude XPS gebruikt mijn vriendin, doet het nog prima (7 jaar oud toch). Bij beiden de accu vervangen vanwege een defect.

Mijn punt is, beiden zijn goed op bepaalde vlakken. Ik gebruik ze daar waar ze het sterkst zijn.

Wat fijn is aan de Mac, is dat de accu niet leeg gaat als je hem weglegt. Dat hoef je met een PC laptop niet te proberen. Is altijd leeg. Booten, mja.. XPS uit hibernate is ook heel snel. En heeft Face ID, dat heeft de Mac niet vreemd genoeg.
Wellicht omdat die laptop een veel groter scherm heeft, 1000 plus software programma's moet kunnen draaien, zelfs uit het jaar nul, en meestal veel krachtiger is dan een telefoon, waarvan de sock gemaakt is om vooral veel in slaapstand te staan. Probeer maar eens een groot excel document te draaien op een midrange mobiel, dan val je voor je aan het eind bent in slaap. De goedkoopste laptop doet dat gewoon. En dan heb ik het niet eens over gamen.
Qua performance en efficiëntie is dit indrukwekkende techniek, al vind ik persoonlijk het de naam ‘pro’ niet waard zolang er geen sprake is van sideband ECC bij het geheugen in M-series. En beperkte geheugencapaciteit.

Volgens mij zou je dat ook technisch gezien optioneel kunnen maken wat wat aanpassingen in de hardware zonder dat je met meederde modellen hoeft te werken. Je maakt het dan een bios/firmware setting, waarbij je het parity geheugen ofwel voor sideband ECC inzet of voor extra geheugen capaciteit. Nu geeft apple je geen keuze.

[Reactie gewijzigd door PjotterP op 23 juli 2024 18:41]

Off Topic en gewoon uit nieuwsgierigheid maar zijn er hier mensen die nu al een tijd ervaring hebben met de m2 soc en hierbij ook kunnen vertellen hoe grafische belasting van deze soc het uit houdt?
Ik heb een M2 Max met 38 GPU cores. Tja, ik kan bijv. GTA V via Parallels spelen, of Tomb Raider Underworld "native" (via Rosetta).
Ik heb ook Unreal Engine 5.2 gedraaid, met Nanite en Lumen met een scene met 300 miljoen polygonen. Werkt heel soepel. Sommigen spelen Cyberpunk op M processors. Op een gegeven moment gaat de ventilator aan ja, en de batterij gaat natuurlijk harder achteruit.

De M2 Max die ik heb is vergelijkbaar met 50% van een Desktop RTX 3070. Wat -dacht ik- grofweg betekent dat de M2 Max gelijkwaardig is aan een mobiele RTX3070. Maar verbruikt veel minder energie.

[Reactie gewijzigd door Menesis op 23 juli 2024 18:41]

Je vergeet bij GTA V e.d. alleen bij te vertellen dat het alleen via Directx10 werkt en dus veel game effecten uit staan en niet boven de 60 fps uitkomt.

Bij cyberpunk 2077 op hoge instellingen 30 a 40 fps op een m2 ultra.

We weten allemaal wel wat een m2 ultra kost, en een redelijke game laptop als voorbeeld van 1500 euro daar overheen gaat.

Prima dat het kan, maar je betaald wel erg veel geld natuurlijk.

Uiteraard is een m2 ultra wel zeer geschikt en erg snel in andere programma's

[Reactie gewijzigd door Davidoff1976 op 23 juli 2024 18:41]

Dat is nogal sterk afhankelijk van je workload. Bedoel... Ik kan je vertellen dat hij prima DOOM draait.
Het hangt er heel erg vanaf. Een GPU is al lang geen GPU meer, namelijk. Voor sommige workflows is Apple hun aanpak van 'unified memory' best nadelig, namelijk, en het feit dat er zelfs in de nieuwe pro geen uitbreiding meer is (op zowel geheugen áls memory) kan erg nadelig zijn.

Vuistregel is doorgaans dat hoewel de chips een erg goede PPW hebben (zoals eerder aangegeven: enigszins vergelijkbaar met een mobiele 3070 in game-achtigen, sommige specifieke accelerator taken meer richting desktop 3090 en dan moet je vooral aan encoding en decoding denken), ze in sommige zaken erg achterblijven.

Als je met AI/ML/big data/development/data science bezig gaat, zeker in het geval dat je zowel RAM én VRAM nodig hebt, is het niet alleen zo dat unified memory nadelig is (want de keuze daarbij is eerder "of" in plaats van "en"), maar ook de hoeveelheid hiervan. 48 of 96GB is zelfs nadelig soms als je het vergelijkt met de absurde hoeveelheden ECC registered die eerder ondersteund werden.

Het feit dat je ook niet even een accellerator zoals een of ander CUDA-ondersteunend monster kan toevoegen met z'n eigen VRAM is ook nadelig, want ondanks dat er PCIe sloten zijn, ondersteunen ze op storage na praktisch niks, zelfs geen AMD GPU's meer.

Het is dus een beetje een mixed bag. Waar een desktop gaming PC (of X86 gaming laptop) doorgaans steeds vaker een 12GB VRAM + 16GB DRAM combo hebben (voor 28GB of zelfs 44GB) met een duidelijke scheiding, heb je dat niet momenteel bij Apple. En dat maakt sommige gaming workflows óók minder aantrekkelijk.
Ik vind het voor ML als leek eigenlijk vreemd dat unified memory een nadelig gegeven is, immers je hoeft iets maar 1 keer van disk in te laden waarna het beschikbaar is voor zowel GPU als CPU, met best significant hogere bandbreedtes dan regulier ram. Niet een vraag aan jou per se, maar gewoon in het algemeen ben ik benieuwd: Is dit een kwestie van optimalisatie van applicaties voor ML specifiek voor deze architectuur of zie ik iets over het hoofd (CUDA)?
sys mem is geen probleem. Bij budget ML met je Cuda afhankelijkheid heb je hetzelfde probleem dat je vast zit aan nv high-end 4090 voor veel vram. En de pro kaarten hebben meer maar daar kan je ook een EV voor kopen. En daar is top studio max opeens niet zo duur. Naast bij apple als je per abuis te karig bent geweest en te kale studio max of ultra hebt aangeschaft dan lever je hem in of verkoop hem door en ga voor wat wel nodig hebt. Naast als voor M3 studio gaat heb je nu Studio met M1 of M2 en weet je wel hoeveel memory je nodig hebt en bekibbel je iig daar niet op.
Aan de software stack timmert nV zwaar aan de weg.
Maar Apple studio is dat de platform voor ML geen idee. Maar is weer zo een niche waar mee vergeleken wordt. Als je budget 10.000 zet je daar iets WS met iets met nV tegen. Dat is 1 max 2 4090 maar bij WS met nV kan nu met die ML gekte gemakkelijk 100.000 halen. M3 ultra als toch meer ML gaat doen ga voor grootste sysmem 200++GB met ook flinke mem bandbreedte. En GPU cores zijn ook nextgen geen idee wat dat gaat betekenen voor ML op Mac.
Ik kan alleen spreken over video editing, Photoshop en Lightroom als hobbyist. En ik kan je zeggen dat de performance bizar is nadat Adobe hun software heeft geoptimaliseerd voor Apple Silicon. Edits met brush gaan als boter zonder lag, subject detection is instant en het exporteren van foto's of video's gaat rete snel. Games zijn vaak op DirectX gebaseerd en dat werkt niet op Mac dus moet dat worden gevritualiseerd of geemuleerd waardoor uiteraard de performance hard achteruit gaat. Uiteraard is een SOC geen dedicated GPU, maar stel je eens een combinatie van Apple Silicon en Nvidia voor.....
Het verschil nu met applesilicon vs x86 apu en igpu is dat apple silicon igpu redelijke grote heeft en dat x86 dat bij nextgen ook gaan bieden. Dat maakt voor gamedev’s Mac met apple silicon capabele mianstream game bakjes waar je instap M? En al Pro hebt. En tier erboven . Het is kwa hardware goed geschik ald game platform.
Als Apple dat wat meer ging pushen en meer dev Mac’s menemen in tripple A producties native Metal. Nu neem je niet Mac mini of studio voor gamen. Maar voor de software waar ze sterk in zijn.
Nee, ze stoppen gewoon bij de M2 Ultra… :+
De M3 Ultra is niet bedoeld voor gamers, die is bedoeld voor professionele content creators.
De Intel Xeon Platin 8280 is ook een indrukwekkende CPU, voor Servers.

Op dit item kan niet meer gereageerd worden.