Door Tomas Hochstenbach

Redacteur

Wat moet je met een Mac van 15000 euro?

Apple Mac Studio (2025) met M3 Ultra Review

26-03-2025 • 06:00

213

Singlepage-opmaak

Conclusie

Het is normaal al lastig om een Mac Studio te beoordelen, want hij biedt bepaalde zaken die geen enkele andere pc hem nadoet en draait natuurlijk op een ander OS dan elk ander systeem in deze prijsklasse. Apple maakt het me niet bepaald makkelijker door van de Mac Studio (2025) een configuratie uit te lenen die alleen voor de lucky few is weggelegd en alle schijn van vergelijkbaarheid met iets anders direct het raam uit gooit.

Die bizarre configuratie met 512GB ram laat wél goed zien wat Apple kan doen dat elke andere computerfabrikant niet kan doen. Bij Apples eigen soc is werk- en videogeheugen één grote bak, waardoor je bijvoorbeeld het volledige DeepSeek-taalmodel met 671 miljard parameters kunt draaien - wat zelfs op een RTX 5090 bij lange na niet kan. Dat kun je best kapotredeneren, want voor de prijs van deze Mac Studio kun je héél wat jaren een abonnement op je favoriete chatbot nemen, maar toch heeft het iets magisch dat dit systeem iets kan waarvoor normaal een server in een datacenter nodig is.

Misschien is dat wel het goede woord: magie. Voor veel kopers van een apparaat als dit zal de Mac Studio een soort magische doos zijn. De computer is razendsnel, heeft een heel scala aan rappe aansluitingen (6x Thunderbolt 5!), gebruikt weinig energie en laat zich nauwelijks horen.

Wie zich niet laat betoveren, ziet toch ook steken die Apple heeft laten vallen. De M4 Max is om duistere redenen niet voorzien van ondersteuning voor de UltraFusion-interposer waarmee Apple normaliter twee Max-chips samensmelt tot een Ultra. Daardoor heb je deze generatie de keuze uit een M4 Max of een M3 Ultra. Het vreemde resultaat is dat je met de duurste processoroptie rond de 20 procent aan singlethreaded prestaties misloopt en bijvoorbeeld ook de versnelde raytracingcores in de M4-chips. Thunderbolt 5 hadden de eerdere M3-socs trouwens ook niet, maar dat heeft Apple wel met terugwerkende kracht weten toe te voegen.

En ja, ik ga de inmiddels grijsgedraaide plaat gewoon weer een zwengel geven. Zelf upgraden of eenvoudig repareren is er nog altijd niet bij en de configuratieopties zijn en blijven peperduur.

De Mac Studio blijft daarmee een opvallend elegante, snelle, stille en zuinige machine - maar wel een machine waarop je alleen uitkomt met veeleisende gebruiksdoelen en een zeer fors, vermoedelijk veelal zakelijk budget.

Redactie: Tomas Hochstenbach. Testlab: Niels van der Waa. Video: Luke van Drie. Eindredactie: Marger Verschuur

Reacties (213)

213
204
95
5
0
79
Wijzig sortering
De nieuwe Mac Studio is leverbaar met 256 of zelfs 512GB, waarmee ons testsample is uitgerust. Daarvan kan maximaal 384GB gebruikt worden door de gpu; dat percentage van 75 procent geldt overigens voor iedere Apple Silicon-Mac.
@Tomas Hochstenbach Dat is niet helemaal waar. je kan dit makkelijk zelf aanpassen met deze commando
sudo sysctl iogpu.wired_limit_mb=524288
Uiteraard is dit de max, dus ik heb 458752 aangegeven om 448GB te unlocken om DeepSeek R1 671B 4-bit MLX te kunnen laden (420GB) in LM Studio. Ook moet je Guardrails uitzetten. Ik kom met dit model op 20token/sec en ja, sneller is altijd beter, maar is zeker werkbaar.

En de Mac Studio M3 Ultra is nu extreem aantrekkelijk, omdat je deze in een cluster kan gooien dmv Exo. Samen met mijn M3 Max MBP kom ik op 142TFLOPS en dan wil ik nog mijn Mac Pro 2019 met 512GB eraan hangen en een windows bak met 3090. Je kan zelfs je iDevices eraan koppelen, al blijft de dev daar nog een beetje vaag over. Hij heeft er in ieder geval wel filmpjes van online stsan. Dit alles wil ik gebruiken om de DeepSeek R1 draaiende te krijgen op een RPi4. Nuttig? Nee. Leuk? Jazeker. Bottleneck blijft de verbinding. Waar ik de Ultra en MBP met TB4 kan connecten, zal ik het met de RPI4 met de 1Gbit netwerkkaart moeten doen. Ach, het houdt je bezig en ik wil DeepSeek wel eens draaiende zien op een klein schermpie.

In ieder geval biedt de M3 Ultra met zijn 512GB aan geheugen nieuwe mogelijkheden om grotere modellen te draaien en in een cluster zelfs de deuren opent om de bf16 modellen feilloos aan te kunnen. DE MLX community zal nog wel bezig blijven met finetunen, maar eerlijk is eerlijk, ik had er wel meer van verwacht. Qua tokens dan. Maar misschien komt dat nog.

[Reactie gewijzigd door Yzord op 26 maart 2025 13:20]

Wat n krachtpatser deze machine zeg. Toch vraag ik me af: dan zie ik Asus z'n Ascent GX10 aankondigen met 1k AI TOPS rekenkracht voor n verwachte retail van 3k$... Is dat niet 'n veel betere prijs/rekenkracht verhouding?
Een halve terabite aan intern geheugen die kan wel alles draaien als een zonnetje.
zo een klein doosje met zoveel rekenkracht.
ibm computers zijn ook zo duur.

[Reactie gewijzigd door rjmno1 op 26 maart 2025 14:49]

nou, ik maak een overstromingsmodel dat veel geheugen gebruikt en ben geen professionele programmeur, en je loopt dus ook tegen software memory management aan, wat betreft draaien als een zonnetje.Op een HPC is mijn model niet sneller. Ik bedoel maar te zeggen, in de praktijk valt het vaak wat tegen (maar dat ligt niet aan Apple)

[Reactie gewijzigd door tw_gotcha op 27 maart 2025 14:28]

Bij het draaien van modellen is geheugen inderdaad vaak de grootste beperkende factor. Je kunt echtern geheugen gebruiken, maar dat maakt de complexe modellen zeer traag. Ik heb ook veel modellen gedraaid en heb daarom 256 GB in mijn PC gestoken en wat bezuinigd op de processor.
precies ik heb 64gb, voor mijn toepassing genoeg.Ben je toevallig onlangs overgegaan van ddr4 naar ddr5 en zo ja merkte je dat?
Ik heb nog gewoon ddr4. De winst met ddr5 is bij mij niet zo groot, want dan gaat processor gewoon de bottleneck vormen.
Apple wint nooit op prijs versus iets verhouding. Dus het antwoord is ja, maar let op: max. 2 van die nvidia/Asus doosjes via de snelle link begreep ik, dus 256gb bij elkaar.
De base Mac Mini M4 wint misschien nog wel voor de 600 euro is dat best een snelle bak. Alleen als je gaat upgraden zit je dan opeens op 15.000 euro :p
Daarnaast is het standaard dat een Apple nauwelijks te repareren of te upgraden is. Als je een Apple koopt moet je wel even goed nadenken welke configuratie je in de toekomst nodig gaat hebben. Stel je eisen zeker niet te krap, anders moet je sneller dan bedoeld weer een nieuwe kopen.

Wat betreft het "Right to Repair" blijft Apple halsstarrig elke ontwikkeling op dat gebied frustreren. Hoewel Apple goed en mooi spul verkoopt blijf ik daar toch liever ver vandaan. Ik zit meer op de lijn van FrameWorks.
Mee eens. Al verbaas ik me elke x weer positief over de relatief lage afschrijving van Apple producten in het algemeen. Hoge aanschaf, ja, maar blijft verbazingwekkend lang waardevast
Dat al niet. Je kan een renderfarm kopen voor datzelfde bedrag met fors betere specs.
"bak met 3090" je begint je leeftijd te realiseren als je bij dertig-negentig eerst aan IBM denkt;
Wikipedia: IBM 3090 :*)
Alle topconfigs kosten een fortuin, daar stopt de gelijkenis een beetje.

[Reactie gewijzigd door as400 op 26 maart 2025 08:43]

Als ik het goed begrijp heb jij er dus een?
Ben wel benieuwd naar de real-world usecase. Alleen voor AI lijkt het me interessanter om een héle dikke server te bouwen voor veel minder geld, bijvoorbeeld.
Ah, dat het aanpasbaar is wist ik niet, dat heb ik nu toegevoegd. Thanks!
Je noemt het zelf niet nuttig, maar DeepSeek R1 is echt geen verkeerd model en er zijn genoeg scenario's denkbaar waarbij men wel lokaal een dergelijk model wil hosten, zonder een H100/200 cluster in te richten ivm de kosten. Dit is een betaalbaarder alternatief waar Apple toch wel een slimme zet heeft gemaakt.

Zo te zien zou je trouwens ook een stuk of 43 Raspberry PI 5 16GB's in een Exo-cluster kunnen gooien :P Mocht een welvarende Tweaker dit lezen en uitproberen: houd ons op de hoogte! ;)
En de Mac Studio M3 Ultra is nu extreem aantrekkelijk
Extreem aantrekkelijk? Tegen deze prijzen niet.
Snap ik, maar ik doel meer op degene die al in het "lokaal willen hosten van je eigen modellen" wereldje zitten. Ding staat gewoon op je desk even de 671B deepseek model te pruttelen alsof het niks is zonder herrie of noemenswaardige stookkosten. En ondertussen werk je gewoon door op je studiootje. Maar ik snap je punt.
- AMD Epyc 7702P, 64 cores/128 threads = 4500 euro
- Corsair DDR5 4x 192GB kit = 2400 euro
- moederbord Epyc = 1000 euro
- 3x 8TB NVME = 2000 euro

Mooi kastje eromheen, paar andere rand zaken en je hebt meer dan Apple voor een 10000 euro.
Puur cijfertjes heb je gelijk. Ga je dieper op de specs in heb je geen gelijk. De snelheid van het geheugen bijvoorbeeld is hier al 3-4x zo hoog. Laat staan de formfactor en de uitmuntende koeling.

En dan draai je Windows, waar dit product gericht is op Mac gebruikers.
Maar is dat 10.000 euro extra waard?

Zal vast per user case verschillen maar het aantal mensen die 5x sneller geheugen echt nodig heeft is op 1 hand te tellen (bij wijze van).
Ik kan me wel voorstellen dat dat 10k waard kan zijn. Je hebt Unified geheugen (waarbij de GPU tot 75% kan pakken) dat kan niet tot lastiger bij een normaal systeem. Je hebt MacOS (kan een vereiste zijn voor je applicaties en workflow). Enterprise Apple heeft ook zijn voordelen met reparaties en vervanging van de hardware en de ondersteuning (dat hebben andere Enterprise leveranciers ook).

En als je workflow daarnaast met 20% sneller kan gaan door optimalisaties scheelt dat op 10 uur toch weer 2 uur. Je zag dit ook bij de eerste Mx chips en de programmeurs, het compilen ging veel sneller dat bedrijven de investering het dubbel en dwars waard vonden omdat de wachttijden op het compilen veel korter werden.

Maar het zal per use-case verschillen wat optimaal werkt uiteraard.
De vraag is ben je dan niet beter met gewoon chatgpt te gebruiken, goedkoper, midner onderhoud en nog steeds sneller.
Er zijn natuurlijk meer usecases dan alleen een lokale LLM.
Tuurlijk maar daar ging het hier over.
Betwijfel of er veel zwaar werk dat honderden gigabytes aan ram nodig heeft gedaan word op osx.
Dat is zo goed als allemaal een unix variant of windows.
Jawel hoor, animatie of videobewerkingen worden vrij veel op een Mac uitgevoerd :)
Welke video/annimatie maakt jij dat honderden gigabytes aan geheugen nodig heeft?

Dat is toch echt een minieme niche markt
Er zijn genoeg grote studio's waarbij dit een uitkomst is en ze dus geen renderfarms nodig hebben of grote desktops. En daarnaast is dit ook een niche markt, daar heb je gelijk in. de 512GB ram is niet voor de mainstream markt inderdaad, maar de ontkent ook niemand.
Tja qua CPU/GPU is dit echter niks speciaal, in blender is een m3 ultra gelijk aan een 5070 ti en de helft van de kracht van een 5090 .

https://old.reddit.com/r/...ently_the_only_nonnvidia/

Je moet dus wel iets heel specefieks (zoals een grote llm) omdat geheugen en die kost te verantwoorden.
Daar ga je geen consumentenboekhouding op los laten. Voor bedrijven is 15K wat je afschrijft over enkele jaren voor een specialistisch gereedschap voor specifieke taken geen gek bedrag. Als er geen markt voor was dan zou Apple het ding waarschijnlijk niet produceren.
als dat de moeite waard is, buiten enkel niche gevallen zie ik nergens waar je zoiets kan gebruiken in gelijk welk bedrijf.

Dat apple van de M4 geen ultra maakt zegt genoeg dat ze dit ook wel beseffen.
Nou ja het is voor hen ook een 'halo product'. Ze zullen er geen verlies op maken, maar het is ook geen groot deel van hun business. Er zitten flinke 'show-off' en ecosysteem voordelen aan voor hen.
Het is APU tegenhanger
Dgpu met cpu kan 1kw trekken met flinke dgpu
Dat maakt het speciaal en die 512 mem
Nvidia spark is daar een tegenhanger van
Dat zal van de workload afhangen, voor bepaalde workloads zal een x86 (AMD of Intel) server beter presteren dan de Mac (al denk ik niet dat de hier gelinkte config 'Ok' is, ram lijkt bijv. geen ECC, en er lijkt ook geen rekening gehouden te zijn met het optimale aantal dimms per socket etc).

Echter, heb je unified memory nodig (bijvoorbeeld voor bepaalde AI modellen) dan zal de Apple machine vermoedelijk rondjes draaien om de Epyc machine.
Bij AI modellen lokaal draaien is de snelheid van het geheugen bijna altijd een bottleneck. Zo'n Mac Mini heeft genoeg geheugen om een model als Deepseek op volledige grootte (weliswaar q4, q5) te kunnen draaien, met goede performance. Voor een bedrijf is dit dus een manier om bijvoorbeeld lokaal hoge kwaliteit AI te bieden.
Waarom zou je windows hier op draaien? Bijna al dat soort powerusers zitten niet op windows
Dus dan geef je 10k uit en dan heb je niet eens beeld? Daarbij is vram een stukje sneller dan gewone ram en komt jouw bak niet verder dan 200GB/s bandbreedte tegenover 820GB/s bij de M3 ultra. En laten we het ook niet hebben over stroomgebruik. Dus heb je daadwerkelijk meer dan Apple? Voor 10k heb je de 32c cpu/80c gpu met 512GB vram. voor dat geld heb jij er niet eens beeld bij :+

[Reactie gewijzigd door Yzord op 26 maart 2025 11:32]

Die 820Gbs is 800 gigabit per seconde oid? Ik ken namelijk alleen het getal 120gigabye per seconde voor de m4. En een epyc is 12 channels en haalt die 120gigabye per seconde dan ook wel. Als je een bron hebt vorlor 820 gigabyte per seconde dan graag (dat is sneller dan een rtx5090 schat ik zo in)
'De M3 Ultra zal het systeem echter toestaan om te worden geconfigureerd met maar liefst 512 GB aan unified memory, met een geheugenbandbreedte van 819 GB/s.6 mrt 2025'
https://techgaming.nl

Hij doelt op de m3 ultra
Wikipedia komt op de helft. Respectabel, maar geen 800 gigabyte/s
Je kijkt denk ik verkeerd:
Wikipedia: Apple M3
Zie ULTRA dus die laatste niet de max wat jij bekijkt.
'819.3 GB/s 184 billion 140 Mac Studio M3 Ultra'
Check. In het kopje design gaat het tot de m3 max. Niet de ultra.
Dus jij gaat er van uit dat mensen een nieuwe monitor (willen) kopen als ze een nieuw systeem aanschaffen? Ik gebruik mijn monitor al veel langer dan mijn huidige computer en zie eigenlijk niet waarom je de aanschaf van het een aan de ander zou willen koppelen. Die ingebouwde monitoren in Apple systemen heb ik altijd maar een nadeel gevonden.
Ik doelde op gpu. Niet geheel onbelangrijk als je voor llm's gaat.
Beetje raar om een gpu nog “beeld” te noemen. Die dingen worden tegenwoordig meer zonder beeld gebruikt dan met 😜
Paar andere randzaken was ook een GPU, goede begint vanaf 500 euro. Alleen op dit moment is niks goedkoop daarin.
Dus dan geef je 10k uit en dan heb je niet eens beeld?
Wie zegt dat het moederbord geen HDMI uitgang heeft?
Je wilt dit niet in je normale ram op een windows bak draaien. Zet er 14-15 RTX 5090’s in om een even groot model te draaien. Dan ben je al 30k kwijt (wel met meer rekenkracht, dus dat is weer winst).

Opmerkelijk dat er nog geen insteekkaarten zijn die puur vram toevoegen aan je setup. Dat je één RTX 5090 koopt en daar een kaart met 128, 256, of 512GB vram naast steekt voor AI toepassingen, in plaats van meerdere GPU’s in een cluster.
Volgens mij het hele ding van vram is (ook) de latency. Een insteek kaart maken die die latency heeft is erg lastig (dacht ik). Volgens mij is vaak de wire lengte al genoeg om de performance immens omlaag te halen. Als het hoge latency heeft kun je net zo goed normale ram gebruiken al durf ik niet te zeggen hoe hoog bijvoorbeeld ddr5 ram snelheden kunnen gaan met maximale lanes en dual channel. Ik denk dat het in theorie kan maar in de praktijk kosten niet rondkomen en er te weinig vraag naar is.

Reddit rondom dit topic:
'yup. It's mostly about maintaining signal integrity with high transfer speeds. GDDR is much faster than regular RAM. Even fast laptop RAM is soldered and thus non-upgradeable because of problems with signal integrity (or at least that's what I've read)

See the Techquickie video: YouTube: Your Graphics Card WON'T Do This (Upgrading VRAM)

There are also problems with using proper settings and optimizations for VRAM from different vendors - some graphics card were succesfully modded and got soldered more VRAM than originally had. But besides soldering new chips it requires some changes on board and/or in GPU BIOS'
En
'In consumer-grade GPUs using GDDR (as opposed to HBM in professional-grade GPUs), you are limited by the number of memory modules that the PCB and the memory bus can fit.

The most number of memory modules a consumer grade GPU has ever had (afaik) is 24, in the RTX 3090. The card uses 24x1GB modules, 12 on the front, and 12 on the back of the PCB.

Other cards like the RTX 3090 Ti and the RTX 4090 have 12x2GB modules.

Potentially, if you use a 512-bit bus and use 2GB modules with the technique used in the RTX 3090 (front and back), you could fit a total of 32x2GB = 64GB VRAM.

That's the most VRAM a consumer-grade GPU could have without changing things or incurring in high manufacturing costs...

Will Nvidia give us consumers/enthusiasts such a card? No.

Would it be reasonably priced? NO!'

[Reactie gewijzigd door PaulHelper op 26 maart 2025 12:00]

Het klopt zeker dat je dan niet dezelfde snelheid haalt in vergelijking met modules die direct rond de GPU zitten gesoldeerd, of zo hoog als de Mac Studio.

Echter, het is nu ook niet ongebruikelijk om één LLM in te laden gedistribueerd over meerdere GPU's. Dat zorgt dat zowel het opstarten als het daadwerkelijke trainen of interfereren langzamer gaat dan als het op één enkele GPU zou padden, maar je kan zo wel grotere modellen inladen. Echter heb je op elke GPU wel enige overhead die bij het draaien van AI modellen niet nodig hebt, dus mijn voorstel was vooral als alternatief op het gebruik van een multi-gpu setup.
Upgradable vram bestond wel.
Maar dat is in de Mhz tijdperk
Dacht ik.
Je hebt helemaal gelijk behalve natuurlijk wanneer je afhankelijk bent van MacOs of wanneer je geen windows wil gebruiken. Het is natuurlijk ook wel een heel extreme configuratie die hier bekeken wordt, er zullen weinig mensen zijn die dit kopen. Ik kan me ook niet echt een goede use-case voorstellen. Vind het vooral knap dat ze het allemaal in zo'n klein kastje kunnen duwen. Ik hou het voorlopig bij mijn M2.
Zoiets wil je dus juist wel als je iets anders wilt dan MacOS. Hoeft niet perse Windows te zijn. Ik las hierboven dat Linux ook niet draait op een M3. En laat dat nou bij uitstek hét server OS zijn, dus wenselijk als je die geschetste use case van een lokale LLM niet op je desktop wilt maar als netwerk server zodat je hele bedrijf er gebruik van kan maken ipv alleen 1 gebruiker.
En laten we dan even 3 jaar lang energieverbruik erbij op tellen...
Wat ik persoonlijk altijd mis bij een mac review zijn de fotobewerking en andere real-world benchmarks. Nu is deze natuurlijk extreem, maar bij 'reguliere' mac mini's / macbooks wordt dit ook niet ge-benchmarked.

Waarom wordt dat niet gedaan? Een Cine- of Geekbench is leuk, maar dan weten we nog niet zo goed hoe de real-world prestaties van een M3/M4 ten opzichte van bijvoorbeeld een 9900X zijn.
Inderdaad. Net een paar (kleinere) FEM sommen gedraaid met 4M vrijheidsgraden die 140GB aan RAM behoefden. Neemt 2 uur in beslag op n workstation. Zou best eens willen zien hoe snel dat draait op dit apparaat. Met 800GB/s memory bandwidth lijkt dat veel belovend. Een EPYC 9175F moet t doen met 614GB/s. Is dat niet de enige metric, maar wel een vd belangrijkere

Over de kosten.15000 klinkt veel, maar we werken geregeld met software licenties van 5000euro per maand. Als je dan in n maand 2x zo veel jobs kan draaien heb je die 15000 zo terug verdiend.
De use case voor deze 512GB uma kreng is grote LLM
De andere use cases is de 96 of 256GB en de Pro aplicaties die gpu cores kunnen benutten dat zijn de use cases waar M3-Ultra flink sneller is dan M4-Max.
En dan zit je in 5 a 7K€.
In de praktijk voldoen vaker de M1 en M2 Ultra nog Ruim. En die ga je niet zomaar vervangen voor M4-max. Omdat je er niks mee opschiet als doet hetzelfde of ook gewoon overkill. Voor wie M1 ultra of M2-ultra net niet meer voldoet bij deze gpu core belastende apps is overwegen waard. En als die 128GB bij M1 of M2 zat was zal met M3U ook zo zijn allen krijg met full m3U een sprong naar 256GB. Skipt 128GB dus 96GB
Dat klopt wel, maar daarom is het ook een beetje frustrerend dat Apple deze config opstuurt ter review. Veel Mac gebruikers zijn nog altijd professionals in de grafische en creatieve industrie. Dat is ook altijd al een beetje de doelgroep geweest. Daarom is Apple ook populair geworden bij hobbyfotografen en videobewerkers. En die doelgroep is wel nieuwsgierig naar het soort benchmarks waar michaelboon82 het over heeft.

Als we nu eens stoppen met inderdaad games in de benchmark opnemen en inderdaad real-life tests met foto- en videobewerking erin opnemen, dan is dat veel interessanter.
Je kan zelf instellen hoeveel van de ram als vram aangesproken mag worden, dus je kan met de geteste unit ook prima de goedkopere varianten simuleren voor zulke benchmarks. Ik had zelf wel het idee dat de creative industrie een niche is binnen het grotere Mac landschap. Ooit was het echt een significante doelgroep maar Apple spreekt nu een veel breder publiek aan en de creative industrie is meer fluïde in welk OS ze gebruiken.
en de creative industrie is meer fluïde in welk OS ze gebruiken.
Eigenlijk is de meerwaarde van MacOS vaak minder relevant dan de kosten en prestaties van het systeem.
Op YouTube worden dit soort benchmarks (foto- en videobewerking etc.) onder andere gedaan door Max Tech, mocht je daar meer inzicht in willen krijgen.
Op Youtube heeft ArtIsRight verschillende videos waar hij real-world fotobewerking test voor bijna elke CPU+RAM combinatie en ook non-Apple machines. De resultaten zijn vrij voorspelbaar, maar er zitten ook verrassingen bij, panorama merging in Lightroom blijkt vooral begrensd te zijn door de geheugen bandbreedte en blijkt veel minder afhankelijk te zijn van CPU en GPU.

Waarom dit niet meer gedaan wordt? Ik vermoed dat het vooral moeilijk te standaardiseren is, al zouden bijvoorbeeld Puget Bench scores een flinke stap in de goede richting zijn.
Kan ik er linux op zetten? Of is dat een big fat no no?

edit: dank u allemaal voor jullie feedback.

[Reactie gewijzigd door Stadiz op 26 maart 2025 16:18]

Strict gezien is Mac OS een variant op BSD, dus een vorm van Linux staat er eigenlijk min of meer al op... ;)
Vervelend dat mensen dit blijven zeggen. MacOS is geen variant van BSD, en BSD is geen vorm van Linux, dus dit statement is op verschillende manieren fout.

MacOS bevat een aantal programma's die ze van BSD "geleend" hebben, zijnde de command line userspace tools. Maar de kernel en het OS komen helemaal ergens anders vandaan, en hebben meer met het NeXT systeem te maken dan wat anders.
Klopt, maar NeXT heeft dan weer veel geleend / doorontwikkeld op BSD uit 1977 voor zo ver ik het begrijp. En inderdaad, BSD is geen vorm van Linux, maar beide zijn wel gebaseerd op Unix. Daar komt veel van de verwarring vandaan.
Iedereen heeft veel geleerd van besturingsystemen uit de 70s in het algemeen, dat is wanneer de fundamentele concepten van moderne besturingssystemen ontwikkeld zijn.

Dat betekend niet dat moderne besturingssystemen "een vorm van" die besturingsystemen zijn. Als dat zo was, kunnen we even goed zeggen dat MacOS een soort Xerox Alto OS is.
Mac OS zit in de UNIX-familie van systemen, en heeft op fundamenteel vlak daarom best wel wat gemeen met Linux. Heel veel is overigens ook anders.

Windows daarentegen is een hele andere familie, en is in de basis een doorontwikkeling van een hack op een hack op een hack.
Windows NT, de kernel, is echt oerdegelijk en in de basis veel 'moderner' dan Unix en daarmee ook voor een gedeelte Linux. Dat is ook geen wonder, in de 90s waren de inzichten heel anders dan in de jaren 70.

Een hack op een hack is meer een beschrijving voor Windows 9x
Ik daag je uit een productie-grade microkernel te noemen, die je ook daadwerkelijk in het wild vindt O-)
https://www.naukri.com/co...rnel-in-operating-systems

Examples of Microkernel
Microkernel examples include -

QNX: A real-time operating system known for its reliability and scalability, used in embedded systems, automotive, and medical devices.
Minix: Designed for teaching purposes initially, Minix is a Unix-like operating system used in education and research.
Symbian: Developed for mobile devices, Symbian featured a microkernel architecture optimized for performance and low memory usage.
Mac OS X (XNU): Although primarily monolithic, Mac OS X incorporates elements of microkernel architecture with a hybrid XNU kernel.
L4Linux: Combines the L4 microkernel with Linux, leveraging the security and reliability benefits of microkernels with the extensive software support of Linux.
Integrity: A real-time operating system with a microkernel design, widely used in aerospace, defense, and automotive industries.
K42: A research project exploring microkernel design principles to enhance operating system flexibility and performance.
Linux is niet gebaseerd op UNIX, maar is een UNIX-clone. Dit houdt in dat Linux geen gebruik maakt van de originele UNIX-code. In plaats daarvan is het een onafhankelijk ontwikkeld besturingssysteem, ontworpen om compatibel te zijn met de UNIX-standaarden, maar zonder de oorspronkelijke UNIX-broncode over te nemen.

Ik besef dat ik misschien wat in details ga, maar ik vind het belangrijk om het subtiele verschil duidelijk te maken voor een beter begrip. Het gebruik van 'gebaseerd op' zou impliceren dat UNIX als fundament dient, maar dat is niet het geval.

[Reactie gewijzigd door Archcry op 26 maart 2025 11:38]

Gebaseerd op is een breed begrip, kan zijn gebaseerd op de source code van Unix, kan ook zijn gebaseerd op de ideeen achter Unix.
Macosx is nextstep en nextstep is een mach kernel met bsd userland een een eigen gui. Het is idd. voornamelijk userland, maar met mach is alles userland.
Euhm, nee. BSD, Linux en madOS hebben niet veel met elkaar te maken en zijn al helemaal geen vormen van elkaar. macOS voldoet wel (of was het vroeger toch) aan de Unix standaard net als BSD, Linux heeft dat nooit gedaan en dat was ook nooit het doel. Linux is wel begonnen als een project om een Unix achtig OS te bekomen.

Zowel macOS, de huidige BSD distributies als Linux kunnen wel allemaal de GNU toolset draaien om zo een volledig OS te vormne.

macOS is ook als enige volledis POSIX compliant, terwijl de BSD en Linux distributies grotendeels POSIX compliant zijn. Maar ook Windows heeft door de jaren heen een compatibiliteitslaag gehad om POSIX compliant te zijn, meer dan 20 jaar geleden met een eigen POSIX subsysteem, en vandaag door WSL.
BSD = Unix, maar wel een bijzonder smaakje ervan.
Zeg meiden, we kunnen natuurlijk ook gewoon even zelf naar het plaatje kijken, toch?
https://www.reddit.com/r/.../huhqrh/unix_family_tree/
Zeg meiden
lol, touché :)
hahaha comment of the week :D :D _/-\o_
Dit is waarom ik tweakers comments lees. Informatief en hilarisch van tijd tot tijd O+
Is een ja.

Zeggen dat MacOS hetzelfde is als Linux omdat beiden een UNIX zijn is als zeggen dat een schaap en een walvis hetzelfde zijn omdat beiden een dier zijn.
Zeggen dat ze tools overeenkomstig hebben is dan weer vergelijkbaar met zeggen dat een penguin en een kat hetzelfde zijn, omdat ze op dezelfde manieren kunnen vliegen, en net zo goed zijn in schaken.
Dit is dezelfde onzin als wanneer mensen blijven zeggen "ja maar Android is ook Linux!"

Misschien ben je technisch correct en kun je je daar fijn over voelen (alleen in dit geval dat zelfs niet, BSD is geen Linux), maar het is dermate doorontwikkeld dat het totaal anders in elkaar steekt ten opzichte van waar het mee gestart was.

[Reactie gewijzigd door stuiterveer op 26 maart 2025 09:39]

BSD Blue Screen Death
Dat is wat ironisch, gezien BSD over het algemeen juist uitblinkt in stabiliteit
Het is in de Windows wereld dan ook BSOD, Blue Screen Of Death.
Er is linux distro die M1 en M2 ondersteund. M3 zal wel volgen dan is voordeel dat 2025 mac studio een M3 ultra heeft.
M4 zal dan erna komen.
Geen idee wanneer.
Yep, Asahi linux voor de geinterresseerden.

Ik ben benieuwd hoe het gaat lopen met verdere support van M3 en M4.
M3 laat al erg lang op zich wachten in vergelijking tot M1/M2, naar wat ik gehoord heb komt dat door de modelen die een M3 gekregen hebben. Deze zijn minder gewenst geweest. Met de bredere lineup van M4 producten verwacht ik dat die misschien sneller support zullen krijgen, misschien zelfs eerder dan M3. Maar wie weet.

In de repos is in ieder geval nog geen soc dtsi te bekennen van M3 of M4:
https://github.com/AsahiL...arch/arm64/boot/dts/apple
(t8103 is M1 en t8112 is M2)
misschien ergens een klein beginsel in een andere branch, maar zover ik kan vinden niet.
Ik vraag me altijd af waarom mensen veel geld uitgeven om niet-ondersteunde hardware onder Linux te gebruiken. Er zijn alternatieven en dan denk ik aan een Ampere-workstation. Ontwikkelen voor de Mac zie ik als effort in een bodemloze put gooien en ik vraag me af of Apple er voordeel inziet (het is niet dat de hardware het niet kan).

Als je alleen een beetje wil spelen onder Linux met Armv9 dan is er ook goedkope chinese hardware gebaseerd op een CiX CD8180 processor. Toegegeven, dit is pas vergelijkbaar de meest uitgeklede M1 van jaren terug, maar voor hobbytoepassingen kan dat interessant zijn.
als een persoon in de categorie 'linux draaien op niet ondersteunde hardware', omdat het leuk is om dingen te doen wat niet helemaal de bedoeling is.

Mijn huidige main laptop is een Asus vivobook S15 met snapdragon x elite waar ik linux op draai bijvoorbeeld.
Omdat de macbooks onder de fijnste laptops op de markt zijn, maar MacOS op bepaalde vlakken dramatisch is en eigenlijk zelfs achterloopt op windowsXP?
Ook een optie, ben persoonlijk geen fan van de haptische trackpads, maar verder zijn het wel mooie machines.

Voor mij zou het voornamelijk om de chip gaan, de M serie levert tot nu to fantastische prestaties, het is jammer dat ze afgesloten zijn van hun potentieel door macos
Ik ben serieus wel benieuwd waarvan je vindt dat MacOS op windows xp achterloopt
Window management
Window snapping bestaat pas sinds windows 7 ;) Maar ik snap je punt
Ahja, dan heb je gelijk, dan loopt apple nog maar 16 jaar achter :).
Dan komt Steve Jobs persoonlijk uit zijn graf om je billekoek te geven en je uit de Apple-kerk te donderen. :P
beetje luguber, niet?
Dus de conclusie is dat deze dure machine rekenkracht tekort komt om een LLM goed te kunnen gebruiken?

Wat moet iemand dan wel met zo’n apparaat? Videobeelden renderen? Simulaties draaien? Tweakers refreshen?
Videobeelden renderen, monteren, dat soort zaken. Voor veel zakelijk gebruik is het simpelste model Studio al snel meer dan genoeg en zou je met een Mini ook al toekunnen. Het is grote aantal aansluitingen (in verhouding dan) dat hier aantrekkelijk is.
Het draait kleine modellen (die juist een veel beperktere use case hebben) niet net zo snel als de top of the line consumenten GPU. Maar het blijft een van de snellere systemen als je het naast consumenten producten zet (waar het eigenlijk niet hoort als workstation). Wil je grotere modellen draaien dan is er niet veel vergelijkbaars op de markt.

De grote concurrentie is vooral servers/cloud waar je de grote modellen laat draaien normaliter. Maar als je om wat voor reden dan ook lokaal een groot redeneermodel wil draaien, dan is dit een van de betere opties. Dat zal een hele beperkte doelgroep zijn.
Vram heeft voordeel tekenkracht maar gelimiteerde vram grote en heel velangrijk een van sysmem naar vram load die sterk afhankelijk is van grote.
UMA heb load van opslag en AI er op los. Bij Vram is er die extra stap bij.
Ben wel benieuwd naar hoe warm dit ding word. (hoe snel die trottled)
Of ik moet het gemist hebben in het artikel.
Op p4 staat een duurtest en tl;dr: hij throttelt niet.
Waarom nog steeds, decennia later, de "wie koopt er zo'n dure set" trope?

Weet je wat een vergelijkbare Windows machine (als die al bestaat) kost? En nee, niet zelfbouw. Dit is voorenterprise / corporate klanten.

Weet je hoeveel een Avid of Media 100, quantel of Autodesk workstation kost(te)? Een veelvoud hiervan.

Weet je hoeveel een enkele GPU met 96GB+ VRAM kost? 512GB VRAM is nergens verkrijgbaar.

Ik BoUw ZeLf Wel Een '''woRkstaTioN''' mEt 4x 3090.

[Reactie gewijzigd door MPCX op 26 maart 2025 17:48]

Het hangt van je usecase af. Voor sommige workstation taken is deze apple belabbert en overpriced. Je hebt voor minder dan 10000 euro een high end workstation met 4 tb aan ram. Sideband ECC.

Ik vind het heel raar dat de reviewer 512gb als bizar veel ram aanduidt.

Het enige echte voordeel van deze apple is het ontsluiten van ram als vram. Dat is zeker nuttig voor bepaalde usecases. Maar daar houdt het wel op.

Er is voor veel usecases in de enterprisemarkt echt wel betere value dan deze apple.

[Reactie gewijzigd door PjotterP op 26 maart 2025 07:09]

Je hebt voor minder dan 10000 euro een high end workstation met 4 tb aan ram.
I call your bluff!

Laat die dan even zien dan.

4 TB geheugen:
https://www.amazon.com/NE...1E2-RT/dp/B0CQ2YM1WZ?th=1

Het geheugen alleen al is 50k. Laat staan een bijpassend moederbord, cpu daarvoor, de rest er om heen (dus ook dingen als garantie!?)

Bij een Precision 7960 Rack Workstation betaal je voor het geheugen alleen al 90k.

10k voor het hele zwikkie slaat echt helemaal nergens op.
Het zou voor het eerst zijn dat een Apple value for money is. Dat er uitschieters zijn zal direct maar ik vermoed dat we een dezer dagen oa LTT wel weer met een 1 op 1 vergelijk zien waarbij de Windows bak een stuk goedkoper en sneller is. Apple heeft nog nooit iets gelanceerd dat "goedkoop" is, zo ook niet dit systeem. Dat je voor de Apple premie vervolgens een snelle bak krijgt in een super kleine form factor is zeker waar, maar je moet toch wel een minuscuul kantoortje hebben of qua software locked in zijn dat je hiervoor gaat.
Juist sinds Apple zijn eigen chips maakt vind LTT het lastig om een windows machine te maken die sneller is voor dezelfde prijs.

Vroeger was dat wel echt zo, met die intel macs.
Tja, eigen is 4tb gewoon 512GB.

Maar ik denk dat de beste tweaker een 0 vergeten is, of iets anders bedoelde.

4TB aan RAM kost inderdaad nogal wat duiten, helemaal bij Dell/HP/etc.
Het is VRAM (unified) wederom de halve goegemeente heeft het niet door.
Ik vind het heel raar dat de reviewer 512gb als bizar veel ram aanduidt.
Omdat het ook bizar veel ram is voor een desktop pc.
Voor een server niet. Maar daar is deze Mac Studio ook niet voor bedoeld, want anders was die wel in rack-formaat beschikbaar.
15K€ is niet duurste je kan deze ook nog in cluster zetten met 6 TB5 is max een 6 stuks cluster 90K€
Voor de full deepseek 700GB zou 2 genoeg zijn.

Ik vraag me af wat top 3d V-cache Epyc zo doen die heeft L3 waar Deepseek in past.
Maar dan kan general purpouse zen5 cores de bottleneck zijn.
Ik vraag me af wat top 3d V-cache Epyc zo doen die heeft L3 waar Deepseek in past.
Volgens mij moet je nog eens even kijken naar de specs van die Epic.

Die caches zijn namelijk gemeten in MB, niet GB. Dat zou ook wel bijzonder zijn, 700 GB aan level 3 cache. Dan heb je geen geheugen meer nodig 😀

Degene met het meeste level 3 cache is volgens mij de 9684X met 1152 MB.
https://www.amd.com/en/pr...eries/amd-epyc-9684x.html
Er bestaat in essentie geen vergelijkbare Windows machine, hoe zou je die willen bouwen? Als je puur kijkt naar CPU kracht, hoeveelheid geheugen en opslag, de rekenkracht van de GPU dan kom je vermoedelijk op een workstation uit welke goedkoper is. Maar dan is je GPU nog altijd niet in staat om al dat geheugen aan te spreken. GPUs met zoveel geheugen gaan je een pak meer kosten.

Maar dan hebben die systemen weer andere voordelen die je bij deze Studio niet hebt en alles maakt een vergelijking daarom onmogelijk.
my point dus. Het is een zinlose exercitie. Alle systemen in mijn voorbeeld zijn allemaal verschillend maar gericht op bepaalde workflows.

in dit geval betaal je 15k voor unified memory, 800GB/S.

Dat is nergens te krijgen alleen te benaderen met alle. voors en tegens.
Ik vind het vanuit het oogpunt van innovatie wel interessant dat ze dit extreme model naar een site als tweakers toesturen. Het siert Apple ook wel. Er is hier een groep gebruikers die het laden van AI toepassingen en de verschillen met een RTX 5090 zeker wel interessant vindt. Ik zal deze versie ook niet kopen (ben een Windows gebruiker overigens) maar vind het zeker een leuk artikel om te lezen..

[Reactie gewijzigd door patrickvdweide op 26 maart 2025 06:50]

Is de vergelijking met een gamer kaart wel zo interessant, voor dit geld koop je immers drie van deze kaarten maar kom je ook in het gebied van de echte AI kaarten van Nvidia.

Deze zit er eigenlijk net tussen, een consumenten AI met een RTX kaart van zeg 7000 en een echte AI kaart van 30.000. En dan is het eigenlijk niet echt betaalbaar maar performt ook niet.
De ssd is wel degelijk upgradeble, via ondermeer studiodrive.
Dat is een kickstarter project en je bent onmiddelijk je garantie kwijt. Apple brengt deze machine uit met de boodschap dat ze niet uitbreidbaar zijn.
Een koelsysteem wat onhoorbaar 250 Watt weg kan koelen is wel enorm indrukwekkend!! @Tomas Hochstenbach mocht je hem niet openmaken om eens te zien hoe ze dat voor elkaar gekregen hebben?

Op dit item kan niet meer gereageerd worden.