Apple zet stilletjes verkoop van M4-Mac mini met 256GB opslag stop

Apple heeft de verkoop van de Mac mini met M4-chip en 256GB opslagruimte stopgezet. Op de website van de fabrikant is de computer niet meer te bestellen. De instapprijs wordt hierdoor hoger, maar de prijs van de andere configuraties verandert verder niet.

De goedkoopste optie is nu de M4-Mac mini met 512GB, die minimaal 969 euro kost. Apple heeft vooralsnog niet uitgelegd waarom het is gestopt met de verkoop van de 256GB-Mac mini. Door de wijziging zijn de MacBook Neo en de iMac de enige Macs op Apples website die een 256GB-optie hebben.

Eerder deze week waarschuwde ceo Tim Cook tijdens de presentatie van de jaarcijfers dat de Mac mini en Mac Studio de komende maanden moeilijk verkrijgbaar zullen zijn. Volgens Cook gebruiken veel mensen de systemen om AI-agents als Openclaw op te draaien. "De Mac mini en de Mac Studio zijn beide fantastische platforms voor AI- en agenttools en de klanten erkennen dit sneller dan we hadden voorspeld, waardoor de vraag hoger uitviel dan verwacht", aldus de ceo. Ook onder tweakers steeg de populariteit van de Mac mini nadat Openclaw viraal was gegaan.

Mac mini

Door Imre Himmelbauer

Redacteur

02-05-2026 • 09:07

24

Submitter: marc574

Reacties (24)

Sorteer op:

Weergave:

Ik lees meerdere mogelijke oorzaken voor dit scenario op de geruchtensites.

Apple's WWDC is over een maand, mogelijk kondigen ze M5 desktops aan. Als dat zo is zijn die nu al in productie, en willen ze niet teveel M4 backorders hebben vanwege last-minute annuleringen/returns lijkt me.

Andere kant: AI. Ik gebruik Gemma 4 31B lokaal op een Mac Studio en het werkt best goed voor agentic coding. Ook Qwen3.6 hoor ik hele goede verhalen over. De grotere lokale modellen lopen misschien iets achter op Anthropic/OpenAI, maar krijgt echt grotendeel van het resultaat er uit. Over tijd zie je ook dat geheugenvereisten omlaag gaan voor bruikbare LLMs. Als een LLM model half jaar oud is dan is het eigenlijk alweer zwaar achterhaalt.

Hiermee gaan grenzen zitten in hoeveel streken de cloud LLM boeren kunnen uithalen totdat mensen zeggen: screw it, een Mac/GPU met 32GB RAM kan 80% van dit werk doen, en dan heb ik alle controle en 24/7 aan tokens beschikbaar.

Ergens wel ironisch dat Apple zo weinig AI verder in hun producten heeft, of met 1 knop uit te zetten. En dat is een feature. Anderzijds geeft hun hardware portfolio juist een mooie glijdende schaal om lokaal AI op te tuigen.

Nog kleine tip: als je zaken als OpenClaw, OpenCode/OpenChamber e.d. draait, dan is het niet noodzakelijk dat die op hetzelfde systeem draaien. Ik host mijn LLMs met LM Studio op mijn Mac Studio, en maak deze beschikbaar over mijn LAN. Ik zou dan OpenClaw op een Raspberry Pi toegang kunnen zetten, met root access en al, en de (tekst)prompts laten lopen via mijn Mac Studio. OpenClaw mag daar dan lekker per ongeluk `rm -rf / --no-preserve-root` draaien, maar daar hebben mijn workstations geen last van.

[Reactie gewijzigd door Hans1990 op 2 mei 2026 09:25]

Ja ik gebruikte al een tijd llama 3.1 maar door gebrek aan een opvolger (3.3 was alleen vision erbij) ben ik overgestapt op qwen. Dat is ook wel een behoorlijke vooruitgang. Vooral agents aanroepen deed llama niet stabiel genoeg (soms riep hij de agent netjes aan, soms ging hij gewoon hallucineren). Qwen doet dit een stuk beter. Ik moet natuurlijk wel een beetje anders omgaan met het schrijven van de functions, bijvoorbeeld een complete historie in je context plorken gaat hem niet worden. Sowieso heb ik door geheugen beperkte context maar het processing duurt ook enorm veel langer. Dus ik moet daar slimmer mee omgaan, in de agent zelf een zoekactie doen en dan de results teruggeven.

Ik zie nog wel een nut voor grote cloud modellen met bijvoorbeeld programmeren, maar dan zit je al gauw in zakelijk gebruik waarbij de enorme kosten geoffset kunnen worden door minder werknemers (of meer ontwikkeling die ze geld opbrengt).

En ja ik heb ook een hele aparte server hiervoor (twee zelfs, eentje met een hele snelle maar goedkope AMD kaart en eentje met een wat mindere Nvidia voor zaken die niet op AMD draaien zoals faster-whisper).

[Reactie gewijzigd door Llopigat op 2 mei 2026 09:35]

Bedankt, die stond niet echt op mijn radar, zal ik proberen.
Wat is jouw setup met deze modellen? Ik draai ze middels Ollama en werk in Opencode.

Heb het context window van 8K ingesteld, maar dan zijn de resultaten erbarmelijk. Ook met 32K geprobeerd, wat wel werkt (maar nog steeds slechte resultaten), maar dan merk ik dat er een fan in m'n Macbook zit.

Gezien de lovende berichten op internet met deze modellen doe ik vast iets verkeerd.


Tevens werkt agentic coding niet bij mij. Code wordt in de chat geschreven en moet ik copy-paste, net als in de middeleeuwen 😅

[Reactie gewijzigd door Jan_V op 2 mei 2026 09:29]

Ja context maakt alles enorm veel zwaarder, zowel qua geheugen als qua processing tijd. Voor mij is meer dan 32k niet echt bruikbaar meer, dan heb ik nog wel geheugen over (met 8b/q8_0 modellen) maar meer dan een minuut wachten op antwoord is tergend.

Ik las trouwens online dat ollama (wat ik nu gebruik) veel minder efficient is dan llama.cpp dus dat moet ik ook nog eens proberen. Ging om dit artikel: https://sleepingrobots.com/dreams/stop-using-ollama/

[Reactie gewijzigd door Llopigat op 2 mei 2026 09:38]

Dan die ook maar eens proberen.

In de release notes van Ollama van enkele dagen/weken geleden stond trouwens dat ze nu efficiënter zijn met Apple silicon. Gisteren georobeerd, maar was nog steeds niet top.
Ja ik gebruik zelf ook een veel oudere versie van ollama, omdat ze zomaar opeens de support voor ROCM voor mijn kaart compleet dropten :( Ze hebben Vulkan als alternatief maar dat is nog lang niet af en werkte niet goed. Dus ik heb de versie gepind en nooit meer geupgrade. Het verbaaste me al dat qwen3 uberhaupt werkte.

Ook met andere verbeteringen zoals KV cache quantisation hebben ze heel lang de kont tegen de krib gegooid ondanks dat mensen het op een presenteerblaadje aanleverden. Ze hebben dat een jaar lang laten hangen. En ze worden steeds commercieler (steeds meer focus op hun online dienst), dus ik ben er ook wel een beetje klaar mee. Maarja, ik moet er ff tijd voor maken om het om te zetten.

[Reactie gewijzigd door Llopigat op 2 mei 2026 09:55]

OpenChamber, daarachter draait OpenCode. Die geef ik voorlopig toegang tot mijn lokale systeem, maar ik overweeg dus zo'n RPi / VM opstelling. Want uiteindelijk is een project builden en draaien echt niet zo zwaar meer.
In OpenChamber heb je wel controle over welke acties een agent mag uitvoeren. Dus alle bash commando's hebben altijd toestemming nodig, files lezen binnen de project map mag altijd, maar voor libraries die in systeem zijn ingesteld is toestemming nodig, enzovoort.

Ik heb via wat omwegen Gemma4 31B in OpenCode geladen (handmatig toegevoegd aan OpenCode config file). Deze roept helaas niet alle tools perfect aan, maar het genereren van code is in ieder geval goed. Ik heb ook Qwen3.5 eerder geprobeerd met een Mixture of Experts (MoE) model, maar die begon teveel te hallucineren (lege functies als "klaar" opleveren) en liep regelmatig vast (referenties niet terug kunnen vinden, vervolgens continu opnieuw proberen).
Dat model draaide overigens wel een veelvoud sneller, want vziw gebruikt zo'n MoE maar een beperkt aantal actieve parameters tegelijk. Ook de kleinere Gemma4 modellen zijn MoE. Qwen3.6 moet ik nog eens goed proberen, maar ook hierin zijn er verschillende smaken.

De context size heb ik op 80K tot 128K ingesteld (ja dat is veel!). Dit gebruikt met max. 2 jobs parallel en IDEs meestal zo rond ~64GB RAM, maar ik heb eenmalig ook een uitschieter gezien naar 120GB. Ik gebruik nu een Q6 kwantisatie van het model, dus kan nog iets kleiner, maar ik merk wel dat voor langere prompts goed context window echt de sleutel is tot efficient code genereren.
Ik geloof dat Anthropic op zo'n 150K a 200K context window heeft. En ook daar heb je skills zoals Caveman.. Ook die wil ik nog een keer proberen.

[Reactie gewijzigd door Hans1990 op 2 mei 2026 10:15]

Wellicht laat je de grootste reden achterwegen en dat is de keiharde dollars? Want prijs verschil is 200$.
Ollama met mlx modellen willen best lekker. 32GB is wel een beetje de minimum om wat leuks te doen met agentic werk.
Gezien de flinke prijsstijgingen van AI kan het zomaar zijn dat de vraag naar deze machines weer minder wordt lijkt mij?
Juist het tegenovergestelde, want je kunt met de Mac Mini, AI lokaal draaien.
Daar heb je toch een veel zwaarder systeem voor nodig? Meer richting Mac studio of gpu?

Mac mini lijkt meer interessant om de agent zelf te draaien maar niet de LLM.

[Reactie gewijzigd door Barsonax op 2 mei 2026 09:37]

Het kan wel, maar meer RAM (16-24 GB) is aanbevolen.
16-24GB is echt niet genoeg. Dat wordt ook nog gedeeld met het OS en wat de agent zelf nodig heeft he?

Je bent denk ik beter uit om een apart systeem te kopen om de LLM te draaien. Zal flink stuk sneller zijn ook want als het al draait op de Mac mini is het niet vooruit te branden.
Je kunt de Mac mini als apart systeem gebruiken. Dus je eigen hoofdsysteem plus daarnaast een Mac mini om de LLM te draaien. Natuurlijk zou en aparte Mac Studio beter zijn maar ook duurder.
Ik denk juist meer. Doordat de companyhosted AI inderdaad duurder wordt, zullen gebruikers eerder zelf een AI-machine installeren met OpenClaw. En daar is deze Mac Mini dus zeer geschikt voor.
Het is een vrij krachtige mini pc en je kon hem met studenten korting kopen voor 599€ bij Apple en bij nbb.com kon je hem ook vaak kopen voor 609€. Ik denk dat hij ook populairder werd omdat alle ssd en ram prijzen omhoog gingen en mensen dachten laat ik maar eens een Mac Mini kopen ipv van bijvoorbeeld een Windows Nuc PC
En doorz Openclawdl openclaw openclaw en openclaw. Die dingen zijn zo enorm gehyped aan het begin van het jaar, agentic coding op 16gb is te beperkt, maar als always on verbinding met codex is het perfect, net als voor een paar kleine modellen
Zelf AI thuis draaien voelt als het equivalent van een eigen renderfarm bouwen; verspilling van tijd, energie, en geld. Als hobby leuk dus maar niet veel meer dan dat
Zelf thuis wellicht, maar als bedrijf/instelling waar toch al een aantal gpu in het datacentrum staan, zijn “lokale” oplossingen het onderzoeken waard.

Geld voor abonnementen is er bijvoorbeeld niet binnen een non-profit, maar er staan wel een aantal GPU’s regelmatig uit hun neus te eten.

Als we die in kunnen zetten voor coding agents is er al veel gewonnen. Ook in de vorm van meer privacy voor de organisatie.
Het ligt toch niet toevallig aan het feit dat je de SSD in deze Mac Mini M4 kunt upgraden voor een fractie van de prijs die Apple vraagt?

Ik ken namelijk heel wat mensen die de 256 GB-versie hebben gekocht en de SSD hebben vervangen door een snellere 2 TB-variant :9

Dat was overigens wel voordat al die prijzen zo idioot omhoog gingen...
Ik ben aan het overwegen om de mac mini m4 256GB te kopen. Maar ik was het nog wat aan het afwachten.
Het is misschien dan wel verstandig om deze asap nog te kopen?

Om te kunnen reageren moet je ingelogd zijn