Populariteit Mac mini uit 2024 stijgt onder tweakers, mogelijk door OpenClaw

Het aantal click-outs in de Pricewatch van een van de Mac mini-modellen uit 2024 is de afgelopen week flink gestegen. Dat komt mogelijk door OpenClaw, de AI-bot die vorige week viraal ging. Veel mensen raadden gebruikers aan om OpenClaw te draaien op een aparte Mac mini.

OpenClaw stock. Bron: SOPA Images/LightRocket/Getty Images
Bron: SOPA Images/
LightRocket/Getty Images

Vooral bij de relatief goedkope uitvoering met 16GB ram en 256GB opslagruimte is er sprake van een stijging. Sinds 25 januari bezoeken elke dag flink meer mensen een webshop vanaf die productpagina. Dat gebeurde voor het laatst in november in de periode rond Black Friday.

Ook de uitvoeringen met 24GB ram en die met een ssd van 512GB zijn populairder geworden, maar de stijging is daar minder duidelijk dan bij de goedkopere editie. Dat is op zich logisch: een Mac mini is al behoorlijk overdreven hardware voor een OpenClaw-machine, dus dan kiezen mensen waarschijnlijk de goedkoopste.

Hoe meten we interesse?

Dit artikel is gebaseerd op data uit de backend van de Tweakers Pricewatch. Hiervoor zijn de zogenoemde 'click-outs' van Mac mini 2024-modellen gebruikt.

Click-outs zijn het aantal bezoekers dat doorklikt vanaf de prijspagina van een product naar een winkel. Dit is geen perfecte vertaling naar de daadwerkelijke verkoopcijfers, maar geeft wel een goede indicatie daarvan.

De stijging in click-outs lijkt overeen te komen met de stijging van de populariteit van de zoekwoorden OpenClaw, Moltbot en Clawdbot in Google Trends. De AI-tool werd in november geïntroduceerd onder de naam Clawdbot, maar ging vorige week om onduidelijke redenen plots viraal. Na wat woordenwisselingen met Anthropic, dat de verwijzing naar zijn eigen chatbot Claude niet kon waarderen, werd de naam eerst veranderd naar Moltbot en uiteindelijk naar OpenClaw. Overigens is niet te bewijzen dat de stijging in Mac mini-click-outs verband houdt met de populariteit van OpenClaw, maar opvallend is het wel.

OpenClaw zorgt ervoor dat een AI-chatbot 24/7 op computers aan de slag kan, vaak met volledige systeemrechten. Logischerwijs vindt niet iedereen het een goed idee om dat te doen op de systemen waar zij al hun foto's, wachtwoorden en creditcardgegevens hebben opgeslagen.

Mensen die niet willen dat hun creditcardgegevens zonder hun medeweten worden verstuurd naar een 'prins' in een ver land, draaien de tool daarom op een apart systeem. Dat kan gewoon op een oude laptop of virtual private server, maar veel mensen kiezen ervoor om daarvoor een aparte Mac mini te gebruiken. Online zijn ook al verschillende handleidingen te vinden over hoe OpenClaw op een Mac mini te draaien is.

Door Imre Himmelbauer

Redacteur

04-02-2026 • 14:34

57

Reacties (57)

Sorteer op:

Weergave:

Snap niet dat mensen dit niet gewoon in een DigitalOcean droplet (o.i.d) draaien van ~5 euro per maand. Kun je die droplet bijna 10 jaar van laten draaien voordat je aan de kosten van een Mac Mini zit
Dat kan je niet voor 5 euro per maand bij DigitalOcean draaien:

https://www.digitalocean.com/pricing/droplets

16 GiB memory met 8 vCPUs kost je $0,14286 per uur = $3,43 per dag.

Dat is dus 2,90 euro per dag!
Ja, maar heeft openclaw 16GB en 8vCPUs nodig? Nee, ik begrijp dat het ook op een raspberry pi draait.
Het heeft snelle RAM nodig. Dat hebben VPS'en zelden.
Digital ocean …. Not under my control, Mac mini in mijn eigen rack in de kelder wel en mijn privacy is mij veel meer waard. Althans zo zou ik redeneren
Als je privacy je veel waard is, blijf je naar mijn mening weg van tools zoals OpenClaw.
En waarom is dat? Als je het lokaal draait en geen toegang tot het internet geeft kan het toch weinig kwaad lijkt mij?
Digital ocean …. Not under my control, Mac mini in mijn eigen rack in de kelder wel en mijn privacy is mij veel meer waard. Althans zo zou ik redeneren
En dan wel Claude inpluggen als AI model? Een vps in de cloud voelt meer onder mijn beheer dan Claude.
Nou, misschien omdat het absolute minimum aan geheugen 2GB is, 4GB recommended is, en 16GB om "comfortable" te kunnen werken?

Succes dus met je droplet van €5 ($6) - die heeft maar 1GB. Voor 2GB zit je al aan $12, 4GB is $24, en voor die aanbevolen 16GB mag je dus $96 per maand aftikken. Houdt er daarbij rekening mee dat OpenClaw ook nog een browser moet opstarten en aansturen, die ook wat geheugen nodig zal hebben.

Als je toch de DigitalOcean route wilt bewandelen zou ik wel hun Marketplace dingetje gebruiken: https://marketplace.digitalocean.com/apps/moltbot - dan is 'ie in elk geval conform best-practices geconfigureerd en dichtgetimmerd.

Nog een reden waarom mensen dit zo doen? Omdat het de aanbevolen route is vanuit OpenClaw - als je zelf gaat lopen hannessen met een VPS dan stap je dus buiten de paden van de tutorials en dergelijke. In plaats van `curl -fsSL https://openclawd.ai/install.sh | bash` kopiëren-plakken van de site ben je ineens bezig met uitvogelen wat SSH is. Voor Tweakers natuurlijk geen probleem... maar niet iedereen is zoals wij, dus ik snap juist heel goed dat mensen gewoon de aanbevolen route volgen.

[Reactie gewijzigd door multiplexer op 4 februari 2026 15:19]

Veel AI software draait beter op macos dan bijv. op linux.
Is dat nou per se MacOS of door de M chip van Apple?
Volgens mij komt het vooral door de chip met relatief goede ingebouwde GPU en het unified memory model.
Macs hebben een 'neural engine' naast de GPU en inderdaad unified geheugen wat betekent dat die chip al het geheugen voor AI toepassingen kan gebruiken. Daardoor zitten ze heel gunstig in de prijs/prestatie curve: een nVidia kaart is sneller, maar heeft minder geheugen dan een Mac configuratie op hetzelfde prijsnivo. En die Mac heeft geen extra stroomaansluiting nodig ;)
Ja vooral dat unified memory zelfs, geheugenbandbreedte is heel erg bepalend voor LLM's.
Beide, Apple maakt het Linux distro's niet gemakkelijk om te optimaliseren.
Hoe bedoel je? Wat doet Apple om Linux distro's tegen te werken en met wat precies?
Veel AI software draait beter op macos dan bijv. op linux.
Welk software dan precies? Ik heb 0,0 problemen met het draaien van "AI Software" (of eigenlijk Moltbot) op mijn VPS, Ubuntu server thuis en op mijn Ubuntu laptop. Zelfde voor Claude Code.
Claude Code draait dan ook niet lokaal, lokaal draait enkel de client die data de cloud in slingert en resultaten verwerkt.
En jij denkt dat de prijs 10 jaar gelijk blijft? Dus geen inflatie, geen baas bij DigitalOcean die uit al die VPS LLMs geen extra slaatje uit wil slaan? Of zelfs moet, omdat er veel teveel LLM'ers van hun shared servers gebruik maken en die server plat leggen vanwege AI?

Als je nog steeds overtuigd bent van je gelijk, dan heb ik nog een mooie brug voor jou te koop. Was alleen maar open op zondag, om mensen naar de kerk en weer naar huis te laten rijden.
Ik zat zelf afgelopen week in de pricewatch ook te kijken naar de Mac Mini. PC gaming wordt de nek omgedraaid door fabrikanten. Gezien de enkele game die ik spel misschien maar opgeven en cashen op mijn PC met 9800X3D en 32GB DDR5 :+ Dan voor het creatieve stukje wat ik daarnaast doe een Mac Mini kopen. Scheelt toch veel ruimte.
Zou er ff mee wachter tot de M5 versie er is
Zou er ff mee wachter tot de M5 versie er is
Die komt ergens dit voorjaar of pas op/na WWDC in juni. Ik zou gewoon lekker nu zo'n ding kopen. Je hebt er direct plezier van en anders kan je altijd nog je huidige model verkopen voor een aardige prijs als de M5 uit komt.
Helemaal mee eens. De M4 kan je gewoon nu kopen, en heeft een bekende prijs. Van een M5 mini is dat nog afwachten door de tekorten en als de Macbook pro M5 een indicatie is gaat het ding hooguit zo'n 15% sneller zijn. Dat merkt je amper.
Ik zou maart even afwachten, maar anders is het inderdaad moeilijk in te schatten wanneer een nieuwe release komt.
Klopt, ik dacht in 2021 'even wachten op de Mac mini M2' en heb daar 2 jaar geduld voor moeten hebben ;)
Ik was ook al aan het denken dat het ook gewoon kan komen doordat de Mac mini nog stabiel blijft qua prijs en daardoor relatief aantrekkelijker wordt als alle andere PC hardware duurder wordt.
Dat is het voordeel van de Apple strategie om dingen voor een vaste prijs neer te zetten. Meestal werkt dat tegen je, maar het kan bijna niet anders dan dat de prijzen van nieuwe modellen wel wat omhoog gaan dit jaar.
Puur uit interesse, wat maakt het het mogelijks waard om een huidige PC te verkopen voor het aanschaffen van een nieuwe? Wat zou een Mac Mini beter of anders kunnen dan een PC met die specs? Heb overigens ook echt geen idee van de prijs/waarde van een Mac Mini.

EDIT : mijn ogen moesten letterlijk 10 cm omhoog kijken om hier op de pagina letterlijk de Mac Mini van 2024 te zien staan 8)7

[Reactie gewijzigd door CreatiXx op 4 februari 2026 14:44]

Wow, de prijs van de Mac Mini is ineens flink gestegen zeg. Een paar dagen geleden had Amac hem nog te koop voor 619 euro.
498 bij amazon duitsland
30EUR duurder nu, valt mee toch. En bij Apple is die 599EUR
Huh, hij staat bij mij voor 719 euro in de Apple Store. Waar zie jij hem voor 599 euro staan?
Je linkt naar de pagina voor onderwijs... Daar kunnen we niet allemaal gebruik van maken.
ja hoor, als je zegt dat je een studie volgt kan je het kopen...
Je kunt ook gewoon niet bij Apple kopen, scheelt het sowieso in de kosten.
Ook Apple loopt nu tegen het gebrek aan produktie-capaciteit aan voor hun nieuwe computers en telefoons. Ja, men had daar wat RAM op voorraad, maar ging sneller op dan verwacht.

Denk niet dat Apple hun marge op hun apparaten vermindert, dus de prijs van M5 Macs en iPhones zal ook flink omhoog gaan.

Eigenlijk zou je erop moeten hopen dan China Taiwan binnenvalt. Het is leuk dat TSMC nu op meerder plaatsen ter wereld een chip-fabriek heeft staan. Maar deze produceren alleen de wafers voor chips. Omdat alles tegenwoordig uit meerdere lagen wafers bestaat, zijn de chip-packaging faciliteiten heel belangrijk geworden. En deze staan praktisch allemaal in Taiwan.

Mocht China Taiwan binnenvallen, dan komt dat packaging helemaal tot stilstand. En daarmee dus ook alle nieuwe AI GPUs voor datacenters, alle RAM en VRAM enz. En daarmee klapt de AI-bubbel met 100% zekerheid, want niemand kan de beloftes van investeringen in AI waarmaken en aangezien er zoveel bedrijven overmatig veel hebben toegezegd, dat gaat een boel bedrijven de kop kosten. OpenAI en zelfs NVidia zal het heel moeilijk gaan krijgen.
Ik heb het gevoel dat je hier alleen de eerste fase beschrijft van jouw idee. Wat is het voordeel van in ieder geval een recessie en daarna marktdominantie van China?
Ik was ook aan het kijken, maar wacht op de M5. Reden: Zelf hosten van een LLM i.c.m. N8N en home assistant met eventueel voice-text-voice oplossingen. Openclaw heeft nog beveiligingsissues (zelf niet in gedoken) laat ik daarom nog bewust links liggen. Het product moet wat meer volwassen zijn om echt in productie te gaan gebruiken.

Waarom een mac mini, nou hij is enorm zuinig in idle en voldoende krachtig. Ik wil wel voor een 64GB Ram gaan (wellicht komt er een 128GB model?). Het snelste resultaat(response) is soms ondergeschikt en afhankelijk van de use-case, Met een zelfbouw (Intel of AMD) win je het gewoon niet op dit vlak van de mac mini.
Dan heb je het over Mac Studio's. En daar hangen heel andere prijskaartjes aan. De 512 GB variant met M3 chip kost je al 10.000 USD, dus dat zal vast uitdraaien op 10.000 Euro in Nederland. Je beoogde 128 GB Mac zal je zeker zo'n 2500 Euro gaan kosten. Dat wil zeggen, de M3 versie.

Schijnt ook zo te zijn dat de M3 modellen van de Mac Studio van zichzelf hogere geheugennandbreedte heeft dan de M4 modellen. Mocht je lokale LLMs willen draaien, dan is geheugenbandbreedte belangrijker dan CPU kracht.

En ga je lokaal draaien, verdiep je dan in alternatieven voor llama.cpp. Deze software maakt het lokaal draaien erg makkelijk, maar je offert wel snelheid en concurrency daarmee op. Niet zo'n probleem, als jij de enige AI gebruiker bent, maar als meerdere personen gebruik willen maken van je lokale LLM, dan is het wel degelijk een probleem.

Ja, ik weet dat je tegenwoordig met llama.cpp enkele taken tegelijkertijd uit kan voeren (via LM Studio bijvoorbeeld). Zo'n succes is dat tot op heden niet gebleken. Mijn persoonlijke testset van 50 vragen (simpele en complexe vragen), elke keer gaat dat fout. Of ik nu 4 parallelle taken/vragen uitstel, of 3 of zelfs 2, elke keer krijg ik foutmeldingen terwijl mijn GPU nog zo'n 7 GB VRAM vrije ruimte heeft.

Ben op dit moment 'Falcon-hr1-7b' aan het testen en het is zeker niet de snelste lokale LLM, maar levert wel heel veel goede antwoorden af. Ook als de vraagstelling complexer wordt. Zelfs met de coderingsopdrachten die ik geef, is het verschil merkbaar.

En nu ik via MCP deze lokale LLMs toegang tot het internet kan geven, alsmede 'sequentieel denken', maar ook gewaar maak van tijd, zijn die lokale modellen flink wat capabeler geworden. Nee, ze zijn niet zo goed als de modellen in de cloud, Maar dat hoeft in een heleboel gevallen ook niet. En je kan daardoor heel veel tokens in je (dure) abonnement besparen.

Wat iets is waar je rekening mee zal moeten houden, als abonnementen van de cloudversies reeel worden geprijsd. En nee, ook de 200 USD/maand abonnementen dekken de gemaakte kosten niet. Zelfs de nog duurdere abonnementen doen dat niet. Hoe onlogisch dat misschien klinkt, dat zijn de woorden van S. Altman (baas bij OpenAI).
Dat klopt inderdaad. ik draai nu  unsloth/Qwen3-4B-GGUF:Q4_K_M op mijn macbook M1 Max met 32 gb geheugen. Die macbook is ook mijn daily driver en gaat dus regelmatig in slaap. Al een paar keer commentaar gehad dat hij lekker opstijgt als ik er mee bezig ben. N8N draait nu op mijn Synology als docker. Die roept dot model nu aan. Tot nu toe bevalt dit wel en wat ik merk is dat het valt of staat met je system prompt. Ben nu zelfs zover dat ik een systemprompt engineer gemaakt heb in n8n.

Waar ik naar toe wil is live laden van verschillende modellen voor verschillende taken (headless) met llama cpp. er is al zoiets als llama-swap: https://github.com/mostlygeek/llama-swap. Maar heb ik nog niet getest. En inderdaad, conncurrency is een ding. Tegelijk requests doen en nog redelijk vlot antwoord krijgen. Echter als je dit slim opzet kan je een heel eind komen. Extern hosten of al mijn data naar een externe AI partij wordt ik niet blij van. Grote reden dat ik nooit op die manier ben gaan werken.

De M5 (standaard) blaast mijn M1 Max weg m.b.t. token generation en time to first token. Een Mac Studio zou ook kunnen, maar is vermoed ik weer zwaar overkill. Het moet wel leuk blijven voor thuis. 128GB ram mac mini is een gerucht overigens. Mogelijk dat apple op deze hype-train in wil springen. En anders kun je altijd nog met Thunderbolt 5 meerdere macs aan elkaar knopen als cluster: https://github.com/exo-explore/exo
Ik draai het 'gewoon' op een Raspberry Pi4 met 2GiB geheugen. Gaat perfect. Maar het is wel even afzien wat je voor tokens voor API's van je favoriete LLM's betaalt zeg. Djiezus.

Via Google nu 90 dagen gratis en $250 aan krediet maar het gaat sneller op dan die 90 dagen. Moet toch eens even kijken of dat niet ánders kan.

Mompelt iets over een Raspberry Pi5 met AI HAT+2 eraan maar op Discord hebben ze me nog niet kunnen vertellen óf dat uberhaupt gaat werken.. die HAT+2 kan wel lokale LLM's draaien maar ik heb geen indee over de interfacing daarmee...

Wel een super mooie maar ook wel enge tool trouwens. Als je perse wil kan je 'm automatisch al je mail laten afhandelen/beantwoorden, je PC inclusief applicaties overnemen, je smarthome overnemen met HomeAssistant, álles.
Is OpenClaw zonder API-tokens niet werkbaar?

heb nog geen use-case voor iets als openclaw, dus wellicht eerst maar eens iets bedenken voordat ik de gratis credits erdoorheen blaas zonder doel :p
Het 'leeft' van LLM's en interactie. Ik 'praat' met Jarvis, zo heet m'n bot uiteraard, via Telegram. En daarom zou ik graag van de betaalde API's af willen en zelf een lokaal taalmodel op de Pi5 + AI HAT+2 willen draaien. En dat kán .. maar ja.. ik weet niet wat ik me op de hals haal qua functionaliteit dan.
Heb het voor de lol op mijn Raspberry Pi 5 draaien (4gb RAM) en werkt goed, tot zo ver alleen mee wat lopen spelen en niet zoals sommige mensen complete controle gegeven aan mijn mail, whatsapp en agenda. Vind het wel mooi spul met wat het kan doen
Ik heb een 'gentleman's agreement' met m'n Openclaw "Jarvis" dat ie bij mijn mail kan en agenda kan, maar niks mag doen zonder dat ik toestemming geef. En bij bepaalde acties zeg ik gewoon 'ja dit mag je gewoon doen zonder verdere vragen, leef je uit' en dan gebeurt dat ook.

Mails versturen mag per definitie niet tenzij ik echt nadrukkelijk zeg dat het wél mag. Zo heb ik bijv. elke ochtend een cybersecurity-nieuwsbriefje in HTML-formaat op mijn werk-mailadres (Jarvis praat alleen met m'n persoonlijke mail!) want hij weet dat 'ie dát mailtje wel gewoon mag sturen.

Voor de rest vraagt ie me altijd om toestemming en doet alleen suggesties zoals "ik zou dit kunnen beantwoorden met <tekst> .. is dat ok?"
Klinkt zeker interessant, ik neem hierbij ook aan dat jouw LLM lokaal draait met Brave Search voor zoek resultaten online? Hij draait via mijn Raspberry nu via Gemini 2.5 Flash wat snel is maar al mijn data wel langs Google zijn server gooit en dat die ik liever niet, naar geen een partij trouwens.

Heb er vandaag wat verder mee lopen spelen maar vind het wel leuk hoe goed hij context snapt, hij heeft bijvoorbeeld nu toegang tot Home Assistant en wist snel te snappen met wat ik precies wou.
Ja dat wel. Ik héb het nog niet draaien maar wil het wel. M'n LLM is Gemini-Flash-somethingsomething (ik denk ook 2.5 ja) maar het OS en de applicatie draaien op m'n Raspberry Pi4.

Met een betaalde API traint Google z'n AI niet op jouw data trouwens zag ik. Mja ik heb nog 89 dagen om het te proberen...
Ik heb sinds jaar een Mac Mini M4 met 32gb ram. Toestel was een retour, dus voor een scherpe prijs kunnen kopen. SSD was 256gb, maar zelf geüpgraded naar 2tb. Werkt perfect als dagelijks toestel en verbruikt amper stroom.
Ik merk dan ik mijn Windows desktop steeds minder gebruik. Eigenlijk vooral voor wat gaming & Ai experimenten.
Cool! Dus di m4 mini is makkelijk te upgraden?
Waarom nieuwe hardware kopen? Hier spreekt men over Qemu en LM studio voor een in een Linux VM afgekaderde install van Openclaw mét toegang tot de GPU.
Als mensen zelf ook denken aan het gebruiken van OpenClaw, misschien toch proberen ClawHub (of OpenClaw in z'n geheel) te vermijden. Aangezien de "maintainer" (lees: oprichter) hiervan niet echt veel lijkt te kunnen of willen doen als het gaat om maintainen: https://x.com/steipete/status/2018072590795862523
grappig, heb er inderdaad ook eentje gekocht voor deze reden....alleen geen clickout voor mij. Amazon Duitsland verkoopt hem voor 498,- en die staat niet bij Tweakers in de lijst....
Ik zie hem op de duitse Amazon alleen voor 589?

Om te kunnen reageren moet je ingelogd zijn