Door Tomas Hochstenbach

Redacteur

Apple Mac Studio (M2 Ultra) Review

Ultieme configuratie van 10.400 euro getest

27-06-2023 • 06:00

359

Multipage-opmaak

M2 Max versus M2 Ultra

Apple Mac Studio (2023)

De nieuwe Mac Studio is vooral een stukje vlotter dan zijn voorganger, met meer cpu- en gpu-cores. Op wat kleine updates na, koop je verder toch vooral dezelfde machine. In de huidige staat blijkt de nieuwe Game Porting Toolkit niet bepaald een gamechanger voor wie wil gamen op zijn Mac, en ook nadelen als het gebrek aan repareer- en upgradebaarheid zijn onveranderd aanwezig. Daar staat tegenover dat je een indrukwekkend efficiënte en stille machine krijgt, die is voorzien van veel snelle aansluitingen. Voor vrijwel alle gebruikers maakt hij daarmee de nieuwe Mac Pro overbodig.

Tijdens WWDC ververste Apple zijn Mac Studio met de socs uit de M2-serie. Hoewel de nieuwe uitvoering vanbuiten amper te onderscheiden is van die van vorig jaar, moet de nieuwe hardware vanbinnen hem een stuk krachtiger maken. Hoeveel sneller is de nieuwe Mac Studio precies en hoe verhoudt hij zich tot de tegelijkertijd aangekondigde Mac Pro?

Net als de eerste generatie Mac Studio kun je de nieuwe Studio configureren met twee verschillende processors. De M2 Max kwamen we eerder al tegen in onze review van de MacBook Pro 16". Deze soc heeft twaalf cores, verdeeld over acht P-cores en vier E-cores. Dat zijn er twee meer dan bij de M1 Max, en daarnaast zijn ook de kloksnelheden met enkele honderden MHz verhoogd. Bovendien heeft de soc niet langer 32, maar 38 gpu-cores.

Apple M2 Max vs M2 Ultra

Omdat de M2 Ultra oneerbiedig gezegd bestaat uit twee aan elkaar geplakte M2 Max-die's, is het aantal cpu-cores bij deze chip verhoogd van 20 naar 24 stuks, terwijl de gpu van 64 naar 76 cores gaat. Dat zou de chip volgens Apple twintig procent sneller moeten maken in cpu-taken, en wel dertig procent vlotter in gpu-taken. Overigens heeft ook de 'neural engine' een upgrade gekregen, maar die heeft geen extra cores en dus gaat het daarbij vermoedelijk puur om hogere kloks.

Als je de nieuwe Mac Studio gaat configureren, dan valt je waarschijnlijk op dat je moet bijbetalen voor een M2 Max of Ultra met een volledig ingeschakelde gpu, en dat er een nieuwe geheugenoptie bij is gekomen. In de krachtigste configuratie, die wij hebben getest, is er 192GB werkgeheugen beschikbaar. Bij de M1 Ultra was het maximum nog 128GB.

M2 M2 Pro M1 Max M2 Max M1 Ultra M2 Ultra
Cpu (max.) 8-core 12-core 10-core 12-core 20-core 24-core
Gpu (max.) 10-core 19-core 32-core 38-core 64-core 76-core
Geheugen (max.) 24GB 32GB 64GB 96GB 128GB 192GB
Geheugenbandbreedte 100GB/s 200GB/s 400GB/s 400GB/s 800GB/s 800GB/s
Transistors 20 miljard 40 miljard 57 miljard 67 miljard 114 miljard 134 miljard

De specificaties van alle Apple M2-processors in vergelijking met de M1 Max en M1 Ultra

Ontwerp, aansluitingen en prijzen

Over het ontwerp van de Mac Studio kan ik je weinig nieuws vertellen, want dat is volledig identiek aan dat van de eerste generatie. De behuizing is in feite een hogere Mac mini met meer poorten. Aan de voorkant zitten nog altijd twee USB-C-poorten en een fullsize SD-kaartlezer. Achterop kom je vier Thunderbolt-poorten, een 10Gbit/s-ethernetpoort, twee USB-A-poorten (5Gbit/s), een HDMI 2.1-poort en een jackplug tegen. Bij de vorige Mac Studio was dat nog een HDMI 2.0-poort, waardoor je nu een 8k- in plaats van 4k-scherm kunt aansluiten. Ook de draadloze connectiviteit is weer bij de tijd gemaakt, met Wi-Fi 6E en Bluetooth 5.3.

Apple heeft vooral de behuizing van de Mac Studio weer wat duurzamer gemaakt. De belangrijkste wijziging op dat gebied ten opzichte van de eerste generatie Studio is dat al het aluminium nu hergebruikt is, wat eerder nog tachtig procent was. Daarnaast bestaat de verpakking weer voor een iets groter deel uit (papier)vezels, namelijk voor 99 procent in plaats van 96 procent. Overigens is de totale carbon footprint van de instap-Mac Studio juist toegenomen van 262kg CO₂e naar 290kg CO₂e.

Het koelsysteem zuigt lucht aan vanaf de onderkant en blaast de opgewarmde lucht weer naar buiten via het ventilatierooster aan de achterkant. Bij de versies met M2 Max wordt opnieuw een grotendeels aluminium heatsink gebruikt, terwijl dat bij de M2 Ultra een koperen koelblok betreft. Dat is de voornaamste reden waarom de variant met M2 Ultra-processor bijna een kilo zwaarder is.

Uitvoeringen, prijzen en upgrades

In beginsel kun je bij de aanschaf van een Mac Studio kiezen tussen de versie met M2 Max en die met M2 Ultra. Dat heeft niet alleen invloed op de beschikbare cpu- en gpu-rekenkracht, maar ook op de functionaliteit. Bij de M2 Max-variant zijn de twee USB-C-poorten aan de voorkant van het apparaat reguliere 10Gbit/s-aansluitingen, terwijl dat bij de M2 Ultra-versie om volwaardige Thunderbolt 4-poorten gaat. Mede daardoor kun je op de M2 Max-versie maximaal vijf schermen aansluiten, terwijl de M2 Ultra tot acht schermen gaat. Kies je voor hogere resoluties of refreshrates, dan loopt dat aantal wel terug.

Aan upgradebaarheid heeft Apple met de nieuwe Mac Studio niets gedaan. Het blijft dus onmogelijk om achteraf meer geheugen of opslag toe te voegen. Ook de repareerbaarheid lijkt Apple weinig serieus te nemen. De Mac Studio van dit jaar ontbreekt vooralsnog op Apple's zelfreparatiewebsite.

Dat is niet alleen vervelend als je eisen in de loop der tijd veranderen of wanneer je zelf een reparatie wilt uitvoeren, maar voorkomt ook dat je zelf goedkoper meer geheugen of opslag kunt plaatsen. De upgrades blijven namelijk erg aan de prijs, zeker die voor opslag. Voor 1TB ssd-opslag extra betaal je 460 euro, terwijl een losse 1TB-ssd voor minder dan 50 euro te koop is. En ook als je de soc graag met volledig ingeschakelde gpu wilt hebben, betaal je vooral in het geval van de M2 Ultra een welhaast bizarre meerprijs. Hoewel het basismodel van de Mac Studio met M2 Ultra-soc 'maar' 4849 euro kost, komt de totaalprijs voor de aan ons in bruikleen verstrekte configuratie daardoor op maar liefst 10.369 euro uit.

Configuraties M2 Max M2 Ultra
Basisconfiguratie 30-core gpu, 32GB ram, 512GB ssd
€ 2429
60-core gpu, 64GB ram, 1TB ssd
€ 4849
Volledige gpu 38-core: + € 230 76-core: + € 1150
Geheugen 64GB: + € 460 128GB: + € 920
192GB: + € 1840
Opslag 1TB: + € 230
2TB: + € 690
4TB: + € 1380
8TB: + € 2760
2TB: + € 460
4TB: + € 1150
8TB: + € 2530

Benchmarks en gamen op macOS

Het is tijd om naar het voornaamste aspect van de nieuwe Mac Studio te kijken: de prestaties. In de grafieken vind je ter vergelijking natuurlijk de vorige Mac Studio met M1 Ultra-soc, diverse Macs met verschillende M1- en M2-processors en, waar mogelijk, enkele desktopprocessors van AMD en Intel.

De Mac Studio met M2 Ultra-soc komt uit op ruim 28.500 punten in de multithreadedtest van Cinebench 23. Dat is ruim 18 procent hoger dan de M1 Ultra, waarmee de M2 Ultra tussen de Core i5 13600K en i7 13700K in eindigt. De singlethreaded score komt uit op 1750 punten, 14 procent sneller dan de M1 Ultra en daarmee een record voor de Apple-processors. Zowel AMD als Intel blijven op dit punt echter snellere processors leveren.

  • Cinebench 23 - Multi
  • Cinebench 23 - Single
Cinebench 23 - Multi
Processor Cpu/soc Gemiddelde score in punten (hoger is beter)
Intel Core i9-13900K
40.767
AMD Ryzen 9 7950X
38.618
Intel Core i7-13700K
30.999
Apple Mac Studio (M2 Ultra) M2 Ultra 24-core
28.562
Intel Core i5-13600K
24.295
Apple Mac Studio (M1 Ultra) M1 Ultra 20-core
24.192
AMD Ryzen 7 7700X
19.755
Apple Mac Mini 2023 (M2 Pro) M2 Pro 12-core
14.779
Apple MacBook Pro 2023 16" (M2 Max) M2 Max 12-core
14.750
Apple Mac Mini 2023 (M2) M2 8-core
8.677
Apple Mac Mini 2020 (M1) M1
7.806
Cinebench 23 - Single
Processor Cpu/soc Gemiddelde score in punten (hoger is beter)
Intel Core i9-13900K
2.246
Intel Core i7-13700K
2.097
AMD Ryzen 9 7950X
2.074
AMD Ryzen 7 7700X
1.996
Intel Core i5-13600K
1.994
Apple Mac Studio (M2 Ultra) M2 Ultra 24-core
1.750
Apple MacBook Pro 2023 16" (M2 Max) M2 Max 12-core
1.669
Apple Mac Mini 2023 (M2) M2 8-core
1.649
Apple Mac Mini 2023 (M2 Pro) M2 Pro 12-core
1.649
Apple Mac Studio (M1 Ultra) M1 Ultra 20-core
1.536
Apple Mac Mini 2020 (M1) M1
1.520

In Geekbench 5 - Multi is de prestatiewinst ten opzichte van de M1 Ultra vergelijkbaar. De M2 Ultra doet het in deze test 19 procent beter. Singlethreaded is het verschil met 15 procent wat kleiner.

  • Geekbench 5 - Multi
  • Geekbench 5 - Single
Geekbench 5 - Multi
Pc Cpu/soc Gemiddelde score in punten (hoger is beter)
Apple Mac Studio (M2 Ultra) M2 Ultra 24-core
28.673
Apple Mac Studio (M1 Ultra) M1 Ultra 20-core
24.093
Apple MacBook Pro 2023 16" (M2 Max) M2 Max 12-core
15.520
Apple Mac Mini 2023 (M2 Pro) M2 Pro 12-core
14.917
Apple Mac Mini 2023 (M2) M2 8-core
9.068
Apple Mac Mini 2020 (M1) M1
7.638
Geekbench 5 - Single
Laptop Cpu/soc Gemiddelde score in punten (hoger is beter)
Apple MacBook Pro 2023 16" (M2 Max) M2 Max 12-core
2.074
Apple Mac Studio (M2 Ultra) M2 Ultra 24-core
2.068
Apple Mac Mini 2023 (M2) M2 8-core
1.968
Apple Mac Mini 2023 (M2 Pro) M2 Pro 12-core
1.959
Apple Mac Studio (M1 Ultra) M1 Ultra 20-core
1.792
Apple Mac Mini 2020 (M1) M1
1.730

De Corona-benchmark is gebaseerd op de Corona Renderer, die beschikbaar is voor de renderprogramma's 3ds Max en Cinema 4D. Ook in deze test zien we een mooie prestatiewinst; de M2 Ultra is 14 procent sneller klaar dan de M1 Ultra. De score van 62 seconden is vergelijkbaar met wat bijvoorbeeld de AMD Ryzen 9 7950X en Intel Core i9 13900K halen in deze test.

Corona 1.3
Pc Cpu/soc Gemiddelde tijd in seconden (lager is beter)
Apple Mac Studio (M2 Ultra) M2 Ultra 24-core
1m2s
Apple Mac Studio (M1 Ultra) M1 Ultra 20-core
1m12s
Apple Mac Mini 2023 (M2 Pro) M2 Pro 12-core
1m56s
Apple MacBook Pro 2023 16" (M2 Max) M2 Max 12-core
1m58s
Apple Mac Mini 2023 (M2) M2 8-core
3m6s

In Blender is de prestatiewinst met bijna 20 procent zelfs nog wat groter.

Blender duurtest run #1
Pc Cpu/soc Gemiddelde tijd in seconden (lager is beter)
Apple Mac Studio (M2 Ultra) M2 Ultra 24-core
10s
Apple Mac Studio (M1 Ultra) M1 Ultra 20-core
13s
Apple MacBook Pro 2023 16" (M2 Max) M2 Max 12-core
17s
Apple Mac Mini 2023 (M2 Pro) M2 Pro 12-core
20s
Apple Mac Mini 2023 (M2) M2 8-core
29s

Jetstream is een browserbenchmark die vooral leunt op JavaScript, dat grotendeels singlethreaded is. Daarin is de M2 Ultra amper sneller dan de M1 Ultra. Moderne desktop-cpu's van AMD en Intel zijn op dit vlak duidelijk vlotter.

Jetstream 2
Processor Cpu/soc Gemiddelde score in punten (hoger is beter)
AMD Ryzen 9 7950X
353
Intel Core i9-13900K
352
AMD Ryzen 7 7700X
342
Intel Core i7-13700K
342
Intel Core i5-13600K
318
Apple Mac Mini 2023 (M2 Pro) M2 Pro 12-core
238
Apple Mac Studio (M2 Ultra) M2 Ultra 24-core
223
Apple Mac Studio (M1 Ultra) M1 Ultra 20-core
222

In DaVinci Resolve is ons testproject een halve minuut oftewel 7 procent sneller gerenderd dan op de M1 Ultra. De extra cores doen bij videorendering wel iets, maar perfect schalen doet dit soort software niet.

DaVinci Resolve 17.4.1 (zonder hw acc.)
Pc Cpu/soc Gemiddelde tijd in seconden (lager is beter)
Apple Mac Studio (M2 Ultra) M2 Ultra 24-core
6m16s
Apple Mac Studio (M1 Ultra) M1 Ultra 20-core
6m44s

Gpu-benchmark en gamen onder macOS

De 'normale' 3DMarks, zoals Time Spy en Fire Strike, werken niet onder macOS. Wild Life Extreme is eigenlijk beschikbaar voor Android, iOS en Windows, maar omdat je op de Macs met 'Apple silicon' ook iOS-apps kunt draaien, werkt de Metal-versie ook op macOS. In de grafische prestaties zien we een grote vooruitgang. De M2 Ultra scoort ruim 45.000 punten, een volle 10.000 punten meer dan de M1 Ultra, wat neerkomt op een indrukwekkende verbetering van 29 procent.

3DMark Wild Life Extreme Unlimited
Pc Cpu/soc Gemiddelde score in punten (hoger is beter)
Apple Mac Studio (M2 Ultra) M2 Ultra 24-core
45.250
Apple Mac Studio (M1 Ultra) M1 Ultra 20-core
35.020
Apple MacBook Pro 2023 16" (M2 Max) M2 Max 12-core
25.127
Apple Mac Mini 2023 (M2 Pro) M2 Pro 12-core
10.017
Apple Mac Mini 2023 (M2) M2 8-core
6.908
Apple Mac Mini 2020 (M1) M1
4.994

Apple kondigde tijdens WWDC niet alleen deze specbump van de Mac Studio aan, maar ook de beschikbaarheid van de Game Porting Toolkit. Officieel is dit softwarepakket bedoeld om gameontwikkelaars een handje te helpen bij het overzetten van hun game, maar enthousiastelingen kwamen er al snel achter dat je de toolkit ook zelf kunt gebruiken om Windows-games te emuleren.

Game Porting ToolkitIk ging dus vol enthousiasme aan de slag met de instructies op de niet-officiële Apple Gaming Wiki. In feite emuleer je eerst de x86-architectuur, vervolgens daarbinnen Windows en dan worden de api-calls van DirectX 12 omgezet naar corresponderende functies in macOS. Je bent even aan het stoeien met de installatie van alle benodigde tools via de terminal, maar na een paar uur was ik zover dat ik een Windows-game kon opstarten.

In eerste instantie probeerde ik F1 22 te spelen, een game die doorgaans prima uit de voeten kan met wat langzamere hardware en daardoor ook vast wel te spelen viel door alle emulatielagen heen, dacht ik. De game crashte echter genadeloos bij het opstarten en daar viel ook niet omheen te werken.

Cyberpunk 2077 startte na de nodige laadtijd wel op. Omdat het menu soepeltjes draaide rond de 60fps, besloot ik de benchmark gewoon op de native 4k-resolutie met ultra-settings te draaien. Dat was te optimistisch, zo bleek, want dat leverde gemiddeld 9fps met een bizarre hoeveelheid spikes op. Ook het menu en zelfs de muisinput waren na het draaien van die test niet vooruit te branden; pas na een reboot was het gamemenu weer fatsoenlijk te bedienen.

Een tweede poging met 1080p-resolutie en medium-settings leverde gek genoeg exact hetzelfde resultaat op: alles leek te werken en goed te renderen, maar meer dan 9fps kwam er niet uit. Opvallend is dat de game de gebruikte 'videokaart' herkende als een exemplaar van AMD, waarbij ik ook FSR in kon schakelen, al had ook dat geen enkel effect op de prestaties.

Hoewel het even een gaaf gevoel geeft dat je een 'Windows-game' draaiende hebt onder macOS, is de praktische bruikbaarheid van de Game Porting Toolkit voor consumenten daarmee nihil. Ergens in de vele emulatielagen lijkt een serieuze bottleneck te zitten, die voorkomt dat de game schaalt met de enorme rekenkracht waar de cpu en gpu in de Mac Studio in theorie over beschikken. En als je configuratie van ruim tienduizend euro dan niet meer dan een slideshow weet weer te geven, voelt dat eigenlijk ook wel weer een beetje lullig.

Energiegebruik en geluidsproductie

Apple lijkt wat te hebben gesleuteld aan het verbruik wanneer de Mac volledig is uitgeschakeld; we meten nu nog minder verbruik dan bij de Mac mini. Wanneer de pc aanstaat, is het idleverbruik iets gestegen naar 20W. Ook onder maximale belasting verbruikt de M2 Ultra met zijn extra cpu- en gpu-cores wat meer dan zijn voorganger, namelijk 118W. Dat valt natuurlijk in het niet als je bedenkt wat een compleet systeem op basis van een vergelijkbaar presterende AMD- of Intel-processor zou verbruiken: al gauw een veelvoud in ieder geval.

  • Opgenomen vermogen - uit
  • - idle
  • - maximale belasting
Opgenomen vermogen - uit
Pc Gemiddelde vermogen in watt (lager is beter)
Apple Mac Studio (M2 Ultra)
0,1
Apple Mac Mini 2023 (M2)
0,2
Apple Mac Mini 2023 (M2 Pro)
0,2
Apple Mac Studio (M1 Ultra)
1,2
Opgenomen vermogen - idle
Pc Gemiddelde vermogen in watt (lager is beter)
Apple Mac Mini 2023 (M2)
4,2
Apple Mac Mini 2023 (M2 Pro)
5,4
Apple Mac Studio (M1 Ultra)
18,6
Apple Mac Studio (M2 Ultra)
20,0
Opgenomen vermogen - Load - Cinebench 2024 Multi
Pc Gemiddelde vermogen in watt (lager is beter)
Apple Mac Mini 2023 (M2)
44
Apple Mac Mini 2023 (M2 Pro)
56
Apple Mac Studio (M1 Ultra)
109
Apple Mac Studio (M2 Ultra)
118

De Mac Studio blijft een heerlijk stil systeem, ook al valt onze meting marginaal hoger uit dan bij de versie van vorig jaar. Vooral onder belasting is het indrukwekkend hoe de Mac Studio amper van zich laat horen; 22 decibel gemeten op een halve meter afstand stelt echt niets voor.

  • WebXPRT 3 - LAeq
  • Blender - LAeq
WebXPRT 3 - LAeq
Laptop Gemiddelde geluidsdruk in dB (lager is beter)
Apple MacBook Pro 2023 16" (M2 Max)
14,0
Apple Mac Mini 2023 (M2)
14,0
Apple Mac Mini 2023 (M2 Pro)
14,0
Apple Mac Studio (M1 Ultra)
21,9
Apple Mac Studio (M2 Ultra)
22,3
Blender - LAeq
Pc Gemiddelde geluidsdruk in dB (lager is beter)
Apple Mac Mini 2023 (M2)
14,0
Apple Mac Mini 2023 (M2 Pro)
14,0
Apple Mac Studio (M1 Ultra)
22,1
Apple MacBook Pro 2023 16" (M2 Max)
22,3
Apple Mac Studio (M2 Ultra)
23,4

Conclusie

De Mac Studio (2023) is voornamelijk een stukje sneller geworden dan zijn voorganger. Zowel de M2 Max- als M2 Ultra-socs hebben wat meer cpu- en gpu-cores dan de varianten uit de M1-generatie. In combinatie met iets hogere kloksnelheden leidt dat tot een prestatiewinst van rond de 18 procent voor de cpu en bijna 30 procent voor de gpu. De snelheidwinst per cpu-core is beperkter en op dat punt blijft het courante aanbod van AMD en Intel sneller.

Het blijft jammer dat je de op papier enorm krachtige gpu vooral voor hardwareversnelling in zakelijke toepassingen kan gebruiken. Hoewel de beschikbaarheid van een officiële Game Porting Toolkit een sprankje hoop bracht, vallen mijn ervaringen om daarmee zelf Windows-games te emuleren tegen. Wie zijn pc primair gebruikt om te gamen moet sowieso niet bij Apple zijn, maar juist voor wie na het werk nog even wil kunnen ontspannen, zou het heel fijn zijn als de fabrikant daar meer vaart achter zet.

Behoudens enkele kleine upgrades, zoals HDMI 2.1 en Wi-Fi 6E, blijven de sterke en zwakke punten van de Mac Studio gelijk. Het is een indrukwekkend efficiënte en stille machine, maar de configuratieopties zijn extreem duur en zelf upgraden of repareren is onmogelijk.

Nieuw is natuurlijk wel dat Apple naast de Mac Studio ook een Mac Pro aanbiedt. Dat is in feite een Mac Studio, maar dan in de formfactor van een klassieke desktoptoren en met enkele uitbreidingsslots. Die slots kun je niet gebruiken voor videokaarten, want er zijn geen AMD- of Nvidia-drivers meer voor de Arm-versie van macOS, dus voor het gebruik daarvan moet je denken aan enterpriseopslagoplossingen of specifieke beeld- en geluidsverwerkingskaarten. Dat maakt de nieuwe Mac Pro heel erg niche, en de Mac Studio de juiste keuze voor vrijwel iedereen die vroeger een Pro zou hebben gekocht.

Reacties (359)

359
355
168
8
0
159
Wijzig sortering
Opvallend dat Apple review-machines uitleent voor zulke reviews. Het lijkt een beetje op een standaard Windows-machine review en dan lijkt het allemaal helemaal niet zo speciaal. Apple zet echter in op andere zaken en doet daarover behoorlijk stevige uitspraken.

Zo zou de M2 Ultra 22(!) streams van 8K-ProRes materiaal tegelijk kunnen draaien. Dan vraag ik me af: klopt dit en heb je er wat aan als video prof, kan dat allemaal vanaf de interne SSD bijvoorbeeld? Of zijn die 8 4K displays die aangestuurd kunnen worden allemaal vloeiend? Dat zijn zaken die je niet gaan lukken met een enkele 4090 en de laatste Intel of AMD-processor, ook al zijn die volgens de specificaties en synthetische benchmarks sneller. Dan doet Apple toch ergens iets speciaals en dat lijkt me waardevol om uit te lichten, zeker in een Tweakers-review.

En ja, gamen op een Mac Studio, sommigen zullen het wel doen, maar niet met software die nu in de eerste beta-fase zit. Als je een Mac Studio kan betalen dan koop je ook gewoon een licentie van CrossOver en dan installeer je games die compatible zijn. De performance van de grafische kant van Apple Silicon is prima, mits games goed geoptimaliseerd zijn, Metal werkt goed en de ruwe power is echt wel in orde.
Ik heb in dit GR-topic wat uitgebreider gereageerd op vergelijkbare feedback, maar ik heb onderstaande alinea's even gecopypaste omdat ik denk dat die goed aansluiten bij wat jij vraagt.

Laat ik beginnen met toegeven dat het enorm ingewikkeld is om een product als dit te reviewen; Apple-producten zijn over het algemeen al op veel punten een geval apart en met de overstap naar een eigen cpu-architectuur is de vergelijkbaarheid nog een veel groter probleem geworden dan het al was. Veel van de tests die Apple zelf laat zien zijn niet een-op-een te vergelijken met Windows-pc's, en suggesties voor goede vergelijkende tests die objectief multi-platform kunnen draaien blijven meer dan welkom (maar wel liever in het forumtopic dan hier ;) ).

Suggesties als 'hoe wordt dit systeem werkelijk gebruikt?' zijn lastig om te zetten in daadwerkelijke tests die we volgens de Tweakers-standaarden, dus objectief vergelijkbaar, op diverse producten kunnen draaien. Natuurlijk proberen we dat wel, bijvoorbeeld met de DaVinci Resolve video-editing test die in de review staat en de diverse rendertests van Cinebench (Cinema4D) en Corona Renderer, maar ik snap dat die minder tot de verbeelding spreken dan Apple's eigen marketingdemo's.

Een demo waarbij een Mac zoveel 8K ProRes-streams realtime afspeelt is indrukwekkend, maar er valt weinig meer aan te testen dan te constateren dat 'het werkt', en een volledig vergelijkbare test opzetten onder Windows is praktisch onmogelijk. Puur demonstreren wat een product in een vacuüm kan, zonder het ergens mee te vergelijken of tegen af te zetten, is simpelweg niet erg in lijn met wat we bij Tweakers doen.
Een van de dingen waar dit topmodel Mac Studio uitermate geschikt voor moet zijn is generative AI. Dat leunt zwaar op RAM, zowel kwa hoeveelheid als geheugenbandbreedte. DDR5-6400 is ongeveer even snel als de reguliere M2 (100GB/s), de M2 pro draait twee keer zo snel (200GB/s) maar komt met maximaal met 32GB. De RTX 4090 komt met een whopping 1000GB/s waar deze Mac Studio met M2 Ultra niet tegenop kan met 'maar' 800GB/s. Maar die RTX 4090 gaat tot 24GB, en de M2 ultra gaat tot 192GB.

Gebruik een standaard model die gelijk is over je apparatuur, je kan direct een foundation model zoals stable diffusion 2.1 pakken maar het zou helemaal tof zijn als Tweakers die verder door trained naar zijn eigen benchmark model! (hele media archief van alle Tweakers artikelen er doorheen halen? :o ).

Bij gelijke instellingen en een gelijke prompt kan je drie benchmarks draaien:
  • hoeveel plaatjes y kan ik paralel genereren met de hoeveelheid ram (voor je swapfile ontploft)
  • hoe snel gaan een x aantal plaatjes serieel als je ze één-voor-één doet, met x gelijk in elke benchmark (analoog aan single-core prestaties)
  • Hoe snel haal ik x als ik y foto's paralel er uit draai(analoog aan multi-core prestaties)
Je moet x hoog genoeg pakken dat je een representatief gemiddeld krijgt, met x=1 zal je uitslag wat schommelen maar met x=1000 kom je vast al close bij een representatief gemiddelde. Eigenlijk zou een aantal diverse prompts het nog wat beter maken (die dus wel gelijk zijn over elk apparaat dat je benchmarked).

Generative AI lokaal draaien is een toepassing waar Apple heel erg op aan het inzetten is (ivm. offline gebruik en privacy als verkoopargument). Maar het zal ook een steeds grotere drijver bij Windows/Linux bakken worden (het is het al voor NVidia aandelen ;) , al leveren die natuurlijk ook voor cloud opstellingen).

Je model is mooi platform neutraal. De software eromheen kan multi-platform (bijv. automatic1111 https://github.com/AUTOMATIC1111/stable-diffusion-webui), die is afhankelijk van hoe efficient python o.a. op een OS werkt waardoor je benchmark niet 100% hardware dependent is, maar nog steeds erg accuraat voor 'werkelijk gebruik'.

[Reactie gewijzigd door svenk91 op 22 juli 2024 15:18]

100% dit!

De unified RAM is een unieke feature die slechts bij bepaalde toepassingen echt mogelijkheden unlocked, die je op windows machines nu gewoon niet kan regelen!

Tweakers had echt echt echt in moeten gaan op hoe je een vergelijkbare hoeveelheid VRAM zou regelen. Dit consumentenreview is zo ongelofelijk, natuurlijk is het professioneel en niche, en als je reviewer gewoon niet wil aan lastige professionele zaken, dan schrijft hij daar maar over! "Ik schrijf een beetje voor Tweakers, en game best veel vind ik, dus ik heb geen zin om een enorm 3D CAD model te laden op Mac en dan te kijken hoe ons supersysteem met een 10,000 euro budget het doet"
Dit was ook mijn eerste idee. Deze machine is een up-to-date stuk gereedschap voor een bepaalde groep professionals, en zou dus ook vanuit dat perspectief (de beoogde gebruiker) moeten worden gereviewed IMHO. De machine kost zakelijk zo'n 2 eur per uur, dus het gaat er dan om wat je ermee kunt verdienen/winnen als tool.

(Ja, ik zou er in de vrije uurtjes ook op willen gamen.)
Je moet eerder richting low-end, misschien mid-range, GPU performance denken dan wat er nu misschien in je hoofd zit over de M2 ultra voor Machine Learning (zoals Stable diffusion).

[Reactie gewijzigd door MarkHart op 22 juli 2024 15:18]

Jullie hebben meer ervaring dan ik. Maar het zou toch mogelijk moeten zijn om op zowel deze Mac Studio als op een Windows PC, te beginnen met één 8k streams, 3 minuten laten draaien, kijken of framedrops zijn, nee, dan nog een stream erbij en weer kijken of er framedrops zijn, etc.
Maar je weet niet wat die 8k stream inhoudt. Hoeveel compressie is toegepast bijvoorbeeld. Kent de gebruikte software een Windows equivalent? Etc. De ene 8k stream is de andere niet.

Vergelijk eens een 4k stream van Top Gun Maverick op AppleTV met de stream vanaf een 4K Blu Ray met Dolby Vision. Verschil van dag en nacht, maar nominaal alletwee 4k.
Maar dit valt op te lossen door op beide systemen hetzelfde test-bestand met hoge bitrate en HDR te gebruiken.
De testomstandigheden moeten allemaal wel door Apple openbaar zijn gemaakt. En dat is niet zo. Dus je loopt een behoorlijke kans dat je je test verprutst ofwel je moet veel tijd gaan besteden aan het ontwikkelen van je eigen test. Niet zomaar gedaan. Wat Apple deed met die 8k streams valt in dezelfde categorie als AMD of Intel die laten zien dat hun nieuwste CPU het snelste is op allerlei gebieden. Zonder duidelijk te zijn over hoe die testen zijn gedaan, is het schouders ophalen met de conclusie dat het dan wel zo zal zijn.
Zie hier:
https://www.apple.com/mac-studio/ onderaan bij punt 4
Testing conducted by Apple in April and May 2023 using preproduction Mac Studio systems with Apple M2 Max, 12-core CPU, 38-core GPU, 96GB of RAM, and 8TB SSD. Prerelease Final Cut Pro 10.6.6 tested using a 1-minute picture-in-picture project with 10 streams of Apple ProRes 422 video at 8192x4320 resolution and 30 frames per second. Mac Studio systems tested with an attached 5K display.
Da's dus te weinig informatie. Er wordt met geen woord gerept over de compressie niveaus van die bestanden. Is dit 10mbits? 100? We weten het niet. Bovendien zijn de bestanden zelf niet te krijgen. Daarnaast wordt Final Cut Pro gebruikt. Daar is geen Windows versie van. En aangezien het een Prerelease versie is, zal er wel wat getweakt zijn voor dit specifieke apparaat. Dus je zult de test al anders op moeten gaan zetten, waardoor je waarschijnlijk tot de conclusie moet gaan komen dat het allemaal wat minder rooskleurig is dan wat Apple voorspiegelt. En dan komt het welles-nietes spel op gang.
Zoals @iDEOwen al zegt is dat wel genoeg informatie. Prores 422 is gewoon een redelijk vast formaat.

De reden dat dit allemaal werkt is omdat Apple veel fixed-function transistors heeft. Er zijn in dit geval gewoon 22x een groepje transistoren dat die codec heel goed kan decoderen. De 23ste past niet meer.

In bijvoorbeeld AV1 encoding zal een Intel Arc GPU het veel beter doen dan deze m2 ultra, want da's een van de weinige kaarten die dat op dit moment kan. Wat ik daar snel over vind is dat het ding met gemak een AV1 encode evenaart als een 32-core threadripper realtime aankan. Fixed-function HW is gewoon heel goed in dat éne ding.
ProRes 422 icm de fps en resolutie, kan je data rates vinden (is overigens 2514 Mb/s).
Helemaal gelijk dat de exacte bestanden niet beschikbaar zijn, dus wat betreft zou je de exacte test ook niet kunnen nabootsen (echter zou je zelf prima een ander ProRes 422 bestand in de zelfde resolutie en fps kunnen gebruiken).
Ook helemaal gelijk dat er idd geen final cut is op het windows platform, echter zou je iig de vergelijking proberen te kunnen maken om met een andere pakket op Windows die ProRes 422 compatible is (bijv. Premiere Pro) om even veel 8k streams af te kunnen spelen. En het kan dan best zijn dan de hardware het wel kan, maar Adobe het niet aankan (of andersom). Maar je kan iig hierbij testen of het wel of niet kan op een windowsplatform met welke software of hardware combinatie dan ook.

En wat betreft prerelease heb je ook gelijk, want dat zou je dus ook niet zelf kunnen testen, echter kan je wel met de huidige versie final cut uittesten, of de claims van Apple wel te behalen zijn. Dit is dan ook een mooie taak voor de techredacteur ;)
Schiet je jezelf dan niet in de voeten door je niches niet deftig te informeren en helpen
het meeste uit hun systeem te halen ?
De bron kun je toch wel gelijk houden? Dan ben je al van één variabele af.

Maar goed, of een verschil in performance veroorzaakt wordt door de hardware, het OS of door de applicatiesoftware is nog steeds wel veel giswerk.
Maar stel dat Apple's bestanden bewerkt waren. Dan kun je zelfs hun resultaat niet eens reproduceren. Dan krijg je meteen het verwijt dat je niet weet wat je aan het doen bent (wat feitelijk ook zo is, omdat de testmethode niet gepubliceerd is).
Een demo waarbij een Mac zoveel 8K ProRes-streams realtime afspeelt is indrukwekkend, maar er valt weinig meer aan te testen dan te constateren dat 'het werkt', en een volledig vergelijkbare test opzetten onder Windows is praktisch onmogelijk. Puur demonstreren wat een product in een vacuüm kan, zonder het ergens mee te vergelijken of tegen af te zetten, is simpelweg niet erg in lijn met wat we bij Tweakers doen.
ok…
Welk apparaat voorziet in jouw behoefte? Zijn die recensies echt? Kloppen de specificaties? Kortom: hoe maak je de juiste keuze?

Een onafhankelijke expert biedt uitkomst. Daarom is Tweakers er.
bron: https://tweakers.net/info/over-tweakers/
"dus objectief vergelijkbaar"

je wil een 10,000 euro renderbox vergelijken met een gaming desktop.

"Puur demonstreren wat een product in een vacuüm kan"

gewoon een review doen van wat je met dit ding uniek krijgt, dat je niet beter kan huren in de cloud.

Jullie zijn gewoon non-Tweakers zoals dit behandelt is als een soort reviewfabriek.
Game benchmarks op een Mac zie ik ook meer als een "omdat het kan en hoe goed kan het" ding, info die leuk is om te weten, maar omdat de machine niet echt daarvoor bedoeld is, is het info waar je weinig mee kan.

Meeste mensen die op een Mac gamen zullen zwakkere machines hebben, en als iemand werkelijk zelf zoveel geld zou hebben om neer te smijten voor een Mac Studio top model (waarom? nieuwe Mac Pro staat om de hoek), dan zou zo iemand eventueel direct of op ten duur ook geld hebben voor een PS5/XSX voor gaming, of een gaming PC (die beter kan gamen en veel goedkoper is dan dit, want de Mac is alles behalve een game PC)

Sowieso vind ik de prijs zelfs voor een Apple product absurd, maar aangezien je zelf niks kan upgrade kan Apple ervoor vragen wat ze willen.

[Reactie gewijzigd door Mizgala28 op 22 juli 2024 15:18]

Ben zelf een Mac user en Diablo speler.
Diablo IV is niet uit voor Mac. Maar eerlijk gezegd, met de gaming portal toolkit draait het als een zonnetje (M1 Mac Studio Max, 10core cpu en 24core gpu).

Ik had het niet verwacht, maar op 2160p en 4k draait het op high settings erg vlot.
Nu is D4 niet de zwaarste game en zal het uiteraard afhangen van het type game, maar ik heb nu wat back catalog aan games erop gezet en dat werkt best aardig. Ineens heb ik een redelijk presterende game computer (voorheen gebruikte ik naar tevredenheid Geforce Now, maar die ondersteunt geen D4).
Het is wel iets waar Apple zelf de aanzet toe heeft gegeven met hun laatste presentatie en het vrijgeven van die toolkit. Natuurlijk ook een goed extra verkoopargument voor laptops aan studenten en zo: je kunt er nu ook op gamen!
Dan doet Apple toch ergens iets speciaals
Een grotere encoder chip. Niet echt ene mysterie hoor.
Klopt, maar dat is niet iets wat je nergens elders ziet. Terwijl dat toch voor sommige use-cases waardevol zou kunnen zijn.
Als ik me niet vergis zijn er PCIe uitbreidingskaarten specifiek hiervoor indien je dit wilt op een x86 machine.
Ik heb het gevoel dat Tweakers.net niet zo goed weet wat ze met dit ding aan moeten en ergens neem ik ze dat niet eens zo kwalijk. Maar ik denk dat conform jouw voorstel meer uit de review gehaald had kunnen worden, door wat meer naar de context te kijken. Ik kan me voorstellen dat Apple spul niet super in de standaard benchmark methode past.
Eens, het wordt veel te veel een Windows hardware review.
Het lijkt erop dat het voor de reviewer ook niet duidelijk is voor wie de doelgroep is waarvoor Apple deze machine heeft ontwikkeld.

PC Mag had dit bij hun first look wel gelijk door. De Mac Studio 2023 is de Mac Pro Jr.
Voor verschillende doelgroepen.
https://uk.pcmag.com/desk...ll-build-massive-m2-power
Je legt gelijk de vinger op de zere plek. Op een site waar je je vooral speeltjes test heeft het inderdaad niets te zoeken en het zou Tweakers sieren eens een wat proffesionelere aanpak voor dit soort producten op te zetten. Nu is het een totale draak van een test geworden.
Ben het eens met je comment, maar bij Tweakers gaat het vaak over een vergelijking i.p.v. een review. Het gaat vaak niet over de features van een smartphone camera, maar "is die beter dan die van de iPhone" - net als hier met de specificaties van deze machine. De doelgroep voor deze machine is daar denk ik wel in geïnteresseerd ,maar ook in meer. Tjsa "Tweakers".
Toch wel apart waar de M1 een koploper was vergeleken met AMD/Intel ziet het erna uit dat ondanks Apple een nieuwe generatie heeft gereleased dat deze bij lange na niet meekomt met de nieuwe generatie AMD/Intels. Dat is toch wel extra zuur als je realiseert dat Apple hun eigen silicon trots gepresenteert heeft als een volwaardige vervanger maar nu dus flink achterblijft ondanks deze zeer royale configuratie.
moet je wel effe realistisch vergelijk maken, in sommige tests is het tegen desktop varianten die +50% (amd) tot +100% (intel) meer verbruiken. Op zich zijn de prestaties dus nog altijd knap. Je merkt natuurlijk dat het een appart ecosysteem is en apparte sw waardoor je niet alles 1op1 kan vergelijken.

[Reactie gewijzigd door d3x op 22 juli 2024 15:18]

Je kan de AMD chips inknijpen tot een (veel) lager verbruik en dan kunnen ze nog steeds mee met de M-chips van Apple. De realiteit is echter dat het bij desktops niet zoveel uitmaakt - als ik voor een "ultra" ga, wil ik max performance, niet een lagere stroomrekening. Het is geen laptop.

[Reactie gewijzigd door Gamebuster op 22 juli 2024 15:18]

En ik denk dat iemand die ruim 10k(!) Voor een pc neer legt, ook niet echt in zit over dat hij 50 watt meer of minder gebruikt.
En ik denk dat iemand die ruim 10k(!) Voor een pc neer legt, ook niet echt in zit over dat hij 50 watt meer of minder gebruikt.
Dat zeg je nu wel, maar als je een bedrijf runt wat bijvoorbeeld 20 systemen zo'n negen à tien uur per dag laat draaien, dan kan dat qua energierekening aardig in de papieren lopen. Dus 50W méér verbruik op die twintig systemen uit het voorbeeld, resulteert in 9 tot 10 kWh extra verbruik per dag. Da's net zo veel elektriciteit als één doorsnee huishouden per dag verbruikt.

Bedrijven moeten tegenwoordig ook wettelijk vastleggen hoe zij actief maatregelen nemen tegen energieverspilling, dus dat kan men dan ook meenemen in dit verhaal.

Meer on topic: € 10.400,- betalen voor een high-end pc systeem en dat niet uitbreidbaar en/of te repareren is. WTF? Anno 2023 is zoiets echt niet meer van deze tijd.
Op de loonkosten van 20 man personeel is dat beetje extra stroomverbruik écht niet relevant.
Zoals ik al zei:
Bedrijven moeten tegenwoordig ook wettelijk vastleggen hoe zij actief maatregelen nemen tegen energieverspilling, dus dat kan men dan ook meenemen in dit verhaal.
yeah een van de grootste problemen die ik heb met nieuwe macs is dat de ssd niet te vervangen is, dat is gewoon een onderdeel dat slijt. Bij de studio zou het wel kunnen als het goed is maar het zijn weer die speciale dingen van apple die je niet zomaar even swapped
In dit soort prijsklassen worrdt er door professionele eindgebruikers ook veelal gekeken naar specifiek op maat gemaakte systemen. Daar staat dan geen Apple logo op,
Is een beetje als een Hummer kopen en dan gaan klagen over wat dat ding verbruikt
Waarom niet beide? In idle mag mijn CPU best 'inknijpen' voor een lagere stroomrekening wat mij betreft.
Gelukkig doen alle CPUs dat.
En toch is zo'n desktop AMD absoluut niet even zuinig in idle (meest gebruikte state) als een M chip van Apple. Daar is toch zeker nog iets te halen voor het stroomverbruik. Dat bedoelde ik daarmee te zeggen.
Dat is waar, maar dat boeit he-le-maal niemand eigenlijk. Zeker niet als je kijkt naar categorie 10K euro workstations
Het boeit mij wel degelijk. Ik gebruik een kill-a-watt meter die ik tussen mijn setup heb gezet (alles op 1 blok). Komplete systeem verbruikt IDLE 500W inclusief netwerk en scherm aan.

Met de huidige stroomtarieven kan ik in een jaar of twee een standaard mac studio afbetalen inclusief stroomkosten (want verbruik is marginaal vergeleken met mijn desktop).
Komplete systeem verbruikt IDLE 500W inclusief netwerk en scherm aan.
Dan ben ik wel benieuwd naar dat systeem. Een AMD 5950X met een berg geheugen en een RTX4090 idled onder de 100W.

[Reactie gewijzigd door SirNobax op 22 juli 2024 15:18]

Idle is bij mij iets anders dan daadwerkelijk idle moet ik daar wel bin zeggen. Video decoder staat dan nog redelijk veel te doen, en er draaien altijd wat java processen op de achtergrond.

Jouw 4090 verbruikt ook een stuk minder onder dezelfde load dan mijn 3080. CPU is vergelijkbaar (5900x) en ram is verwaarloosbaar, maar grootste deel zit hem echt in “niks doen”. En met een beefy GPU gaat zelfs een stream snel aantikken. Ook als is het NVDEC.
Komplete systeem verbruikt IDLE 500W inclusief netwerk en scherm aan.
Dat is niet je PC die 500 watt idle verbruikt, of er is iets drastisch mis mee. Mijn PC verbruikt 126 watt in idle. Dat is de hele PC, incl. custom loop, een hele hoop fans, een 7950 + 4080, en een lading RGB.
(want verbruik is marginaal vergeleken met mijn desktop).
Je vergelijkt je hele bureau met 1 PC. Gezien in IDLE je hele setup 500 watt verbruikt en zelfs een high-end gaming PC (zoals die van mij) nog geen 100 watt verbruikt, verbruikt de rest van je setup dus 400 watt in idle.

Gezien het je zoveel uit maakt, misschien moet je daar eens iets aan doen eerst.

[Reactie gewijzigd door Gamebuster op 22 juli 2024 15:18]

PC zelf zal zo tegen de 200-250 in “Idle” verbruiken, maar niet iedere idle is natuurlijk hetzelfde. Ik heb wel degelijk applicatief zaken draaien, maar niet zo heftig als gaming of video editing.
Dan is het geen idle toch?
Voor mij wel. Het is namelijk net niks, maar wel net voldoende om niet in lagere powerstates te gaan. 24/7 een paar procentpuntjes. Als je prestatie monitor zou aanzetten zie je net niks qua activiteit.
Dan is je PC gewoon verkeerd ingesteld of je hebt het niet gemeten. 200-250 watt in idle is absoluut niet normaal.
Zou wat zijn als ze altijd maar op boost snelheid zouden draaien
Ik snap uw punt maar draai dan benchmarks die de 192Gb GPU/CPU kan benutten? Vergelijk het dan met een 24Gb Rtx4090 in scenario waar zo’n setup zinvol is.

Ze testen het met medio-core benchmarks die de hoeveelheid GPU ram niet benut.

Een feit is dat de €10k Mac studio niet met een €10k workload op de proef wordt gesteld.

Als je een Mac Studio full spec besteld en €10k betaald dan mag ik er van uit gaan dat er een use case bestaat. Anders zou je zoveel geld niet betalen.

Het kan ook zijn dat Apple een product heeft gemaakt dat niemand kan benutten. Dan is dat zo, vertel dat dan ook in de review dat er geen usecase bestaat. Is dat het geval? Geen idee.

[Reactie gewijzigd door Coolstart op 22 juli 2024 15:18]

Nee ze runnen gewoon standaardversie van Intel-proof benchmarks. Blijkbaar is die i9 "gewoon beter" dan deze 10,000 euro dedicated Mac silicon -_-'''
Ja fair. Maar het is ook idioot hoe duur die upgrade zijn. Staat totaal niet in verhouding met de daadwerkelijke prijs
Ik denk alleen dat de R&D kosten hier wel gigantisch zijn en dat ze die met de upgrades terug willen verdienen.

Apple heeft met de interconnect iets gedaan waar heel wat bedrijven al lang tegenaan liepen. Waar crossfire en SLI overhead hadden voor het synchroniseren van state en vaak tearing en stuttering opleverden heeft Apple het effectief voor elkaar gekregen om een schaalbare GPU architectuur neer te zetten die volledig transparant 2 GPUs aan elkaar knoopt zonder performance hit. Dat is wel degelijk een bijzonder gegeven, waar we te weinig bij stil staan.
Je merkt natuurlijk dat het een appart ecosysteem is en apparte sw waardoor je niet alles 1op1 kan vergelijken.
Pure performance tests en berekeningen die op beide platformen gemaakt kunnen worden zijn juist prima om te vergelijken. Je moet natuurlijk wel de resultaten in context plaatsen, en kijken naar wat je use case is.

Als de use case 'ik wil Apple' is, dan is het overduidelijk voor welk product je gaat. In andere situaties zijn er veel meer variabelen om rekening mee te houden.
Wat ik mis zijn bij vele de vergelijking van een topmodel bij intel/amd ... Bij da vinci resolve bijvoorbeeld. Zo kan je pas oordelen als het effectief het geld waard is. Ja het verbruik is extreem laag. Maar als je en machine van 10k koopt denk ik niet dat je gaat wakker liggen van de electriciteits rekening om het zo te zeggen.
Sommige mensen gaan puur voor performance
Het probleem is, welke benchmark ga je gebruiken? Met welke instellingen. Zeker in DaVinci Resolve ben ik M2 benchmarks tegengekomen die een highend systeem met een 4090 van de kaart vegen, maar aan de andere kant een Intel Xeon 28 core met een berg GPUs (in een Apple Pro 2019) die juist de top M2 Ultra weer van tafel veegt. En voor zover ik kan zien is dat setting (en versie) afhankelijk. Daarnaast heeft ook de video resolutie en de bron van die videobeelden behoorlijk wat invloed.

Ga je verschillende, veel gebruikte workflows definiëren en die workflows testen? Wie bepaald wat veel gebruikt wordt? En wat als wat een M2 juist wel heel efficient kan, nu niet gebruikt wordt omdat het voorheen absoluut niet efficient was? En dat is puur video bewerking met DaVinci Resolve. Je moet dat ook gaan doen met alle andere intensieve applicaties, van Adobe, Affinity, wellicht ook die van Apple zelf, etc.

Door niet alleen het verschil tussen ARM en x86, maar ook het onderliggende enorme verschil met geheugen en coprocessors ben je een elektrische auto aan het vergelijken met een straaljager. Beide vervoermiddelen, maar hoe ze werken, zijn ze lastig met elkaar te vergelijken. Ik had het voorbeeld van verbrandings vs elektrischemotor kunnen nemen (die imho beter klopt), maar ook daar zie je juist veel reviews waarbij tests geheel uit verband worden getrokken (de ene of de andere kant op, afhankelijk van de tester).
Neem gewoon hoogste intel hoogste amd consumer met een 4090 en genoeg ram, snelle ssd's. Xeon cpu's is nu al niet bepaald wat mensen thuis gebruiken. En pas dan heb je een idee hoe het gaat presteren. Althans ik toch. Ik wil gerust wat nieuws kopen komend jaar. Dit zal het in elk geval niet worden lijkt me. En ik noemde maar 1 applicatie, gewoon omdat er nog veel meer zijn, alles testen is onmogelijk. Maar bij een intel/amd cpu kan dit wel. Waarom dus niet dit voor zo een beest ook doen ? Dan pas kan de meerderheid een oordeel vellen. Nu is het nog altijd appels met peren vergelijken. Ik verwacht geen xeon vergelijkingen ofzo, maar op zijn minst toch hoeveel sneller is dit dan een intel of amd topmodel met een 4090.
Pure performance tests en berekeningen die op beide platformen gemaakt kunnen worden zijn juist prima om te vergelijken. Je moet natuurlijk wel de resultaten in context plaatsen, en kijken naar wat je use case is.
Er is niet zoiets als een 'pure' performance test of berekening. Want er ligt heel erg aan hoe deze daadwerkelijk wordt berekend op systeem xyz. Daarnaast is het niet alleen puur hardware, maar ook software implementatie/aansturing. Ga maar eens kijken naar het Intel ARC gpu driver artikel hoeveel impact drivers (software) kunnen hebben op performance. En we zien ook bij AMD/Intel dat afhankelijk van de berekening de ene of de ander beter kan performen. Dit ga je helemaal merken op een compleet ander platform x86 vs ARM, om nog maar niet te spreken over de overige verschillen in hoe geheugen en coprocessors worden gebruikt in een ontwerp.

Een vrij simplistische review zoals hier op Tweakers.net helpt imho. geen ruk! Veel andere Mac reviews zijn net zo ruk van Apple centrische reviewers. Je moet echt goed zoeken wil je interessante snippets tegenkomen, zoals bv. dat een M2 iPad met DaVinci Resolve een high performance 4090 systeempje geheel van de kaart veegt, mits chroma subsampling wordt gebruikt. Daar tegenover stond dat een vorige generatie M1 het totaal niet kon... De vraag is dan hoe belangrijk is chroma subsampling?

Een ander leuk dingetje is dat gebruikers over een langere periode zelf gaan testen en benchmarks bij gaan houden met een gestandaardiseerd filmpje en hiermee benchmarks van de review 'professionals' van de kaart vegen. Sure, we zien dan dat een Intel 28 core Xeon met twee hele dikke videokaarten (die beide al €10k kosten) een dergelijk €10k M2 Ultra systeem ook van de kaart vegen. En in 1 specifiek geval zelfs een 5950x met een 4090 de beste benchmark haalt... In die specifieke test. We gaan het echter even niet hebben over verbruik.

En waarbij je voorheen voor MacOS of Windows (of Linux) kon kiezen op een x86 Mac, zit je nu vast aan ARM, wat zo zijn eigen issues meebrengt. Virtualisatie werkt prima op Apple Silicon, maar dat betekend dat je Windows voor ARM moet virtualiseren, wil je x86 Windows draaien dan moet je gaan emuleren. Dat kan, maar is verre van stabiel of snel te noemen, waardoor het heel erg onbetrouwbaar wordt om bv. zaken te testen.

Bron:
https://forums.macrumors....d-rocket-science.2273175/
Hoewel ik zeer zeker een voordeel zie in laag verbruik, klinkt zelfs het benoemen ervan nogal raar in mijn oren.
Apple presenteert hun premium model uit hun line-up, tegen een premium prijs. Blijft fors achter op de concurrentie en halen we het verbruik er maar bij.

Dat is als een test tussen Ferrari, Lamborghini en Bugatti.
Als één v/d drie fors achterblijft in performance vermelden we maar dat ie iets zuiniger is. Verbruik is niet echt een aspect waar de de doelgroep op let.
Helemaal mee eens maar als de snelste auto 7 keer meer verbruikt dan de “traagste” dan is dat toch op zijn minst opmerkelijk te noemen en wellicht het vermelden waard.
Nope, Veyron rijdt in tien minuten de tank leeg op topsnelheid...

Nog nooit als nadeel gehoord
Met maar 450 gemaakte exemplaren van die Veyron en dan vaak ook verkocht aan types die niet op auto forums zitten lijkt me daarover veel klachten ook niet heel snel een issue worden ;)

Maar in dit geval, los van de analogie ben ik het wel eens. Je koopt deze auto’s en computers voor de performance. Niet om je energieverbruik binnen de perken te houden.
Wellicht wel als de Lamborghini met dezelfde hoeveelheid peut een langer dan een uur op topsnelheid kan rijden? Het ging om het vergelijk natuurlijk…
Apple presenteert hun premium model uit hun line-up, tegen een premium prijs. Blijft fors achter op de concurrentie en halen we het verbruik er maar bij.
Waar blijven ze force achter tegen de concurrentie dan? Ik bedoel Tweaker heeft letterlijk niks getest waar de M2 en soortgelijke goed in zijn.
Ze blijven fors achter bij het spelen van spellen die voor Windows/x64 gecompileerd zijn. Alleen staan er te weinig mensen bij stil dat je daar een Apple Silicon machine niet primair voor aanschaft. Bovendien wil ik nog wel zien hoe een M2/M3/M4 machine het doet met spellen die wel de native API's gebruiken en uiteraard voor Apple Silicon (ARM64) gecompileerd worden.
Voor workstation taken is verbruik meenemen in het vergelijk niet super relevant imho. Dat maakt de gemiddelde workstation klant niet uit. Snelheid is veel waardevoller want tijd is oneindig veel duurder dan elektriciteit.
Aan de andere kant is het minimale verbruik van Apple Silicon wel hoger, waar een Intel processor kan idlen onder de 1W kan Apple Silicon dat niet. Hier een video met wat meer info.

Dus efficiënter onder load, absoluut, maar niet ideaal voor iedere situatie.
laatste generaties kunnen dat ook niet meer, (1w zelfs niet op de core) sinds PCI-e 4 ben je er volledig aan voor de moeite met idle verbruik tenzij je gewoon alles afzet en alles downscaled wat ook totaal 0 referentie voor vergelijk is.
is dat niet meer dan 100%. Volgens mij gebruikt dit hele systeem 120W bij maximale belasting. Dat zal bij een heel 13900K systeem toch wel ruim over de 300W heen gaan. Laat staan als je nog een redelijk moderne GPU onder load erbij zet.
Het is ook niet echt een nieuwe generatie, meer een refresh. Waar AMD en Intel wel echt grote veranderingen hebben gemaakt sinds Apple met de M1 kwam. Maar ben het zeker met je eens dat iets wat een prachtige start was nu een beetje zijn glans aan het verliezen is. Wel is de energiezuinigheid nog wel een grote plus (vooral voor de MacBooks). Dat je niet meer zelf kan upgraden vind ik dan wel weer een groot verlies (iets waar ze al lang geleden mee zijn begonnen qua uitfaseren).
Intels 11th gen was erg traag vergeleken met hun 12th gen, alleen de release data liggen bij intel veel dichter bij elkaar.

Release date M1: november 2020
Release date M2: Juni 2022
Release date M3: Maart 2024 (verwacht)

Pak even de 11900k, 12900k, 13900k
Release date intel 10th gen: April 2020
Release date intel 11th gen Maart 2021
Release date intel 12th gen: November 2021
Release date intel 13th gen: Januari 2023
Release date intel 14th gen: Januari 2024 verwacht.

Dat is ruim 1,5 generatie vaker een refresh, die bij sommige releases veel meer verschil heeft dan m1 naar m2, en bij anderen veel meer verschil heeft. Zo is intel gewoon erg lekker terug gekomen, ben benieuwd of ze zo door kunnen blijven gaan.
Zo is intel gewoon erg lekker terug gekomen, ben benieuwd of ze zo door kunnen blijven gaan.

ik vermoed dat jij enkel in een desktop marktje kijkt met wat gaming en theoretische benchmarks zonder enige vorm van perf/power? Het is niet omdat ze nu een combo doen van wat e-cores en p-cores en dat goed uitkomt in wat benchmakrs dat ze ineens terug gekomen zijn. Intel ligt nog enkele generaties achter kwa technologie van multichip, interchip, node en multicore performance. Het is zelfs zo erg dat ze node capaciteit bij concurrentie moeten gaan kopen.

effe statistieken erbij nemen van DYI markt die veel aangeeft wat de mensen denken? Ja niet de deals met al die gesponserde OEM contracten om toch maar hun platformen te verkopen.
https://twitter.com/TechEpiphany/status/1659915668823719936

ook op server markt gaat het de andere kant op en de sapphire rapids Xeon CPU is een drol tegen de genoa chip. De enige reden wederom dat intel blijft verkopen is al de OEM contracten en een IT markt die totaal niet open minded is en volgt wat presales aangeeft (lees sponsering) https://www.tomshardware....rket-in-2023-analysts-say

[Reactie gewijzigd door d3x op 22 juli 2024 15:18]

Het is zelfs zo erg dat ze node capaciteit bij concurrentie moeten gaan kopen
Kleine voetnoot hierbij: AMD en Apple hebben niet eens eigen productiecapaciteiten voor chips. Dus is het zo erg dat ze dat niet hebben? Het hield ze tegen qua ontwikkeling omdat hun productieproces niet goed verder ontwikkelde. Dus logisch dat ze het nu elders laten doen.
Dat je niet meer zelf kan upgraden vind ik dan wel weer een groot verlies (iets waar ze al lang geleden mee zijn begonnen qua uitfaseren).
Ja en nee. In theorie, ja erg lastig dat je niet meer zelf kan upgraden. Maar als ik eerlijk ben verander ik eigenlijk niets (qua interne hardware) na een initiële computer build (x86 Windows). Ik bouw over het algemeen een computer waarvan ik verwacht dat ik er 5+ jaar mee doe voor de specifieke implementatie. Tegen de tijd dat ik het waard vind om bv. de videokaart te upgraden is eigenlijk het hele systeem al toe aan vervanging... Bij RAM gooi ik er eigenlijk altijd al een hele sloot in, tegenwoordig gewoon de max die het syteem aan kan (64GB in het huidige geval). In het verleden er achter gekomen dat wanneer ik er extra geheugen wilde prikken, dat type geheugen schandalig veel duurder was dan het huidige standaard geheugen (wat niet werkt met die CPU/mobo). Zo adviseer ik ook laptop aanschaf, een educated guess met wat je de komende 3-5 jaar nodig heb, qua power en storage.

Maar ik heb een aantal jaar terug ook juist laptops uitgezocht op uitbreidbaarheid zodat ik er geheugen en storage in kon proppen wanneer ik dat wil. Juist omdat op een later tijdstip dat geheugen/storage beschikbaar zou komen en ik het er vrij eenvoudig in zou kunnen bouwen.

Het enige issue wat ik wel zie is voor mensen die niet goed genoeg thuis zijn in de software/hardware/ontwikkeling. En dat merk ik nu zelf ook wanneer ik een MacMini of MacStudio wil uitzoeken om naast mijn x86 Windows machines te gaan draaien. Welke kies ik? Naast virtualisatie (voor ARM testing) zie ik interessante toepassingen voor AI en andere software. Maar niet alles werkt zoals je verwacht of goed met elkaar. Hoe goed dat werkt beïnvloed de keuze of je een iets krachtiger Mac kiest (met meer geheugen) of niet... De meeste ervaring die ik heb is met Intel Macs, de ervaring met PowerPC (er voor) en ARM (er na) is beperkt. En qua Intel Macs dan al niet als MacOS gebruiker, maar als beheerder, niet dat je tegenwoordig heel veel kan fixen aan het OS, dat was vroeger anders. Ik heb een aantal jaar een Intel MacMini gedraaid voor gebruik in de warme zomer maanden, maar dat draaide primair Windows (via Bootcamp) en dat starte alleen op in MacOS modus wanneer ik wat moest testen.
Ik denk dat met macs het upgraden vooral ook geldt dat het aanzienlijk goedkoper was om zelf een grotere harde schijf en geheugen erin te stoppen.

Qua upgraden doe ik vaak met mijn pc de ene moment de videokaart de andere keer het geheugen mobo en processor. Iedereen zo zijn eigen upgrade proces.
Jammer dat het niet heel schaalbaar is, want aan de kant van de energiezuinige chips doen de M chipped het best heel goed!
Het blijft appels met peren vergelijken lijkt mij toch. Leuk die scores in benchmarks, maar het uiteindelijke gebruik van je systeem is niet het draaien van benchmarks maar van software.
Apple heeft nu een eigen hard- en software platform wat volledig geoptimaliseerd is voor elkaar.
Dat is bij Intel en AMD niet(want meer moeten kunnen ondersteunen), dat zal in de praktijk toch een nivellering van het verschil betekenen.
Bovendien zijn ook de nieuwste generaties van Intel en AMD niet bepaald bedoeld voor de gewone man.
Het is dus ook maar de vraag, is het wel bedoeling om zo hoog mogelijk te scoren in benchmarks of wil je als fabrikant een chipset aanbieden die nuttig en te rechtvaardigen is voor een grotere doelgroep.

Ik denk dat Apple die afweging goed maakt, ze kunnen een i9 er in stoppen en inleveren op de software-optimalisatie die ze hebben ingezet om hun systeem beter te laten scoren, maar daar winnen ze minder knaken mee.
Benchmarks zijn niks anders dan een geautomatiseerde variant van software. Een hogere score in Cinebench is bijvoorbeeld redelijk representatief voor een betere performance in Cinema 4D. Een gezonde mix van benchmarks is dan ook een goede representatie van de daadwerkelijke performance van de software die je er op draait. De tijden van blindelings Prime95 draaien zijn al een tijdje voorbij!

Zo'n "volledig geoptimaliseerd" platform is leuk, maar als de applicaties er niet sneller van worden is het onder de streep blijkbaar niet heel veel waard.
Volgens mij is dat een gekleurd beeld. Kijkende naar de rauwe performance zonder het stroomverbruik in acht te nemen stond de M1 juist op nog grotere achterstand, die kon helemaal niet mee met de top van Intel/AMD.

Je hebt wel gelijk dat de M2 in de markt is gezet als de volgende generatie, terwijl het bijna dezelfde processor is. Daarnaast zijn de Max/Ultra varianten telkens later pas geïntroduceerd, waardoor je nauwelijks van generaties kunt spreken. Apple neemt daarmee een risico. Vroeger kwam hun kracht ook uit het gebrek aan keuze, nu is er een compleet oerwoud aan opties per computer.
De M1 was enkel geweldig als je hem vergeleek met de Intel chips die apple gebruikte in de generatie ervoor: stokoude meuk op 14nm. Ja, op 5nm is het makkelijk om een snellere chip te maken.

De vergelijking met 7nm chips van amd liet zien dat het gat tussen apple en x86 een stuk kleiner is dan apple pretendeerde.

Maar dat zien vele apple fans niet, want die vergelijken enkel apples met apples :+ en er was nooit een apple met een moderne x86 chip: het 14nm procede stamt inmiddels uit 2015.
Bij generieke tests is dat inderdaad zo, al doet apple het door specifieke hardware/instructies het op sommige vlakken(ProRes codec b.v., video editting in algemene zin) wel ongeëvenaard goed/efficiënt. En dat is natuurlijk wel wat 'de eigenlijke doelgroep' wenst en hun geld mee verdient.
Als doorsnee PC/laptop zie je dat x86 gemiddeld genomen helemaal niet zoveel achterloopt, en in sommige gevallen zelfs voorloopt.
Op welke benchmarks dan?
Ik vind het gewoon vreemd dat er een aantal benchmarks worden gedraaid met traditionele cpu’ s als vergelijkingsmateriaal , en vervolgens ook weer heel vaak niet en wordt er alleen vergeleken met andere macs.

Bijv. Geekbench en 3dmark zijn er toch ook gewoon voor Intel en amd cpu’ s??? Davinci resolve toch ook? Etc, etc.

Hoe is cinebench gedraaid? Met of zonder gpu ondersteuning op zowel de Mac als de Intel/amd machines, etc. Of met gpu en welke gpu dan op de intel/amd machines?
Ik denk dat de m1 en m2 pro/Max, etc. Nog steeds een grote voorsprong hebben, maar dan met name in laptops.

En deze m2 ultra review?
Sorry slaat nergens op, gewoon een beetje vergelijken met een Windows machine en benchmarks soms wel weer vergelijken met PC’ s en dan weer niet, lekker games draaien, maar foto en video converten dan weet niet, etc. En dan nog populair doen door de prijs van de hoogste config te benoemen, terwijl je ook een machine met dezelfde prestaties voor 3000 minder kan hebben.

En ik hoop weer niet dat de fanboy kaart getrokken gaat worden, daar gaat het mij niet om. Het gaat er eerder om dat je zo een machine gaat gebruiken waar hij voor bedoeld is , dus pro applicaties video en audio, ai, compiling, etc. Er moeten daarin toch vergelijkingsresultaat kunnen worden gedaan? Die hoeft Apple niet te bepalen, gewoon media files kiezen, encoden, tijd meten , etc. Maar ja dan gaan we het maar hebben over gaming… dat is dus nog iets van 3 jaar te vroeg.
Voor wat is dit nou echt bedoeld.

Een beetje home office of wat applicaties draaien rechtvaardigt niet de 10k. Daarnaast spelen van games ook niet.

Dus alleen voor het renderen van videos bijvoorbeeld? Zulk soort werk ?
Deze 10k is geflatteerd omdat ze de interne disk heel groot maken.

Het ding bulkt van de thunderbolt poorten en heeft een 10 Gbps ethernet poort.

Denk dat je in heel veel gevallen prima met externe storage toe kan.

Als je 1 TB neemt t.o.v. 8 TB, scheelt toch alweer zo’n 2500 euro… (dat is 20-25% van de systeemkosten).
En neem je 8TB in een Windows machine ben je zo'n €500 kwijt 8)7
Met een sata-ssd...

In een Dell Precision workstation is een upgrade van 512GB naar 4TB ook gewoon een optie van 1400 euro ex btw. 8TB optie is er niet eens. Zelf voor Pricewatch-prijzen opslag erbij klussen kan ook bij een Mac Studio via de Thunderbolt-poorten.
SATA? Een 8TB SATA SSD heb je al voor 390 euro. Maar er zijn ook meerdere 8TB m.2 ssd’s voor onder de 1000 euro hoor 😜

Neem deze van corsair bijvoorbeeld: uitvoering: Corsair MP600 NH 8TB

Ik vind de verdere specs ook nogal magertjes eigenlijk. Zelfs voor, pak en beet, 7000 euro...

Op plekken kan de M2 Ultra niet eens een moderne core i5 bijbenen. Daarnaast kan de M2 Ultra op GPU vlak dan weer niet meekomen met high end 30xx GPU’s (uit 2020 notabene). Een 2022 4090 meer dan 50% sneller dan dat.

Ik koop/bouw regelmatig high-end PC’s. Heb heb er nu bijvoorbeeld een met een RTX 4090. Ik zou het best een keer leuk vinden om een high-end mac te proberen. Maar de specs halen het steeds net niet (in dit geval zelfs een beetje meer dan nét niet).

Ik hoop stiekem dat ze met de M3 Ultra wat mooi’s op de mat gaan gooien dat wel mee kan met 6000 euro PC’s én dat er fatsoenlijke game ondersteuning komt.

[Reactie gewijzigd door DLSS op 22 juli 2024 15:18]

M-Socs MAc’s zijn ruk in games. Niet gek games die ruk lopen zijn ook niet voor Mac ontwikkeld. Het is vergelijken van games waarvan er native Mac versie van is. Dan weet je pas wat de potentie is van Mac voor gamen. Waar zal de M pro / max/ ultra igpu op uitkomen 4060 4060ti 4070 4070ti als dat ergen tussen of rond deze pool position vallen is dat iig niet slecht. Waar AMD met strix halo komt heeft apple al wat zware igpu.

Alleen de game branche is Mac net als linux niet echt een hoofd target meer verre optionele target.
Voor gamen is M ultra duur. Voor high-end mac gamen zou kale setup met volle soc enabled optie zijn. Mpro vs M stock is voornamelijk meer gpu cores dus met mac mini Mpro en dan heb je nog tussen stap. M-Max.

Iig voor gamen is er potentie. Maar wordt niet hard gepsuhed. Bij de pubslihers en studio’s van de grotere titels.
Ja ik had high hopes toen ze die announcement deden met Hideo Kojima... Maar dat begint wat af te brokkelen.

De performance van een 4060ti zou trouwens echt al ruim voldoende zijn (niet voor mij persoonlijk, maar in general).

Dat zou namelijk betekenen dat mensen die niet perse 'game enthusiast' zijn alsnog even een spel kunnen spelen om te ontspannen na het werk...

Wellicht zou het zelfs nieuwe hobbyisten kunnen kweken uit de groep mensen die nog nooit in aanraking zijn gekomen met steam games maar waarbij het vlammetje gaat branden als het allemaal fatsoenlijk werkt op hun mac...
Voor €500 heb je vier 2TB NVMe SSD's en een PCI-kaart om die in te zetten. Het kan echt heel goedkoop tegenwoordig.
De meerprijs die Apple voor interne opslag vraagt is dan ook bizar hoog, en lijkt totaal niet overeen te komen met de flink gedaalde prijs van flash-geheugen.
Denk dat het niet voor gamen is bedoeld. Volgens mij draaien de meeste games überhaupt nog niet op mac..

En met games die wél draaien haal je bij lange na de performance levels van een RTX 4070/4080 niet (laat staan een die van een veel snellere 4090, een kaart die eigenlijk beter past bij dit prijspunt)

[Reactie gewijzigd door DLSS op 22 juli 2024 15:18]

Je bedoelt waarschijnlijk hetzelfde, maar de meeste games draaien prima op een Intel Mac. Ze draaien alleen niet onder MacOS.

Als je Windows installeert op een Apple computer werkt het prima.

Althans. Bovenstaande gold toen Apple van de PowerPC naar de Intel architectuur ging zoveel jaar geleden.
Nu ze op ARM zitten, is het mogelijk weer even gedoe, maar dat verschil is in de praktijk kleiner


Edit: Uiteraard alleen op Intel Macs. De ARM-Mac's moet nog wat voor komen. Buiten dat zullen de meeste spellen niet optimaal werken op ARM.

[Reactie gewijzigd door lenwar op 22 juli 2024 15:18]

.oisyn Moderator Devschuur® @lenwar27 juni 2023 08:34
Nu ze op ARM zitten, is het mogelijk weer even gedoe, maar dat verschil is in de praktijk kleiner
Nogal een gedoe, want de meeste Windows games worden niet gecompileerd voor het ARM platform, dus ben je weer terug bij af.
Dat is ook weer zo.
En zo blijft het toch weer Apples met peren vergelijken ;)
Zodra je Windows drivers weet te vinden voor de M-processoren, laat het even weten.....

Hoewel je met behulp van een virtualisatielaag wel Windows kunt draaien zijn grafische toepassingen zwaar gehandicapt. Dx12 wordt überhaupt al niet ondersteund en spellen op eerdere Dx versies zullen alsnog nauwelijks toegang hebben tot de rekenkracht van de GPU.

Dus nee, de meeste games zullen niet prima draaien op een Mac met M processor. Niet onder MacOS en ook niet onder Windows.
Ongetwijfeld een kwestie van tijd, net als op de vorige generatie Apple computers (de Intels). Windows draait ook op ARM, dus de overstap zou niet heel spannend moeten zijn.

De vraag is natuurlijk of de spellen zelf ook goed draaien op ARM?

Op de Intel computers van Apple draait Windows 10 overigens vele malen sneller dan macos. (Beide een kale installatie gedaan op dezelfde hardware. De verschillen hadden niks met elkaar te maken ten faveure van Windows)
Je stelling was
de meeste games draaien prima op een Mac.
Beetje flauw om dat nu bij te stellen naar "kwestie van tijd, ooit zal het vast wel gaan"
Je hebt gelijk: Ik zal hem aanpassen naar op een 'Intel Mac'. Dat is meer kloppend.
Oké daar kan ik me in vinden :)
Waarschijnlijk is marketing de voornaamste drijfveer.

Ik heb ooit begrepen dat de meeste mensen niet voor het topmodel gaan, maar liever de iets gunstiger geprijsde modellen daaronder.

Is het topmodel €10k, dan zal men sneller voor een submodel van €5k kiezen dan wanneer het topmodel €6k zou zijn.

Door de hogere prijs wordt het referentiekader beïnvloed en zou men bereid zijn meer te betalen.

[Reactie gewijzigd door LA-384 op 22 juli 2024 15:18]

Ja, wellicht, maar daar is nu net niet op gebenched.
En macs zijn er ook al een behoorlijke tijd, waarvoor werden ze hiervoor gebruikt dan, denk je?
Denk vooral een paradepaardje en kennis/ervaring opdoen om dit in de toekomst naar de mainstream lijn te brengen.
Voor renderen van video's is het efficiënter om een render farm te gebruiken waar je gewoon meerdere videokaarten per rack unit kwijt kunt. Dit is echt alleen interessant voor mensen die persé bij Apple willen blijven en wat meer performance nodig hebben.

Ik heb zelf een M1 Mac Mini en ik verbaas me er wel eens over hoe snel die dingen zijn, had 'm gekocht als daily driver met het idee dat ik mijn game PC zou gebruiken voor de wat zwaardere workloads, maar dat is vrijwel nooit nodig geweest. Alleen dingen die echt een videokaart nodig hebben zoals Fusion 360 en gamen doe ik nog op mijn game PC.
Het grootste nadeel van de M1 Mac Mini is het gebrek aan geheugen, maar dat is met de Mac Studio al een stuk verder uitbreidbaar, mits je dat meteen doet bij aanschaf want daarna heb je pech.
Voor wat is dit nou echt bedoeld.
Je koopt ook geen Xeon machine van €10k om games op te spelen of Office applicaties op te draaien. Zowel onder Windows als Mac zijn daar veel goedkopere oplossingen voor.

Net zoals bij dure x86 hardware heb je heel specifieke toepassingen waarbij een dergelijke investering verantwoord is en dat zijn meestal niet consumenten toepassingen. Je zal hier dan ook primair naar een content creation toepassing moeten kijken en zelfs dan moet je jezelf afvragen of een €10k systeem geen overkill is... In zeer specifieke toepassingen, in bepaalde workflows is dit heel goed te verantwoorden, alleen zal je die niet vaak tegenkomen. Al helemaal niet als je niet fungeert in een dergelijke branch. Zo zullen de meeste mensen ook geen Windows/Linux bakken tegenkomen van €10k+...
Voor wat is dit nou echt bedoeld.

Een beetje home office of wat applicaties draaien rechtvaardigt niet de 10k. Daarnaast spelen van games ook niet.

Dus alleen voor het renderen van videos bijvoorbeeld? Zulk soort werk ?
Ja, voor Hollywood, filmstudio's gebruiken ook Final Cut Pro en Da Vinci. Niet alleen renderen, maar ook bewerken van 4k of 8k films/videos. Grotere bestanden en dus ook hoge geheugenverbruik.
Voor wat professional audio betreft, coreaudio en betrouwbaarheid. Als jij een goed lopende opname/mix studio hebt, dan twijfel je er niet aan en betaal je voor de stabiliteit. De hardware is onderhand wel overkill geworden voor de meeste studios, gezien dat deze processor meer dan genoeg aankan als het puur over DAW gaat..
Vijftien jaar geleden had al bijna niemand een Mac Pro nodig. Nu loopt een Mac Mini rondjes om een Mac Pro van toen. Computers zijn de laatste 20 jaar bizar veel sneller geworden, maar het werk dat we er mee doen is in verhouding niet zoveel zwaarder geworden. Dus ja, je hebt een punt dat er intussen nauwelijks nog mensen zijn die ‘het topmodel’ nodig hebben.

Maar ja, voor een bedrijf is het basismodel van € 2.350 geen grote uitgave en dan weet je zeker dat je voor jaren en jaren goed zit.

Ik ben toe aan een nieuwe Mac dit jaar en de reden dat ik het lastig kiezen vind, is juist dat de performance van eigenlijk alle Macs waarschijnlijk meer dan genoeg is, ook voor mijn grafische werk.

Dus neem ik dan een Mini vanwege de lage prijs, een laptop vanwege het draagbare of toch een Studio omdat die zo krachtig is dat ik er nog langer mee kan doen.. Toch weer lastig kiezen.
Niet alle computers; het gemiddelde prestatie verschil tussen mijn macbook pro 2011 en macbook pro 2016 was maar 20%. Ik herinner me dat van intel core naar core 2 duo het prestatieverschil aanzienlijk meer was, bijna twee keer zo snel.
Neem bijvoorbeeld de M1 (de M2 staat hier nog niet bij) Mac Studio Max, – de 10 cores versie, dus niet eens de 20 cores versie) haalt 2.397 singlecore volgens https://browser.geekbench.com/mac-benchmarks en vergelijk dat met een Mac Pro uit 2008. De snelste Mac Pro 2008 haalt 412 in dezelfde test. Bijna zes keer zo snel.

1.635 vs 12.367 als je naar dezelfde machines kijkt qua multicore: 7,5x. En dat is nog 'maar' 15 jaar verschil, niet eens 20 want zover gaat het overzicht niet terug. Waarschijnlijk ook vanwege andere chip-generatie dus lastig vergelijken zonder vergelijkbare software.
Dat is dus ivm de Xeons, en daar klopt het wel, maar op intels gewone CPUtjes geldt het niet.
Je had in 2003 alleen PowerPC’s en nu (OK volgend jaar dan) heb je alleen Apple Silicon. Het gaat niet om een versie vroeger of later. Grosso modo is het effect hetzelfde.
voor wat home of office koop je een Mac mini of een MacBook Air. En dan zit je met prima performance, 30W usage en passieve koeling
voor mensen met teveel geld....
Volgens mij is dit product niet echt bedoelt voor de consument..
Maar dat gepraat over “te duur” ben ik aardig zat van.
oke, te goedkoop dan....
Niet te upgraden, niet repareerbaar, niet de allersnelste en meer dan €10K. Dit lijkt me een hele lastige user case.
Klopt, de meeste Tweaker zien hier geen brood in. Maar.....
Er zijn veel mensen die een machine zoeken zonder upgrades en reparaties. En geld is beschikbaar.
Mijn huidige M1 doet wat hij moet doen perfect en snel. Nooit de behoefte gehad om te upgraden or repareren. :-)
Nooit de behoefte gehad om te upgraden or repareren. :-)
En dat is maar goed ook, want dat kan je ook niet…

Stel dat je over een aantal jaar tegen één van de zaken van je computer aan loopt (te weinig geheugen of zo), dat één geheugenchipje kapot gaat, of dat je door een suf ongelukje een poort van je apparaat kapot maakt (ik verzin maar wat), dan moet je effectief je hele computer vervangen.
Over e-waste gesproken.

Het hele concept van niet-modulaire computers vind ik verwerpelijk en compleet uit de tijd. We zijn nota-bene statiegeld op blikjes aan het doen. Kledingwinkels moeten straks gebruikte kleding innemen voor recycling, maar we accepteren wel dat allerlei elektronicaboeren hun spullen bewust zo ontwerpen dat ze niet te repareren of upgraden zijn.

(( ik zeg nadrukkelijk niet dat Apple hier uniek in is voor het geval ))
Het ligt er ook aan hoe lang je dan met spullen doet. Als jij elke 4 jaar je pc upgrade heb je ook waste. Is dat ook verwerpelijk? Ja natuurlijk kan je spullen verkopen, maar dat kan juist met apple's heel goed.

Ik heb de laatste 20 jaar macs en doe zo'n 6 tot 8 jaar met een laptop. En daarna gaat die naar mijn ouders die er nog zo'n 3 a 4 jaar aan vastplakken.

De MacBook core2duo (2006) is in 2022 echt met pensioen gegaan en is (zonder batterij) een toneel-prop geworden op de basisschool.
Als jij elke 4 jaar je pc upgrade heb je ook waste
Niet per definitie. Als jij geheugen of een extra SSD bijprikt , heb je geen 'waste'. En als je iets daadwerkelijk vervangt, bijvoorbeeld 1 bankje 8GB voor 1 bankje 32GB, dan heb je slechts 1 RAM bankje 'waste'. Heel wat anders dan een heel systeem aan 'waste'.
En dat is nog slechts upgradability, wat als jouw Mac buiten de garantieperiode defect RAM of storage krijgt? Dan kun je het hele systeem weggooien in plaats van de losse onderdelen te vervangen. Dát is pas 'waste'. Ja, of je moet het laten repareren tegen Apple prijzen... geen leuk alternatief.
laten repareren
Dat komt effectief natuurlijk ook neer op hele componenten vervangen. Geloof maar niet dat er een Apple technicus met een soldeerboutje de RAM-chips van het moederbord gaat vervangen voor jouw garantieclaim :)
Nee inderdaad, dat is nog steeds het grootste 'groene' probleem van soldered systems zoals bijvoorbeeld alle Macs, maar ook veel andere high-end systemen, smartphones en tablets.
Nou werk ik zelf toevallig met een Windows laptop van 8 à 9 jaar oud en heb daar over de jaren heen alleen een andere SSD in gezet en een geheugenuitbreiding, maar ik snap dat dit niet de standaard is. In elk geval voor Windows systemen.

Waar ik op doel, is dat als er één klein onderdeel van deze Applecomputer kapot gaat, dat je dan effectief het hele apparaat moet vervangen (je snapt hoe ik het bedoel) Of stel dat je denkt: "Ik ga voldoende hebben aan 64 GB geheugen" en dat bleek toch te kort (inschattingsfout) dat je dan niet gewoon eventjes de DIMMetjes kan omwisselen of bijprikken, maar je dan dus effectief je hele computer moet vervangen. Of stel dat je gewoon de kosten wil spreiden. Je koopt nu het instapmodel en later prik je er een extra DIMMetje bij wanneer dat nodig is. Dit is over het algemeen met een niet-Applecomputer prima te doen.

Wat ik schreef. Ik vind het hele concept van niet-modulaire computers compleet verwerpelijk.

Idealiter koop je inderdaad een computer die precies voldoet aan wat je nodig hebt, dat je daar lang mee doet, en wanneer hij niet meer voor jou voldoet, dat hij dan nog wel voor een ander voldoet. Dus zoals jij in jouw voorbeeld aangaf. Dat is inderdaad ideaal, maar die garantie heb je natuurlijk niet. (bij geen enkel merk)
Er wordt wel wat aan gedaan, bijvoorbeeld de EU-wetgeving die telefoonfabrikanten verplicht om verwisselbare accu's in te bouwen. Het begin is er, nu doorzetten en de wetgeving wat verder verbeteren.
Ja, hemel zij dank inderdaad. Het is alleen zo jammer dat de overheden dit moeten afdwingen. Hetzelfde gold toentertijd voor USB-C en snelladers en dergelijke. De overheden riepen de fabrikanten op om het te regelen en als ze het niet zouden doen, dan komt er wetgeving.... Nou ja... Zo geschiedde.

Het is gewoon sneu dat ze het niet zelf kunnen regelen.
Nou, ik geloof niet dat mensen bewust zoeken naar een systeem zonder upgrades en reparaties. Welk argument zou er zijn tegen upgrademogelijkheden? Het is niet alsof het bestelproces makkelijker is, want je krijgt dezelfde keuzes, alleen bij deze serie leg je die voor de levensduur vast. En reparaties zijn natuurlijk super belangrijk voor de betrouwbaarheid. Als een klein rotcomponentje kapot gaat, wil je toch geen systeem van 10k afschrijven?

Overigens heb je ook nooit de "behoefte" om te repareren. Er gaat iets kapot en je kunt repareren of vervangen, je hebt dan geen keus. Ja, "niet meer gebruiken" is ook een optie misschien :P
Nou, ik geloof niet dat mensen bewust zoeken naar een systeem zonder upgrades en reparaties. Welk argument zou er zijn tegen upgrademogelijkheden?
Er is natuurlijk een verschil tussen "ik heb geen behoefte aan upgraden" en "ik wil een systeem wat niet geupgrade kan worden".
En reparaties zijn natuurlijk super belangrijk voor de betrouwbaarheid. Als een klein rotcomponentje kapot gaat, wil je toch geen systeem van 10k afschrijven?
Het gaat eerder om het zelf kunnen repareren. Laten repareren is bij Apple (of een daartoe certified partner) altijd wel een optie. Het artikel heeft het ook nadrukkelijk over het zelf niet kunnen repareren.
Dat snap ik, misschien was de woordkeuze ongelukkig, maar ik lees "een systeem zoeken zonder upgrades en reparaties" als actief zoeken naar iets zonder upgrademogelijkheden en geen mogelijkheid tot (zelf)reparatie. Dat is wat anders dan "het maakt met niet uit dat dat niet kan": een optie die je niet gebruikt is geen probleem.

En dat repareren bij Apple of certified partners...dat gebeurt dan on-site? Of moet je je systeem inleveren en later ophalen?
Ligt aan de reparatie. Ik heb een keer mijn laptop bij een winkel ingeleverd en 2 uur later opgehaald (nieuw scherm).

En wat betreft upgrades: ik ken heel wat mensen die elke 8 jaar een laptop kopen en ook verwachten dat die gewoon 8 jaar mee gaat zonder upgrades
Dit zijn geen systemen voor computerhobbyisten, 99% van deze systemen worden gekocht door het bedrijfsleven. En die gaan echt niet later een processor of harde schijf vervangen, die schrijven hem gewoon af en kopen een nieuwe. Als je kijkt naar de markt voor tweedehands Mac’s dan zitten daar hele partijen tussen van prima systemen die door bedrijven afgescheept zijn.

Mijn broertje zit in de muziek en doet tegenwoordig niets anders meer dan een paar jaar oude Mac’s kopen die door bedrijven zijn afgeschreven. Dan heeft ie een beest van een machine voor Logic Pro etc. voor een fractie van de prijs.
Voor de brokermarkt is Apple's policy een zege, absoluut. Maar dat bedrijven Macs gewoon afschrijven als ze behoefte hebben aan meer is geen argument tegen upgradability, het is slechts het resultaat van de financiële ruimte die zulke bedrijven hebben ten opzichte van consumenten/prosumers. Normaliter upgraden veel bedrijven namelijk weldegelijk systemen waarbij dat wel mogelijk is. Niet allemaal, maar veel en vaak wel. Er bestaat zelfs een hele miljarden buisiness die daar geld mee verdient: 3rd party mainentance en de brokermarkt. Storage upgraden, RAM uitbreiden, heel normaal en op grote schaal toegepast. CPU's upgraden gebeurt vrijwel uitsluitend in de datacenter-markt, dat is ook niet zo heel relevant.
Als CTO/CFO van een beetje formaat bedrijf zou ik er flink van balen als ik tientallen of honderden Macs telkens zou moeten afschrijven op het moment dat storage of RAM ontoereikend wordt. Apple had prima extra slots kunnen implementeren maar heeft er bewust voor gekozen dit niet te doen. En dat mag best bekritiseerd worden.
Het hangt natuurlijk van de sector af, inderdaad zal in de datacenter wereld er anders worden gewerkt dan in een bedrijf waar er voornamelijk aan wordprocessing wordt gedaan enzovoorts.

Maar, in de sector die ik ken die de voornaamste doelgroep van dit soort systemen (VFX, videoproductiebedrijven etc.) wachten ze niet totdat het geheugen niet meer toereikend is. Daar worden oude modellen afgeschreven zodra er een nieuw model te koop is omdat de terugverdientijd in weken te meten is. Dan zijn dit soort machines dus hooguit 18 maanden oud voordat ze alweer vervangen worden. Tijd is geld en met verouderde apparatuur werken kost te veel.
Oh nee, zeker niet alle sectoren maar in je oorspronkelijke post had je het over "het bedrijfsleven". Maar juist een groot deel van dat bedrijfsleven hebben IT afdelingen of MSP's die systemen langer in de lucht houden, meestal binnen een afgesproken afschrijvingsperiode van 4 á 5 jaar, door uitbreiding mogelijk te maken waar nodig/gewenst.
En bedrijven met Macs kunnen dus geen kant op als er behoefte is aan meer geheugen of opslag, behalve vervangen (of met externe opslag gaan werken). Leuk als je dat financieel kan dragen, maar dat zou geen argument an sich moeten zijn natuurlijk. Als je een productiebedrijf hebt met 50 werkplekken en je moet elke 18 maanden 50x 2500 euro uitgeven, dan is dat een flinke aderlating. Dat zijn toch 2-3 FTE jaarcontracten bijvoorbeeld.
Bedrijven die in de markt zijn voor dit extreme voorbeeld van een volledig uitgebouwde Mac Pro of Mac Studio zijn dat ook niet voor niets. Dat zijn sectoren waar enorme bedragen in om gaan en voor wie een investering in de nieuwste machine geen kostenpost maar een investering is. Laten we eens een simpel rekenvoorbeeldje doen.

Stel je bent een productiebedrijf in VFX en je factureert naar buiten toe €1000 per uur (een conservatieve schatting, want bijvoorbeeld kleurcorrectie is flink duurder). Apple brengt een nieuw apparaat uit voor €10.000 waarmee je 10% meer productie per dag kunt draaien. Dan heb je binnen een maand die €10.000 terugverdiend, daarna is het pure winst. En het is natuurlijk geen €10.000 want je hebt het vorige model computer dat nog geen twee jaar oud is voor €6000 verkocht dus eigenlijk was het maar een investering van €4000 per werkplek.

Dit werkt omdat het een industrie is waar enorm veel geld is omdat het relatief weinig geld is. Een vriendin van mij is twee weken bezig geweest om stofwolken uit de laatste Star Wars film te halen. Er werd gedraaid op locatie in een kerk met horizontale balken op flinke hoogte. De drone camera ging tijdens de beste take helaas iets te hoog en blies stofwolken van de balken. De regisseur zegt "We'll fix it in post" en een post-productiebedrijf krijgt een halve ton om beeldje voor beeldje die stofdeeltjes er uit te editten want dat is goedkoper dan de draaidag verlengen. Zo heeft ze ook wel eens een horloge om de pols van een hele dure acteur beeldje voor beeldje moet wegeditten omdat dat goedkoper is dan zo'n scene maanden later opnieuw te moeten schieten.

Het zijn hele specifieke gevallen maar dit is dan ook een hele specifieke doelgroep. Apple zal waarschijnlijk niet bekendmaken hoeveel bedrijven de full-spec Mac Pro of Mac Studio kopen maar kennelijk verkoopt het goed genoeg om te blijven maken.
Dat snap ik ook, maar ik ging specifiek in op jouw initiële "het bedrijfsleven", dus algemeen en niet uitzonderlijke high-end markten waarbinnen upgradability veel minder tot geheel niet relevant is. Dit artikel gaat dan wel over de 'ultieme configuratie' maar dit systeem (Mac Studio M2 Ultra) begint 'al' bij 3.799 euro.
Ik zit zelf ook al 17 jaar in de ICT en bedien juist de pak-'m-beet 90% markt die niet onder de VFX/Videoproductie hoek valt en daarbinnen is upgradability/repairability wel degelijk vaak een issue. Praktijkvoorbeelden zijn bijvoorbeeld wetenschappelijke instituten die wiskundige modellen gebruiken, architectenbureau's of content creators die soms na verloop van tijd toch niet genoeg hebben aan hun 1TB opslag bijvoorbeeld. Die worden dan, met de huidige Mac line-up, verplicht een nieuwe aan te schaffen of met externe opslag te werken, terwijl dat voorheen 2-4 jaar kon worden uitgesteld door een extra SSD in te pluggen of de interne SSD te upgraden. Idem voor vrijwel alle prosumers en ZZP'ers.
Natuurlijk is het niet het einde van de wereld omdat ze die systemen ook weer kunnen doorverkopen, maar dat vind ik meer een gedwongen alternatief en geen argument voor de designkeuze van Apple. Het is namelijk enkel goed voor hun portemonnee, hoe je het ook wendt of keert.
Als je een M2 Ultra koopt, heb je behoefte aan "de snelste". Je moet wel echt een doorgewinterde Apple fan zijn om niet gewoon voor (veel) minder een AMD/Intel systeem te halen.

Bedenk ook dat je voor die 10K hier gewoon HEDT setups kan krijgen, sneller dan alles wat hier op de lijst staat: uitvoering: AMD Ryzen Threadripper Pro 5995WX Tray

Wil je voor 10K de performance van ongeveer een omlaag geklokte 7950X, of kan je leven zonder macOS en neem je een CPU met 64 cores en dan heb je nog 4400 euro over voor de rest. Voor die 4400 euro kan je vast 8TB aan 980 Pro's halen, een leuke 4080 ProArt, een zooi RAM, etc.

[Reactie gewijzigd door Gamebuster op 22 juli 2024 15:18]

Ik mag inderdaad hopen dat jouw M1 snel is. Maar het is natuurlijk niet goed te praten dat je niet eens de mogelijkheid hebt om iets te vervangen.
Ik heb mijn M2 Ultra inmiddels 2 weken in gebruik en heb hem voor 1 ding gekocht: audio productie.

Waarom Apple ? Omdat ik die cleaner kan draaien dan een windows machine. Om je een idee te geven had ik in een maand tijd meer geproduceerd dan in 10 jaar op windows. En dat kwam vooral doordat ik bij windows 90% van de tijd kwijt was met problem-solving. Bij de mac is dat hooguit 1%. Draait het, dan blijft het draaien.

Al het andere werk (programmeren, video editing, browsen, office werk, grafisch design, 3d modelling, 3d painting) doe ik op een windows machine, omdat dat geen realtime rekenkracht vereist (op kritiek nivo heb ik het dan over). Dat ik 10 minuten langer moet wachten tot iets klaar is met een final render bijv. zal mij een worst zijn. De workflow blijft snel genoeg.

Bij audio heb ik bij grote projecten (>150 tracks voor een symfonie orkest bijv.) echt de rauwe rekenkracht nodig om met acceptabele buffer size nog productief te blijven ipv iedere keer tracks te moeten freezen e.d. om de cpu te ontlasten.

Dus ja het is een hoop geld, maar puur gekocht als investering omdat ik het ook terug kan verdienen wat ik er mee doe. Zelf haat ik het besturingssysteem, dus voor iets anders had ik het nooit gekocht.

Is het overpriced ? NEE! Zeker niet! De hardware is echt wel gelijkwaardig of beter dan de high end workstations. Waar je vroeger de multi-xeons kocht, multi head gpu's, ecc ram etc. was ik toen ook al tegen de 10k kwijt.

Dus zoals met workstations is mijn advies: heb je er een specifiek doel voor ? Kopen! Is het voor general purpose en gaming ? Zeker niet kopen!

[Reactie gewijzigd door cyble op 22 juli 2024 15:18]

Bij Windows ben je 90% van de tijd bezig met problemen oplossen? Dus maandagochtend tot vrijdagmiddag problemen, en dan een halve dag werken?
Volgens mij is er iets mis met je workflow.
Haha, Nee, toentertijd bij audio waren er altijd problemen tussen communicatie met de hardware. En ik had ook beperkte tijd toen om er aan te besteden, dus aan die 90% zat ik al heel snel wanneer het even tegen zat.
Na aantal jaar wel geprobeerd met andere hardware terug te keren naar windows, ook weer met de nodige problemen.
Ik heb zonder zware realtime toepassingen (dus los van de studio hardware) 0% problemen met m'n windows setup. Daarom is dat ook de machine waarop ik al het andere werk doe.
"Om je een idee te geven had ik in een maand tijd meer geproduceerd dan in 10 jaar op windows."

:+
Tja, dat ligt denk ik toch aan meer dan alleen Mac vs Windows.....maar wie weet is die Mac toch 120x zo snel! :)
Ik heb mijn M2 Ultra inmiddels 2 weken in gebruik en heb hem voor 1 ding gekocht: audio productie.

Waarom Apple ? Omdat ik die cleaner kan draaien dan een windows machine. Om je een idee te geven had ik in een maand tijd meer geproduceerd dan in 10 jaar op windows. En dat kwam vooral doordat ik bij windows 90% van de tijd kwijt was met problem-solving. Bij de mac is dat hooguit 1%. Draait het, dan blijft het draaien.
Dat geloof je toch zeker zelf niet?
Het probleem bevindt zich wellicht eerder tussen stoel en toetsenbord ipv het OS.
Sorry maar wat een onzin.

Je kan een xeon workstation bouwen voor 3000 euro met een Xeon W2400 series CPU met 256GB DDR ram die echt veel sneller is dat deze M2 Ultra.

En dan heb je tenminste sideband registered ECC.

Daar draaien overigens alle games prima op.

[Reactie gewijzigd door PjotterP op 22 juli 2024 15:18]

Het is heel fijn dat de overstap bevalt. Maar overdrijven is ook een vak. In mijn 25+ jaar als Windows gebruiker kan ik je vertellen dat als ik een PC had met een hele hoop problemen had het vaak defectieve RAM betrof. Was dat het niet dan is het eerder malware of een virus. Iets waar Mac ook niet (meer) immuun voor is gezien de gegroeide user base Apple ook een rendabel doel is geworden. En dan kan de third party software maker de problematische factor zijn.

Dus 90% van de tijd problemen oplossen....wel heel erg overdreven...tenzij je Windows ME draait ofzo.

En om een voor de hand liggend doel te pakken, de SSD's prijzen zijn zeker wel heel overdreven pittig op Apple producten....we kunnen de materiaal kosten tenslotte achterhalen en zien dat ze excessief veel rekenen. Laat staan dat ze soms de neiging hebben om de basis optie zo te designen dat je bijna wel de duurdere optie moet nemen. Case and point in de laatste Mac Mini gebruiken ze maar een enkele geheugen module ipv 2 ten opzichte van de vorige wat de SSD veel trager maakt dat ie moet zijn. En het niet upgradebaar over uitbreidbaar maken van de opslag is ook een doelbewuste keuze want het kan makkelijk. Apple kiest er doelbewust voor dat niet te doen.

Mac OS, Linux, Windows. Ze hebben allemaal voor en nadelen. Apple en Microsoft maken beide met regelmaat gebruiker/klant onvriendelijke beslissingen.

Voor een volgende keer, het kan best dat alles beter en snelle aanvoelt voor je en het productiever voor je werkt. Maar maak je claims wel een beetje geloofwaardig.
Er is geen andere GPU met ca. 170GB beschikbaar geheugen. Dat kan een voordeel geven. Bijvoorbeeld in een keer een neuraal netwerk met 80G gewichten trainen, zonder vertragende communicatie tussen GPUs. Nu moet ik zeggen dat ik daar niet heel veel animo voor heb gezien.
Dat is wel een sterk punt waar ik blij mee ben, ik heb een M2 max in mijn macbook maar met 96Gb geheugen, probeer maar eens een video kaart te vinden met zoveel geheugen in een laptop. Hij is niet zo snel als een video kaart maar kwestie van meer geduld hebben, kan tenminste wel grote modellen trainen.

[Reactie gewijzigd door ronaldmathies op 22 juli 2024 15:18]

Wat jij zegt.
Ik zie ook alleen maar super zuinig stroomverbuik, en net iets boven gemiddelde prestaties
Na hoeveel jaar kan dat die prijs van 10.4k compenseren?

Ja ik weet het mijn gamestation zuipt meer stroom, maar dat hoef ik niet te verantwoorden op de jaaropgaaf van mijn werkgever.
Ik vind dat de 10k ook wel bij de nadelen genoemd mag worden. Supersnel? Vergelijk hem eens met een ander systeem van 10k en dan is het gewoon slecht. Enige wat overeind blijft is dan de efficiëntie. Het komt voor mij over als een slecht product wat alleen voor de snob doelgroep interessant lijkt.
Een detail is hier wel dat ze het systeem tot de max hebben uitgerust maar dat dat voor de genoemde benchmarks totaal irrelevant is. Met 64Gb geheugen en 1Tb disk hadden we dezelfde resultaten gehad en was het systeem 6000 euro. Dus leuk dat tweakers de max opties kiest maar had in dit geval weinig verschil gemaakt. Daarnaast kan je er ook zelf twee SSD’s erin stoppen zodat je de kosten voor meer disk lager kan houden.
Weet je dat 100% zeker?
Is het grotere geheugen en de grotere opslag exact even snel? Mogelijk is het juist langzamer of juist sneller (kan twee kanten op natuurlijk)

En over die upgrades… Alles zit toch vastgesoldeerd? Of bedoel je een externe SSD (volgens mij hadden derde partijen van sommige modellen een soort custom docks met ingebouwde storage zodat het er nog wel knap uit zag toch?)
Er zijn bedrijven die dit soort dingen aanschaffen en gewoon afschrijven en onderhouds contracten hebben. Dit zijn geen normale consumenten computers… Echt heel vreemd dat zo’n groot aantal tweakers dat niet snappen
Ik begrijp de doelgroep heel goed, maar zelfs dan is de usercase gewoon niet goed.
Beetje flauw om naar de 10K versie te kijken.

Gros van de klanten koopt altijd de basis versie en misschien nog een tandje grotere SSD of GPU, voor 2500 - 3000 euro en dan gaat er nog 21% btw vanaf en dan nog eens 33% vanwege aftrekbaar van de winst, want deze computer is niet nodig om thuis je huiswerk op te maken.

Dus € 1.500 en dan kun je als bedrijfje minimaal 5 jaar vooruit. Een euro en vijftien cent per dag kost ie dan, per werkdag.
Ik heb het concept upgraden al lang geleden opgegeven.
Ik kon toenmalig mijn windows laptop upgraden met meer RAM; dan zou ie sneller worden; dat was dus onzin, zelf na herinstallatie windows leek ie even traag.
Ik wilde mijn CPU van mijn zelfbouw rig upgraden; dat kon niet, want intel gebruikte voor haar nieuwe CPU's een andere CPU Socket; dus moest ik een ander mobo hebben, en eigenlijk ook ander RAM, want mijn huidige RAM was ook niet goed genoeg of paste er niet in.

Of ik wilde een nieuwe grafische kaart, maar mijn VESA local bus werd AGP en toen werd het PCI-x en PCIe en die laatste twee waren niet met elkaar compatible (de winnaar was PCIe en ik had natuurlijk weer een Mobo et PCI-x) . Of mijn SATA HD werd niet meer ondersteund want hij was te langzaam.
Al die upgrades kostte me toenmalig meer geld per jaar dan de mac waar ik in 2010 op overstapte.
Daarom koop ik wat ik nodig heb en vervang het hele zooitje zodra ik het nodig heb; upgraden is een wassen neus vind ik.

[Reactie gewijzigd door Shark.Bait op 22 juli 2024 15:18]

We pakken een vrachtwagen en gaan hem racen tegen een Ferrari. Of zoiets.

De absurde upgrade prijzen van Apple daargelaten, dit is geen gamert PC. De doelgroep is duidelijk de video editor die meerdere 8K videostreams realtime moet bewerken.

Zie deze review; https://www.youtube.com/watch?v=bvWN5Uk37tI
Waarom zou je 8k streams willen bewerken vraag ik mij af?
Omdat dat de standaard is voor cinema tegenwoordig. Imax e.d.

En veel YouTubers die op 4K publiceren, nemen op 8K op. Je kunt dan gemakkelijk inzoomen zonder kwaliteitsverlies.
Heldere uitleg, maar waarom zou je willen inzoomen op een gecomprimeerd youtube filmpje in 4K, die in 8K is opgenomen?

Dat heeft helemaal geen zin. Vind het maar een gimmick, op de professionele industrie na dan.
Heeft apple het gebruik van videokaarten in de Mac Pro geblokkeerd?? Of is het een kwestie van drivers en is er dus nog hoop.
Volgens mij is dat gewoon een gevolg van de nieuwe architectuur. Je zou zogenaamd nu voldoende grafische kracht moeten hebben voor alles. Maar keuze heb je dus niet inderdaad. Ik vind de nieuwe chips prachtig, maar koop ze niet juist vanwege het volledig vaststaan wat opties betreft.
Je zou zogenaamd nu voldoende grafische kracht moeten hebben voor alles.
Er zijn een handjevol AAA games die daadwerkelijk draaien op Apple Silicon, het heeft zeker meer vermogen dan de gemiddelde Intel HD Graphics, maar het vervangt echt geen discrete videokaart. Het is eerder vergelijkbaar met een AMD APU die net wat verder komt dan Intel.
Niet zo zeer geblokkeerd als meer gewoon geen ondersteuning in hun processors.
Een videokaart is gewoon een normaal PCI-e device. Ook de M processoren hebben gewoon PCI-e lanes (anders zouden ze geen TB4 kunnen gebruiken). Conclusie: Het is alleen drivers.

Maar ja, aangezien ook dát volledig door Apple gecontroleerd wordt heeft Apple het dus simpelweg in al hun systemen geblokkeerd door te zorgen dat er nooit drivers zullen komen. Er is in zoverre hoop dat je natuurlijk nooit weet wat Apple gaat doen maar ik zou er niet op gaan zitten wachten.
`stom is het werk, want AMD en Nvidia hebben beiden opensource linux / bsd-drivers. een port daarvan naar darwin zou geen issue moeten zijn, ik vraag me dus af of je op termijn geen homebrew amd-drivers gaat tegenkomen, of wat mis ik her essentieel?
Grafisch werk en audio productie. Staat netjes op kantoor/werkruimte en is stil met toch veel kracht.
Maar voor 10k koop je twee dikke workstations en een laptop wat qua efficiëntie veel prettiger werkt, zeker voor video renderen.

Je moet wel echt een liefhebber zijn, want ook profesioneel is de prijs versus prestatie echt een hele lastige.
deze configuratie is wel extreem, en inderdaad nuttig voor relatief kleine groep. Maar het is goed om de optie te hebben, zeker omdat je dan weet dat je als (creatieve) professional/hobbyist weet dat je later de mogelijkheid hebt om in performance te upgraden, ook al heb je het waarschijnlijk niet nodig.
Dat maakt dat mensen bereid zijn om te investeren in het ecosysteem.
Zelfde verhaal als dat autofabrikanten een dikke auto in het assortiment hebben die eigenlijk niemand echt nodig heeft, mensen willen wat hebben om over te dromen.
Een configuratie als dit is dus vooral marketing, en handig voor die paar die het inderdaad 'nodig' hebben.

Ikzelf kijk niet eens meer naar windows PC's, omdat mijn complete workflow (zowel werk als hobby) vrijwel volledig op macOs gebaseerd is. (draai een windows 11 VM voor een paar zeer specifieke applicaties, maar die staat 95% van de tijd op pauze).

En de efficiëntie moet niet onderschat worden. Nu heb ik geen ervaring met recente Windows machines, maar recent heb ik met mijn M2 MacBook Pro nog een compleet concert opgenomen. 32 sporen audio, 2 uur lang, op batterijvoeding, zonder dat de fans ook maar in beweging kwamen. Na twee uur had ik slechts 15% van de accu verbruikt.
Audio opnemen kost bijna niks, kan de cpu in idle...lol
Opnemen is bijna gratis, maar bijvoorbeeld een reverb plugin vreet echt cpu. Doe dat op elk spoor en je hebt serieus cpu gebruik.
Er zijn grote verschillen in cpu load met reverb plugins. De juiste kiezen kan je 50% of meer efficiëntie geven, aka lower load. Maw, het is veel goedkoper om een goede reverb plugin te gebruiken dan om de zwaarste hardware ertegenaan te gooien
Als je in een professionele situatie werkt is het al snel goedkoper om maar wat duurdere hardware aan te schaffen dan iedere keer met settings of plugins te tweaken omdat je uit je resources loopt.
Mijn Thinkpad verbruikt op twee uur in idle al 1,5 keer zoveel 8)7
Audiosporen opnemen is niet zo heel zwaar zover ik weet? Zit hem meer in het gebruik van plugins.
We zijn het toch gewoon met elkaar eens? Betreft je opname, daar heb je dus deze 10k bak niet voor nodig. Deze machine is extreem niche. De andere modellen zijn aanzienlijk beter gepositioneerd.

Over performance, workflow is niet altijd zomaar "ik doe alles op mijn machine en als ik render kan ik niks anders doen". Profesionele settings met meerder machines is vaak voordeliger.

[Reactie gewijzigd door roffeltjes op 22 juli 2024 15:18]

Efficiëntie qua performance?

Zou ook mijn keuze zijn, maar kan anderen ook goed begrijpen die hier voor kiezen.
tsja de meeste vergelijken dan ook enkel met laptop cpu's van Intel. Deze zijn al jaar en dag rampen van efficientie kwa performance/batterijduur, dit sleuren ze mee met hun core design en achter lopen van proces nodes.. Heb nu weer een AL als laptopchip en terwijl er wel performance is, is batterijduur en warmte nog steeds een issue. AMD heeft al heel wat jaren de betere keuze in CPU wereld op vele vlakken. Wat doet de markt? braafjes slaafs volgen.

Apple heeft met de move naar de M cpu echt een knappe technologie neergezet. Echter zit je vast aan het volledige ecosysteem en de prijzige platformen. Het is dus een keuze vna de gebruiker. Deze config is natuurlijk heel extreem.

Met een auto zou ik het nu wel niet vergelijken, want of je nu een M2 neemt of Ultra zal je nooit merken tenzij er specifieke sw gebruikt wordt. Met een auto merk je het wel kwa gebruik (acceleratie) en zithouding etc... echter daar gaat het veelal over imago en gezien worden. Beetje zoals met bepaalde toestellen in je hand lopen en wat bellen... kuch
Ken echt heel veel mensen die dagelijks video's renderen... maar niemand heeft 2 dikke workstations staan...

Het gaat om het totaalplaatje. En in tegenstelling tot wat veel mensen denken haten Apple gebruikers ook vaak de keuzes die Apple maakt. Niks met fanboys te maken.
Mijn vrouw doet voornamelijk opdrachten voor TV en Overheid, maar ook de partners waar ze mee werkt hebben de keren dat ik meeging specifiek meerdere machines. Dat is ook logisch tenzij je echt alleen maar één project met maar één scene/animator doet. Met meerdere machines kunnen meerdere animatoren stukken van het project tegelijk draaien en daarna aan elkaar knopen.

Toch opvallend dat de ervaringen zo enorm verschillen tussen professionals en het werkveld waar ze mee te maken hebben.

Je opmerking over fanboys kan ik niet plaatsen?

[Reactie gewijzigd door roffeltjes op 22 juli 2024 15:18]

Fanboys dat Apple gebruikers per definitie fanboys zijn.
Prijs versus prestaties kan niet uit. Het is daarbij ook gewoon zonde van het geld wanneer je kijkt wat voor andere setup je kunt wegzetten voor dat geld.
Het niet kunnen gamen op een Apple systeem was altijd wel irritant , maar als ik eerlijk ben sinds GeForce NOW is het geen issue meer. Hier wordt er gegamed op een MacBook met miniled scherm, prachtig, snel en prima te doen.
Saillant detail; er wordt dan gestreamed náár de macbook, niet gegamed op.

Tevens gaat de laag die het faciliteert (Nvidia Gamestreaming / shield) op de schop.

[Reactie gewijzigd door Annihlator op 22 juli 2024 15:18]

Klopt, maar effectief maakt het natuurlijk niks uit.

Wat bedoel je met je laatste opmerking?
Dat nvidia lijkt op te houden met de support van Geforce GameStream, voor een aantal oudere kaarten wordt het met nieuwere driver al niet ondersteund (ben mij iig bewust van de 1000 serie, mogelijk al meer, maar de 1000 serie vind ik persoonlijk al wat snel om erop te blijven bouwen).

En dan helaas niet alleen nonsupported, de hele gamestream driver is verdwenen :/

[Reactie gewijzigd door Annihlator op 22 juli 2024 15:18]

Ehm, ik denk dat we het over verschillende dingen hebben. Ik heb het over gamen via: https://www.nvidia.com/nl-nl/geforce-now/memberships/

ik lees alleen dat er nieuwe games komen en verder geen ander nieuws.

[Reactie gewijzigd door honey op 22 juli 2024 15:18]

Nvidia GameStream is iets anders dan GeForce NOW. Dat eerste faciliteert in house streaming. Dit stopt inderdaad (https://nvidia.custhelp.com/app/answers/detail/a_id/5436), maar dit is niet wat de meeste casual gebruikers gebruiken als ze het over game streaming hebben. Vereist namelijk een dure GPU. Dat laatste (GeForce NOW) gaat vrolijk door.

Er is trouwens een open source alternatief voor Nvidia GameStream in de vorm van de Sunshine/moonlight combinatie (https://github.com/LizardByte/Sunshine).
Goed punt van sunshine/moonlight, ik was daar twee weken terug een beetje mee begonnen te rommelen toen ik via een maat met 1080ti vernam van het stoppen van GameStream.

Gezien jaren geleden mn ervaring met de steamlink super was ging ik ervan uit dat Steam Remote Play (lokaal) ook best prima zou werken voor 1440 en 2160, maar dat viel eigenlijk fiks tegen.

Dat ik dat noemde kwam de maat ermee dat hij sinds kort Moonlight uitprobeert omdat ie ook zat niet-steam games speelt/streamt.

Blijkt dat met minieme configuratie (eigenlijk alleen de bandwidth limit omhooggezet en compressie wat minder zwaar als default) voor mij Moonlight véél beter presteert op 2160p als Steam Remote Play op 1440p (en ca vergelijkaardig aan 1080p, waar mijn ervaringen ook redelijk positief zijn).

Ervaringen met Geforce GameStream heb echter ik niet direct; dweep nu al zon 10 jaar met AMD :)
Deze test laat vooral één ding zien, de reageerders op tweakers zijn niet de doelgroep
Ik vraag me dus af wie wel de doelgroep is?
Mensen die een mac gebruiken voor goed betaald creatief werk en gewoon iedere 2-3 jaar de snelste halen en niet geven om tussentijdse upgrades en reparaties in garantie laten uitvoeren (of het hele toestel laten vervangen).
Beetje arrogant im te veronderstellen dat non apple spul per definitie kapot gaat en/of updates nodig heeft. Btw, je toont meteen ook de kracht ervan, bij non apple spul kan dat tenminste. Vaak voor een fractie van wat ji bij Apple mag aftikken. Want ja, ook Apple stuff gaat stuk bijv. . Koop je natuurlijk af met de magnifieke "Apple Care".
Beetje arrogant om mijn woorden te verdraaien: ik zeg nergens dat Apple niet kapot gaat, maar als je professioneel werk doet ga je niet zelf lopen rotzooien met een harde schijfje van de Mediamarkt maar bel je de leverancier die het fixt. Dan is Applecare het minimum.
Als je zo'n maximale configuratie na 2-3 jaar vervangt is de kans ook groot dat in de tussentijd geen extra opslag of geheugen hoeft te worden bijgeplaatst.
Als je professionele PC workstations (denk bv van Dell, HP etc) gebruikt krijg je ook alleen garantie als je de extreem dure fabrieksonderdelen gebruikt. Kijk voor de grap eens naar de prijzen van dat spul voor je weer in herhaling valt met roepen dat Apple duur is.
Het bedrijfsleven, niet thuisgebruikers of hobbyisten, is de doelgroep.

En in het bedrijfsleven is dit een investering die zich terug zal moeten verdienen. Zolang de investering zich terugverdiend maakt het weinig uit of het systeem €10.000 of €100.000 kost. Ik ken genoeg clubs die Mac Pro’s per pallet bestellen en Apple verkoopt er genoeg anders hadden ze niet bestaan dus er is een markt.
Zoals zo vaak kiest de redactie de beste klikbeet invalshoek en happen de reageerders massaal toe.

Had de schrijver nou echt gedacht dat hij wel even deze games aan de praat ging krijgen? Of dat serieus klanten de maximaal opgetuigde 10K versie gingen kopen? Nee en dat weet hij donders goed.
Deze tests laat vooral één ding zien, dat je voor degelijke Mac reviews niet bij Tweakers.net moet zijn... Trouwens ook niet bij de meest Mac fansites! Waarbij de Tweakers.net redactie zijn duim op de weegschaal legt de ene kant op (door de keuze en scope van de tests) leggen de meeste fansites die duim aan de andere kant (door vaak alleen de win scenarios en binnen het Mac ecosysteem te testen).

De meest nuttige informatie over daadwerkelijke relevante performance in bepaalde hoeken krijg je voornamelijk uit bepaalde forums en reacties op dit soort artikelen. Anders zoek je je een ongeluk naar relevante informatie.
Juist.
Ten eerste zeggen synthetische benchmarks niets over de real world prestaties. Als je serieus wil testen gebruik je bijvoorbeeld
De Affinity benchmark,
Verwerk je een Batch van 100 RAW fotos in Lightroom,
Een 4 en 8K project in DaVInci,
Een flink project in een audio suite
Render je een en ander in Blender,
Een 4 en 8K project in Final Cut wat je daarna in Compressor verwerkt.
Maar ja, dat kost tijd, en moeite, en kennis van zaken, en dat is duur. Nee, snel ff een paar benchmarks en een artikeltje kloppen.

[Reactie gewijzigd door Jan Onderwater op 22 juli 2024 15:18]

Het totaal niet repareerbare karakter en het moeten speccen meteen bij aankoop zijn voor mij echt de doodsteek om het überhaupt te overwegen.
Ik denk dat de doelgroep niet aan upgraden doen maar het na een jaar weggooit.

Tweakers die dit soort prijzen verdedigen stellen altijd dat de meerprijs door verhoogde productie is korte tijd is terugverdient.
Als dat waar zou zijn koopt die groep ieder jaar/release een nieuwe Apple want wat dat geeft een grotere performance boost dan bv wat ram bijprikken in je oude Apple.
En als meer geheugen een betere performance geeft was dat geheugen direct gekocht want je verdient het terug in een paar dagen...
Laten we even realistisch zijn. Hoeveel bedrijven (want dit is niet voor thuis) upgraden nou helemaal hun computers, ooit?

Ik heb twee Macs, waar ik dagelijks mee werk. De ene is een laptop van 10 jaar oud en de andere een desktop van 15 jaar oud.

Reken eens uit wat die per dag gekost hebben. Komt neer op koffie geld. Maar nee, elke Mac review en alle reacties gaan alleen maar over de prijs. Lachwekkend gewoon.
Bedrijven die macs gebruiken dus helemaal nooit, want het kan niet. Bij veel andere bedrijven komt het wel degelijk vaak voor. Denk aan het toevoegen van extra opslag of werkgeheugen.

De apparaten die jij noemt hadden nog upgrade mogelijkheden, bijv het bijsteken van ram of het vervangen van de opslag. Door die mogelijkheid kan je de schijf (en de data op die schijf) nog eruit halen als de rest van de computer kapot gaat, ook dat kan niet meer met nieuwe macs. Als deze nieuwe mac overlijd ben je ook mooi je data kwijt.

Er is één reden dat een 'groen' en 'verantwoord' bedrijf als apple die upgrade mogelijkheden, die de levensduur van het apparaat verder kunnen verlengen, heeft weggenomen. En dat is winst.

Kijk maar eens hoeveel geld apple vraagt voor upgrades. Als je extra ram/opslag nodig hebt tov het basis model ben je al snel meer dan 5x zoveel kwijt als voor vergelijkbare pc componenten. En omdat je niet kan upgraden ben je ook nog eens geforceerd om meer te kopen dan je nu misschien nodig bent, met de gedachte dat je het MISSCHIEN over 5 jaar wel nodig bent. Want als je dat niet doet ben je verplicht een heel nieuwe mac te kopen als de oude niet meer voldoet.

Het resultaat: de consument is duurder uit, en de wereld zit met meer e-waste als iets kapot gaat of niet meer voldoet. Maargoed apple maakt zo wel lekker veel winst.

Lachwekkend gewoon hoe mensen deze praktijken van apple goedpraten.

[Reactie gewijzigd door Raphire op 22 juli 2024 15:18]

Nee, want de andere aanbieders doen het natuurlijk niet voor het geld. :+

Als je iets om je data geeft, zorg je voor twee backups, anders ben je vroeg je laat sowieso je data kwijt, dat heeft niets met wel of niet Apple te maken.
Dat zeg ik toch niet? Alleen is het vooral apple die al zijn apparaten maakt op een manier waardoor ze onrepareerbaar en niet te upgraden zijn. Als ik een dell (of insert ander pc merk hier) laptop koop kan ik afhankelijk van het model zelf geheugen of opslag kopen voor een fractie van de prijs die dell vraagt. En die ook vervangen als die kapot gaan, of als ik meer opslag/geheugen nodig ben. Als jij dan liever de hoofdprijs betaalt bij apple prima, maar het wegnemen van de optie is objectief slecht voor de consument. Niet alleen bij de aanschaf, maar ook daarna.

En tuurlijk zou je je data altijd moeten backuppen, of syncen in de cloud (hey daar heeft apple ook een vinger in de pap), maar niet iedereen doet dat en er is altijd wel iets wat je achteraf toch niet kwijt kon/wou. Het feit dat er geen enkele manier is om die data terug te krijgen is gewoon idioot. Apple had een connector voor data-recovery op laptops (moest wel via apple zelf natuurlijk), maar die optie is inmiddels ook weg.

Het heeft wel degelijk met apple te maken, het design van hun laptop, en de manier waarop ze 'repareren, zorgt ervoor dat je data weg is als er ook maar één onderdeel kapot gaat. Want alles zit op 1 moederbord vastgesoldeerd, en apple's 'reparatie' doet niks anders dan het hele moederbod vervangen. Weg data dus.

Recente macs met m chips zijn geweldige apparaten. Maar er zijn genoeg nadelen die gewoon benoemd moeten worden. Waaronder de idiote prijs van extra geheugen/opslag die apple vraagt, en de repareerbaarheid/upgradebaarheid van apparaten. Dat is allemaal wel degelijk van belang, voor de consument maar ook voor het milieu (iets wat apple zelf zegt hoog in het vaandel te hebben).

[Reactie gewijzigd door Raphire op 22 juli 2024 15:18]

Alles wat je schreef wordt als een mantra bij letterlijk elk bericht over Apple 25 tot 150 keer herhaald, afhankelijk van hoeveel reacties er op komen, nog afgezien van het feit dat het sowieso al in elke artikel meerdere keren wordt vermeld.

En prima dat de nadelen ook genoemd worden, maar de reacties gaan bijna alléén máár over ‘te duur’, ‘wat is het nut’, ‘welke doelgroep’, etc.

Ik lees deze review en reacties in de hoop zinnige informatie te vinden, zodat ik een goede keus kan maken, niet om wéér dezelfde kapotte grammofoonplaat te horen.

In plaats daarvan lees ik (al twintig jaar) bijna alleen maar dat Apple véél te dure producten maakt, waar niemand op zit te wachten.

Tegelijkertijd verkopen ze tientallen miljoenen veel te dure computers en honderden miljoenen veel te dure telefoons en veel te dure tablets per jaar. Wat je er ook van vindt, blijkbaar doen ze toch iets goed, anders blijven mensen jaar na jaar al die ‘veel te dure’ hardware toch niet kopen??

Ik heb ook al vaak gemerkt dat veel critici niet of nauwelijks bekend zijn met macOS, maar wel menen anderen uit te moeten leggen hoe overpriced het allemaal is.

Een auto kopen en er dan voor € 2.500 andere velgen onder laten zetten, dat vind niemand vreemd, maar een desktop van € 2.500 tja dat is bizar natuurlijk.
Precies, zo'n systeem is toch een (dure) gereedschapkist. En als je die niet kan uitbreiden is het een beetje lastig.
Aan de andere kant, de pc dus, heb je die uitbreidbaarheid wel. Maar de voornaamste afnemers zijn hier gamers lijkt het wel.

Op dit item kan niet meer gereageerd worden.