Benchmarks Apple M2 Max wijzen op 20 procent prestatiewinst tegenover M1 Max

Er zijn benchmarks van de M2 Max van Apple opgedoken. De geteste soc beschikt over twaalf cores, in plaats van tien cores zoals bij de M1 Max. De singlecorescore is bijna 10 procent hoger dan die van de M1 Max. De multicorescore zou bijna ongeveer 20 procent hoger zijn.

De benchmarks van de M2 Max zijn in de database van Geekbench verschenen. Daarin staat te lezen dat de soc een singlecorescore van 1889 punten heeft. De M1 Max met tien cores behaalt daarin ongeveer 1750 punten. Wat de multicorescore betreft, haalt de M2 Max 14.586 punten. De M1 Max behaalde op die test rond de 12.200 punten. De kloksnelheid van de M2 Max zou standaard op 3,54 Ghz liggen, met een boostclock van ongeveer 3,7GHz. De soc zou over 4MB L2-cachegeheugen beschikken en er zou 96GB aan werkgeheugen geïntegreerd zijn.

Het is onduidelijk of het effectief om de Apple M2 Max-soc gaat. Uit de Geekbench-scores valt voorlopig ook niet af te leiden of dit het enige exemplaar van de chip zou zijn, of niet. Apple introduceerde de M1 Max eind 2021. Toen betrof het een versie met 10 cpu-cores. De M1 Max ondersteunt maximaal 64GB aan werkgeheugen met een bandbreedte van 400GB/s. Hoeveel de geheugenbandbreedte bij de M2 Max zal bedragen, is nog niet duidelijk.

Benchmarks Apple M2 Max Bron: Geekbench
Benchmarks Apple M2 Max Bron: Geekbench

Door Jay Stout

Redacteur

30-11-2022 • 19:55

95

Lees meer

Reacties (95)

Sorteer op:

Weergave:

Mijn i9-13900 haalt 2138 voor single-threaded performance. en 26000 (afgerond) voor multi-threaded performance. Beduidend beter dan de chip van Apple maar ook weer niet zo enorm veel.

Het grote verschil dat de Noctua koeler voor de i9 net zo zwaar is als de laptop waar deze M2 MAX in gaat zitten (bij wijze van spreken).

De performance per watt ratio is bij de x86 architectuur eigenlijk op dit moment behoorlijk ver zoek. En dat zegt iets over beide partijen.

Voor mij zegt dit vooral dat Apple performance uit laptops op de batterij kan halen die op x86 alleen met desktops behaald kan worden. Alleen hele specialistische workloads hebben misschien nog de performance van een desktop nodig.

Of anders gezegt: specialistische workloads hebben nog x86 nodig maar de zuinigere ARM architectuur kan langzaam maar zeker wel eens voor een omkanteling zorgen.

[Reactie gewijzigd door Q op 24 juli 2024 15:41]

De performance per Watt ratio is volkomen zoek bij x86, omdat de focus gelegd wordt op de prestatie kroon in plaats van op efficientie. Daar maken niet alleen de fabrikanten zich schuldig aan, maar de consument net zo zeer die de cpu die 3% meer fps haalt zo nodig moet hebben en de keuze vnl basseert op max prestaties en benchmark scores. Als we niet met een energiecrisis te maken zouden hebben zou het verbruik het gros van de lezers hier uberhaupt niks uit maken.

Neem bijv een oude ryzen 7 4800u. Dat is een prima en behoorlijk zuinige CPU die voor 95% van de mensheid volstaat. De Zen 4 architectuur is tot een veel hogere performance/watt ratio in staat dan de 4800U, maar daar is niet voor gekozen en dat kan alleen maar aan de verwachte marktvraag liggen.
Nu bij Zen 4 en de 13XXX lijkt - door toedoen - van de energiecrisis er eindelijke een kentering te komen in het consumptie gedrag.

Misschien dat dat de CPU makers eindelijk eens aanzet desktop APU's met een max vermogen van bijv 30W of 45W uit te gaan brengen. Maar zolang mensen zoals jij die het zich wel afvragen maar toch een 13900 blijven kopen, moet ik dat nog eerst maar eerst eens zien gebeuren.
Precies, een van redenen waarom ik nog steeds op 4770 blijf zitten. Het werkt nog steeds prima en doet wat het moet doen. Energiekosten zijn bij ons gestegen dus laat de upgrade maar zitten. Evenals de GPU upgrade.

Het leuke is, toen ik van GTX780 naar 1080Ti, is het verbruik lager geworden. Ondanks op Adaptive of Optimaal vermogen, kan ik toch GTAV op ultra/vh en op 1440p60 spelen. Met de 780 kan dat helemaal niet.
Dus je blijft bij de 4770 omdat de energie kosten gestegen zijn, echter lijkt een 4770 veel minder efficient te zijn dan de huidige generatie. Waardoor je waarschijnlijk meer stroom verbruikt om hetzelfde werk te verzetten, juist doordat je een oude cpu blijft gebruiken.

Ik zie bijv. een CB 23 score voor een I7 4770 van 3349 bij een verbruik van +-95W
Kijk ik naar mijn eigen 5800X3D, die doet +-15000 punt bij een verbruik van +-90-100W

En zo zal vrijwel iedere moderne cpu een stuk minder verbruiken dan de 4770 om hetzelfde gedaan te krijgen.
Niet perse, het is ook omdat ik genoeg aan een 4770 heb. Het is daarom makkelijker om het uit te stellen. Toevallig is de 5800X3D de eerste cpu waar ik aan denk mocht ik mijn 4770 ooit gaan upgraden. Primaire doel is ook gaming.
Mocht je nou willen upgraden dan zou ik aanraden een jaar of 2 te wachten voor een am5 bord met processor te kopen. Zo heb je in de toekomst nog wat mogelijkheden op hetzelfde platform. Op am4 komt namelijk vrijwel niets meer tegenwoordig. Tuurlijk is het wat prijziger maar vandaar een jaartje of 2 wachten. Tegen die tijd zal ddr5 wel wat goedkoper zijn, en in ieder geval zal de 7000 series minder geld kosten. Nu lopen die chips relatief heet maar je kan ze ook gemakkelijk undervolten zodat ze minder stroom en hitte verbruiken. De moederborden zullen helaas nog wel een beetje prijzig blijven maar helaas, daar valt niet veel aan te doen omdat amd nu wat meer geld vraagt per chipset, ddr5 controllers zijn duurder etc. Nu hoef je natuurlijk niks aan te nemen van mijn advies, het is gewoon wat ik zelf zou doen zou ik in jouw situatie zitten. :)

[Reactie gewijzigd door benvanoers op 24 juli 2024 15:41]

Een cpu kopen dat relatief heet wordt waardoor de betalende klant het moet gaan undervolten gaat tegen mijn principes in. Want ten eerste, de klant moet een deugdelijk product hebben waarbij hij/zij niets hoeft te doen. En tweede, helaas weet ik niet hoe ik een cpu moet undervolten en ik ben vast en zeker niet de enige.

En ik ga overigens absoluut niet in met de wensen van AMD om hun peperdure moederborden te betalen, dat staat vast. Waarom nou veel meer betalen als de vorige generatie nog zat genoeg is? En de belangrijkste: heb ik al die nieuwe features wel écht nodig? Ik stem met mijn portemonnee en gezond verstand en upgrade/koop alleen wat zinvol is.
Wellicht dat de 8e generatie minder heet loopt. Verder heb je wel gelijk inderdaad, toch nog niet de moeite helemaal waard.
excuus trouwens, ik wilde simpel wat aanraden en er verscheen een heel artikel :P
/Offtopic, is het mogelijk om 5800X3D op 65 watt te cappen, blijft die stabiel en hoe is de performance impact?

Gezien ik geen CPU/PSU/Chipset fans meer wilde in mijn systeem heb ik voor een passief koelblok van Arctic gekozen, nu gepaard met een 5700G(GPU's waren onbetaalbaar en ging mijn 2e systeem niet kannibaliseren, heb nu een X6800XT maar daarvan hoor je de fans alleen tijdens gamen en furmark). Gezien de 5800X3D waarschijnlijk niet lang (meer) leverbaar zal zijn is mogelijk een goede "final upgrade" voor mijn AM4 systeem.
Softwarematig kan dat sowieso, met bijv. PBO2 tuner, of je de 5800X3D in het bios kan cappen op 65W hangt van je moederbord en bios versie af.

Stabiliteit zal het probleem niet zijn, hoeveel performance je verliest durf ik niet met 100% zeggen, dat dit van de workload af hangt. In sommige (gaming) workloads is de 5800X3D immers zo zuinig dat hij de 65W niet eens aantikt bij normaal gebruik zonder cap. Dat is echt 'meten is weten'.
Mijn bord ondersteund het idd, dus is de moeite waard om het te proberen. Het is de boost van de 3D V-cache die ik wil hebben.. Ik ga eens een weekje testen met de X58003D denk ik. :)
Weegt dat extra energieverbruik op tegen de 200 euro die hij uit moet geven (of dat hij weer elektronisch afval creëert etc?). Het is allemaal niet zo zwart wit helaas.
Nu kijk je naar piekprestaties, maar hoeveel procent van de tijd moet de gemiddelde PC zo hard aan de bak?

Meeste mensen zitten en beetje te browsen op Facebook, kijken een youtube videootje, spelen misschien nog eens een - relatief intensief voor je PC - spel maar zelfs dat wordt bij de fanatieke gamert vooral op de gpu afgewenteld.

Computers staan het grootste gedeelte van de beschikbare rekentijd idle te wachten tot de volgende muisklik of toetsenbordaanslag.

Het zal meer invloed hebben als een processor in 'rust' 10 Watt meer of minder verbruikt, dan op piekvermogen.
Dat benoemde ik bewust niet, omdat daar vrij weinig in lijkt te zitten.

Ik heb bijvoorbeeld hier nog een systeem staan met een i5 4670 (het kleinere broertje van de cpu waar we het hier over hebben) en dat systeem heeft een redelijk vergelijkbaar idle verbruik als mijn 5800X3D systeem. Dat heb ik bij aanschaf nog bekeken, met zoveel mogelijk dezelfde hardware in beide systemen.

Verder heeft Tweakers heeft bijv. de 5800X3D op 13W idle in hun revisit van een paar dagen geleden. De enige data die ik kan vinden van een 4770 die getest is op cpu verbruik in idle, waarbij alleen de cpu is gemeten en niet het hele systeem heeft de 4770 ook op 13W.

Als daar dus al een verschil in zit, lijkt dat heel minimaal te zijn.

[Reactie gewijzigd door Dennism op 24 juli 2024 15:41]

Ik weet het niet uit m’n hoofd van PC chips, maar zelf werk ik met een Mac Pro en daarvoor o.a. een PowerMac G5 etc en daarbij zijn in de loop der jaren enorme verschillen ontstaan qua ‘idle’ verbruik. Maar goed, dat zijn niet de PC’s die de gemiddelde Nederlander thuis heeft staan. Bij een iMac of Max mini zijn de verschillen al kleiner.
Ja, in workstations zie je dat veel meer, en bij Apple Workstations misschien nog wel meer, omdat ze van Power naar x86 en nu naar ARM gegaan zijn. Als ik kijk naar workstations die wij 10 jaar geleden wegzetten bij klanten, en degenen van nu zijn die nieuwere qua idle inderdaad vaak zeker flink beter.
Je beseft je wel dat je voor onder de 200,- een:

B450
Ryzen 3600
3200mhz 16GB RAM

Hebt als je op tweakers bij vraag en aanbod kijkt. Deze combinatie rent rondjes om jouw 4770 in alle taken. en je hebt er 2 cores extra bij. Ik kwam van een i7-2600K OC 4.7ghz en het was echt wel ff wow factor. Ook nog upgrade mogelijkheden naar een 5600x of zelfs 5800x op dat zelfde moederbord.
Thanks! Zal ik dat onthouden. Zolang het DDR4 ondersteunt en geen achterlijk dure moederbord is.
Ik zit momenteel nog op een 2600K @ 4.8Ghz. maar dit zou wel een aan te raden upgrade zijn begrijp ik dus?
Ja, het is veel sneller en je stroom verbruik gaat flink omlaag.
Ik ben van de 2600k naar de ryzen 5600x gegaan, echt een geweldige upgrade en ik heb er geen moment spijt van. De 2600k is ook wel een pareltje! Maar na 11 jaar wel aan een upgrade toe ;)
Ik heb mensen wel vaker een zuinige NUC aangeraden, maar die betaalden dan toch honderden euros teveel voor een grote desktop die voor simpele taken wordt gebruikt enkel (veel browsers tabs open hebben, youtube en powerpoint zullen tot de zwaarste zaken behoren). Groter is beter, en onnodige poespas is ook wat waard. Of het nou om autos of computers gaat, de consument blijft er voor gaan.

Tot recent was zuinigheid toch vooral iets waar je aan mee deed omdat het trendy was, niet omdat veel mensen er echt om geven helaas. Ook nu is het vooral economische noodzaak.
Misschien, Koomey's law: (soort update van Moore's law, maar kijkt naar andere indicatoren)

https://en.wikipedia.org/wiki/Koomey%27s_law
X86 is helemaal niet zo inefficiënt.

Het verschil tussen ARM en X86 op performance per watt is heel erg klein en heel erg afhankelijk van hele specifieke workloads. Soms is ARM sneller en zuiniger, soms is X86 sneller en zuiniger. Meestal gaan ze redelijk gelijk op.

Het grootste verschil zit heb in het minimale vermogen. ARM schaalt veel verder naar beneden, waar X86 met een veel hoger minimaal vermogen pas werk begint te verzetten.
wauw wat een tegenvaller weer, de m2 viel ook al zo tegen. Waar intel eerst met deze droevige cijfers kwam, lijkt apple dit te volgen, echter gaat de concurrentie nu velen malen harder per generatie. Eigenlijk had ik verwacht dat apple elk jaar iedereen weg zou blazen, echter valt dat tot nu behoorlijk tegen.
IPC verbeteringen van recente CPU-architecturen:
  • Arm Cortex-X3 (2022): 11%
  • AMD Zen4 (2022): 13% (in 2 jaar)
  • Intel Golden Cove (2021): 19% t.o.v. Cypress Cove
  • Intel Cypress Cove (2022): 0%.
Voor de M2 Pro, Max, Ultra en mogelijke andere varianten moeten we een heleboel nog gaan zien. Naast IPC zijn kloksnelheden natuurlijk ook van invloed op single-core performance. En een verbetert productieproces kan die weer mogelijk maken.
Dan heb je eerlijk gezegd denk ik gewoon nogal onrealistische verwachtingen.
Aple blies al het andere weg door 5nm tsmc voorsprong dan ben je zuinig met performance en ook architectuur dat gemaakt is voor `zuinig heid ipv idioot goede klok schaling wat meer tdp brengt dan performance. Naast de memory on soc wat ook performance mee brengt en low latency.
Dat voordeel is weg tov AMD waar intel helemaal wild gaat met kloks en tdp.
Zolang apple nog niet op 3nm zit kan flinke sprong niet verwachten.
De voorsprong van Apple ligt niet zo zeer in de 5 nm maar vooral in andere zaken zoals geïntegreerd geheugen en video. En ja, dat heeft ook zijn keerzijde, want upgraden wordt vaak onmogelijk, maar het werkt wel heel goed qua efficiënte. Alleen.. zo'n stap kun je niet elke chip-generatie maken. Dus het is niet realistisch om elke paar jaar, laat staan elk jaar, zo'n stap te verwachten.
Ben benieuwd welke generatie dan “zo hard gaat” volgens jou.
Volgens mij was de m2 een meer dan prima chip voor een thin and light die ruim sneller is per wat dan alle concurrenten. De M1 Pro (max) zijn nog steeds de snelste in hun klasse. Wat is er precies zo droevig?…
Voor degene die nu nog twijfelen en wachten op de M2 Pro/Max, ik zeg nu kopen bij mooie aanbiedingen!

De prijzen gaan straks minimaal 10-20% omhoog, dit zagen we o.a. terug bij de Macbook Air, iPhones en iPads.

[Reactie gewijzigd door Greatsword op 24 juli 2024 15:41]

Yep, daarom heb ik ook na de presentatie van de nieuwe MacBook Air, de M1 voor een leuk prijsje op de kop getikt. Het zijn nog gewoon prima machines.
Same here, Macbook Air M1 met 16gb ram voor flink minder dan die nieuwe Air met 8gb ram.
Same here Mac Mini M1.... Maar die gaat binnenkort (den ik) de deur weer uit omdat ik er helaas niet de workflow op kan realiseren die ik wel op een pc kan (wat te maken heeft met de software waar ik aan vast zit). Die taak wordt nu door een HM80 met 4800u overgenomen, maar die verbruikt helaas tot 2x zo veel stroom, maar daarbij kan ik wel naar hartelust het geheugen uitbeiden of een tweetal SSD's bijplaatsen.
Wat ik doe op de mac mini voldoet die last x86 gen dus vervangen zou alleen voor de heb zijn . Misschien als ik wat verder ben met swift xcode en ook wat meer met Metal Api zijn m2 of m3 pas interesant . Nu nog nuc achtig iets met apu met wat krachtige igpu. Meteorlake en phoenix in de toekomst.
Maar 1st de recesie uit zitten.
Same here net mijn M1max binnen whoehoe
Ik had geen aanbieding maar om deze reden wel sinds een paar weken een Mac Studio M1 Max in gebruik. Die zal de komende 5 jaar waarschijnlijk al sneller zijn dan wat ik ooit nodig ben.
En ze waren al fameus gestegen..
Ik kan iedere druppel performance goed gebruiken dus ik pak denk ik alsnog een M2. Ik hoop dat er een max komt in een macbook deze keer, 20 cores zijn zeer welkom: De software die ik gebruik (en maak) schaalt vrijwel perfect op het aantal cores.

Mijn desktop 5950X veegt dan ook echt de vloer met mijn huidige macbook pro 8-core i9, alleen zo'n desktop is natuurlijk een stuk minder handzaam.

[Reactie gewijzigd door Gamebuster op 24 juli 2024 15:41]

Maintenance mogelijkheden bij Apple = nihil. Dus voor mij een no-go. Hoe snel/traag ook - het moet mijn toestel zijn dat kan onderhouden worden door mijzelf. Apple beperkt mij te hard in wat ik mag/kan doen met dat toestel - en dus komen zij er voorlopig niet in.
En diegenen die zo'n toestel kopen moeten beseffen dat ze bij een ernstige IT-er niet moeten langsgaan, want die mensen hebben geen tools om de data er af te halen. Zelfs bij een iets oudere apple-notebook zijn de SSD's al 'aangepast' - en dus alleen met hyperlange levertijden mogelijks te verkrijgen. Ik zie dat soort van banditisme echt niet zitten. Als mijn machine stuk gaat - wil ik die snel terug up&running krijgen m.b.v. standaard onderdelen. Het is dat of het is niet.
Dat ben ik geheel met je eens! Hier komt er ook geen Apple in. Zeker geen imac, mijn gewone dekstop (12900k) doet wat het moet doen en kan ik zelf upgraden en onderhouden.
Ieder zijn mening voor beide kanten, maar Apple beperkt de gebruiker wel heel erg. Lijkt wel China :P
De tijd van de computerknutselpakketten heb ik al jaren achtergelaten. De laatste desktop pc die ik had heb ik ook zelf in elkaar gezet en welgeteld 0 keer hardware in vervangen of toegevoegd.
Ik knutsel nog wel eens met software, gaat met een MacBook ook prima. Ben wel blij dat ik geen bakbeest meer in huis heb.
Maar ieder z'n ding natuurlijk en wie het wel leuk vind of er nood aan heeft is het prima. Het "ernstige IT-er" is alleen dikke onzin. Maar prima natuurljk of de niet-ernstige IT-ers die slechts thuis rasberry server racks gebruiken, of die system engeneers die wanneer ze thuis komen gewoon op de bank een laptopje of iPad pakken.
Dat jij die jaren achter je hebt gelaten wil niets zeggen uiteraard. Er zijn vele vele vele die dat nog wel doen en willen. Niet omdat het moet maar omdat het leuk is. De nieuwe macbooks kun je niets meer mee, dat lees je overal wel. Of alles is verlijmt of het is beveiligt. Bij een defect kun je hem wegbrengen.
Dat "ernstige IT-er" begrijp ik ook niet helemaal wat daarmee bedoelt word maar goed dat laat ik dan in het midden.
Ik vind het leuk om te zien hoe mensen met hun PC bezig zijn. Zo is het leuk voor iedereen.
Zoals ik al schreef...
Maar ieder z'n ding natuurlijk en wie het wel leuk vind of er nood aan heeft is het prima.
Ik zou niet weten waarom het mogelijk moet zijn om het te upgraden. Met een M2 (max) zit je toch al aan de top van het segment. Tegen de tijd dat de cpu en andere componenten in een dergelijke pc/laptop een upgrade écht nodig hebben, zal je waarschijnlijk toch veel ineens moeten vervangen. Ofwel: nieuw systeem aanschaffen al snel interessanter. Zeker gezien de restwaarde t.o.v. De component prijs van de upgrades. Een 4 jaar oude Apple is al gauw nog honderden euro’s waard. En mocht je bedrijfsmatig echt het nieuwste en snelste nodig hebben dan is het een kwestie van afschrijving.

Oké, misschien wil je tzt meer RAM of meer opslag? Maar dat had je dan sowieso bij aanschaf al beter kunnen toevoegen met oog op de toekomst.

[Reactie gewijzigd door Huppol op 24 juli 2024 15:41]

Serieus? Door dingen te KUNNEN upgraden kun je langer met je producten doen, en dat in deze wereld met al te veel producten zou het wel fijn zijn om dat te kunnen doen zodat je nog een paar jaar verder kan zonder nieuw te moeten kopen. Maar ik begrijp uit jou woorden dat je het niet erg vind om gedwongen word om gelijk al te veel geld uit te geven.
Maar nogmaals ieder zijn mening, maar ik wil mij niet op laten leggen dat ik gelijk maar het duurste van het duurste moet kopen omdat je achteraf niets met zo een ding kunt. En dan nog niet eens gesproken te hebben over het feit dat die krengen niet eens zelf te repareren zijn, of zoals je al aangaf extra ram/SSD bij wil plaatsen. En om jou woorden te gebruiken als je echt het aller snelste nodig bent ga je niet eens voor een Mac , maar dat wist je zelf ook wel.
Door dingen te KUNNEN upgraden kun je langer met je producten doen, en dat in deze wereld met al te veel producten zou het wel fijn zijn om dat te kunnen doen zodat je nog een paar jaar verder kan zonder nieuw te moeten kopen.
We praten hier over laptops, toch? Ik ga dit weekend bezig met een 3 jaar oude Windows laptop om geheugen bij te zetten (16GB) en de batterij te vervangen (volledig dood). 3 jaar oud en niet meer vooruit te branden. Ik kon het zelf eerst niet eens geloven. Ik heb privé zelfs een 7 jaar oude macbook die nog prima meegaat. Mijn collega naast mij heeft een 2018 Macbook pro (bijna 5 jaar) en die wil geen nieuwe want hij is te lui om alles over te zetten, al mag hij een nieuwe.

Ik wil niet zeggen dat upgrades slecht zijn maar als ik in de praktijk kijk dan zie ik dat MacBook's veel langer meegaan dan Windows laptops? Dat terwijl die windows laptops eenvoudiger up te graden zijn (maar doet iemand dat naast mij?). Mogelijk heeft Apple zijn OS wat beter onder controle zodat het nog goed draait op oudere hardware?

Ik denk dat je even na moet denken over je zin: Door dingen te kunnen upgraden KUN je langer met je producten doen. Maar in de praktijk (ten minste hier op de zaak en in mijn omgeving) zie ik helemaal niemand upgraden... Die dingen worden gewoon afgeschreven of vervangen door goedkope rommel die weer max 3 tot 4 jaar meegaat.

Maar nogmaals ieder zijn mening, maar ik wil mij niet op laten leggen dat ik gelijk maar het duurste van het duurste moet kopen omdat je achteraf niets met zo een ding kunt.
Je zit er veel te extreem in. Er is een balans van verticale intergratie en kosten. Een Framework laptop krijg je ook niet onder de 1100,- euro. Dat is duur... Maar dat komt omdat hij zo repareerbaar is.

Als met al bedoel ik te zeggen dat dit niet binair is. Een apparaat heeft vele punten die de toekomstvastigheid bepalen. Om maar even een Windows 11 te benoemen die de meeste mensen niet kunnen installeren... Hoeveel e-waste gaat dat wel niet opleveren.
Dat niet vooruit te branden is meestal de de schuld van de gebruiker, door allerlei troep en zooi op de gooien. Ik heb hier een HP probook van zeker 11 jaar oud en daar heb ik laatst een ram upgrade gedaan en dat ding draait (win10) weer als een teirelier! Dus upgraden heeft zeker wel zin. Dat jij dat niet doet of de kleine hoeveelheid mensen die je in verhouding kent dat niet doen wil niet zeggen dat het grote deel dat wel doet om wat geld uit te sparen voor gelijk een nieuw systeem. Dus ik heb zeker wel over mijn zin nagedacht, misschien zou jij dat ook kunnen doen over de zin "ten minste hier op de zaak en in mijn omgeving" ;-) Want dat zijn maar een kleine hoeveelheid mensen. En jij praat uit de zakelijke hoek met afschrijven, vele gebruiken hun pc nog na 5 jaar, omdat ie nog doet wat ie moet doen.
Een maat van mij heeft een Imac van 2020, en als hij bv in Lightroom gaat werken is het zo traaaaaaag in vergelijking met mijn eigen PC dat ik echt niet een Mac voor de snelheid moet hebben hoor.
Voor wie een upgrade een toegevoegde waarde heeft ( en niet altijd het nieuwste van het nieuwste willen want dat is het probleem met ons mensen ) zou ik zeker aanraden om voor een klein bedrag dit te doen. Niet iedereen draait Acad programma's.
Maar ieder zijn idee daarover toch? Ik denk er zo over en dat zal niet veranderen :D
Dat niet vooruit te branden is meestal de de schuld van de gebruiker, door allerlei troep en zooi op de gooien.
Helemaal mee eens en precies mijn eerste reactie.
Eerste actie, nieuwe Windows installatie erop en nog niet vooruit te branden.....
Vandaar ook de tweede actie om geheugen uit te breiden en de batterij te vervangen (ik hoop echt dat het gerelateerd is aan de batterij maar ik kan niet zien hoe dit kan).

misschien zou jij dat ook kunnen doen over de zin "ten minste hier op de zaak en in mijn omgeving"
Dat heb ik ook zeker gedaan. Ik nuanceer mijn eigen argument door duidelijk te maken dat dit enkel mijn observatie is (en niet een feit).

En jij praat uit de zakelijke hoek met afschrijven, vele gebruiken hun pc nog na 5 jaar, omdat ie nog doet wat ie moet doen.
Haha, ik heb ook familie en onderhoud (helaas nog genoeg oude ellende) nog 2 van die dingen. Maar laten we wel realistisch zijn, die mensen 'werken' niet echt op die oude laptop. Die gaan 1x per maand aan om even een email naar de dochter te sturen. Ik bedoel echt mensen die zich ook irriteren aan het feit dat een apparaat langzaam is.

Een maat van mij heeft een Imac van 2020, en als hij bv in Lightroom gaat werken is het zo traaaaaaag in vergelijking met mijn eigen PC dat ik echt niet een Mac voor de snelheid moet hebben hoor.
Als een Lightroom gebruiker op PC, is alle Adobe software niet langzaam en ellendig op alle platformen? :+

Maar ieder zijn idee daarover toch? Ik denk er zo over en dat zal niet veranderen :D
Zeker, daarom ook mijn reactie. Het enige wat ik ermee bedoelde is dat het een of de ander is. Er zijn wel 50 kleuren traagheid..
Een maat van mij heeft een Imac van 2020, en als hij bv in Lightroom gaat werken is het zo traaaaaaag in vergelijking met mijn eigen PC dat ik echt niet een Mac voor de snelheid moet hebben hoor.
Als een Lightroom gebruiker op PC, is alle Adobe software niet langzaam en ellendig op alle platformen? :+
Nee absoluut niet! als mijn maat hier is en we zijn in Lightroom bezig zegt hij regelmatig tegen mij "wat werkt jou pc/Lightroom" ongelofelijk snel!
Mijn punt is dat je geen mac nodig bent als je een snel systeem wil. Dan zijn er betere systemen. Qua Os is maar wat je gewend bent en Mac os en de huidige Windows systemen liggen zo dicht bij elkaar. Ik heb sinds Windows 10 nooit meer problemen gehad of BOSD schermen. Ik blijf erbij dat de gebruiker zelf de ellende veroorzaakt. Overal op klikken, alles installeren wat ze leuk lijkt enzo.
Dat gaat niet lang meer duren, laptops kunnen al niet meer CPU vervangen en met DDR5/DDR6 gaat RAM ook al niet langer meer kunnen vervangen worden zonder een (veel duurdere, dus de markt gaat die optie niet kiezen) module - omdat de chips rond de CPU moeten om de sporen kort genoeg te houden zodat het signaal op tijd naar de chip gaat.

Zelfs de Framework laptop kun je de CPU niet vervangen zonder het volledig moederbord en er zullen ook integratieproblemen komen als je tussen generaties gaat upgraden. Op de forums geven ze ook toe dat zelfs tussen dezelfde generatie AMD en Intel moederborden genoeg veranderingen nodig zijn dat het hele concept niet meer werkt.

Intel is ook al bezig om meer en meer RAM op de chip te zetten, ik denk dat na DDR6 RAM of een soort van tiered systeem waar je basis RAM op de CPU bijna verplicht wordt van de fysica, en dan de rest van je RAM via PCIe op de SSD, net zoals Apple dit vandaag doet met M1/M2

[Reactie gewijzigd door Guru Evi op 24 juli 2024 15:41]

Een real-time synchronisatie van alle bestanden naar offsite storage is de best mogelijke backup. De machine mag dan aftikken en alle bestanden, ook die van 20 seconden geleden, heb ik nog. Ik kan het iedereen aanraden.
Neen, dat is geen backup. Laat staan een goede backup(strategie).

Op het moment dat je een gebruikersfout maakt, zoals het per ongeluk verwijderen van een bestand, ben je het haasje.
Op het moment dat je gehackt wordt (en de bestanden versleuteld worden) ben je de sjaak.

Een (goede) backup(strategie) is er een waarbij minimaal één exemplaar van je bestanden op een andere locatie staan waarbij ze niet vanaf jouw locatie benaderbaar zijn. Dus absoluut geen real-time synchronisatie.
Hij bedoelt wellicht zo iets als Backblaze? Niet Dropbox of iets dergelijks.
Aanvulling op het voorgaande bericht, mijn advies omvat een geversioneerde synchronisatie.

Zoals ik het hier heb ingericht is er ook een periodieke backup, iedere zes uur, van de NAS waarmee ik op bestandsniveau synchroniseer, met behoud van de versies. Daarnaast nog een incidentele kloon van de complete systeemschijf. De data staat kortom op minimaal vier verschillende plaatsen.

Of te wel, als mijn laptop nu instort dan kan ik meteen weer verder waar ik gebleven was. En een data restore kan tot heel veel versies terug plaatsvinden.
Je maakt toch hoe dan ook backups van je data? Ik heb jaren lang Windows gedraaid en sinds en half jaar een MacBook, maar heb er nooit op vertrouwd dat bij een defect de data van de schijf kon worden gehaald.
Ik geloof niet dat het om echte problemen gaat. Hij wil gewoon zeuren dat Apple niet voor stoere echte IT-mannen zoals hijzelf is.
Het staat je dan ook geheel vrij om het niet te kopen en gewoon voor een concurrerend merk te gaan die er een andere visie op nahoudt.
Wat is een ersntige IT-er? Iemand die z'n koninkrijkje aangetast voelt worden omdat er spullen zijn die gewoon werken waardoor hij misbaar wordt?
Men zegt dat je vaak met de tijd mee moet gaan en open moet staan voor alternatieven maar IT-ers blijven in mijn ogen te lang bij hetzelfde en staan niet open voor alternatieven. Ik ken welgeteld 2 it-ers die van Windows naar Apple zijn gegaan en die vinden het een verademing (ik raadde diegene aan om eens Apple te proberen).

Het valt me op dat de gemiddelde it-er zo vast zit in Windows dat het een soort kap vormt die in een tunnelvisie leid en die tunnel heet ''windows only''. Ja, er zijn met de wisselingen van Intel naar de M1 chip veel problemen geweest bij fabrikanten maar Adobe en veel 3D programma's willen niet snel schakelen. Dit zie je terug in de 3d wereld.
Persoonlijk ervaar ik veel minder problemen met macOS dan met een Windows operating system. Door de jaren heen blijkt het veel stabieler, minder downtime en dus meer productiviteit.
Dat heb ik dus ook. Lightroom, Photoshop en Avid doen er het super op. Final Cut Pro X is ook een hele goede aanvulling voor me producties en draait super :) Ik upgrade thuis binnenkort naar een M-processor want heb nu nog een intel staan maar zit heel erg te twijfelen tussen de M1 en M2. De M1 is al zo snel O+
Wat ik ervan begrijp is het verschil tussen een Intel Core CPU en de Apple M1 gigantisch, vooral als je kiest voor de M1 Pro of M1 Max. Het aangegeven snelheidswinst van de M2 Pro en Max is in dat perspectief gezien relatief bescheiden. De M1 Ultra laten we even buiten beschouwing want dat is echt weer van een hele andere orde. Een M1 Pro / Max is een prima keuze. Ook hier staat een nieuwe MacBook op de verlanglijst die spoedig gaat worden ingelost.
Klopt de titel dan wel? De M1 Max is al bijna 20% sneller dan de M1 Pro
Inderdaad, daar stond een fout! Is aangepast :)
We kunnen allemaal roepen goed of slecht, maar feit blijft dat het socs zijn die een dusdanige prestatie leveren onder een X minimale watt dat het vooralsnog een leidende rol heeft genomen in de consumentenmarkt.

Mijn M1 MP is zo ‘snel’ zonder dat je een fan hoort blazen dat ik voor een laptop geen andere soc meer wens. Voor mijn Mac Pro blijf ik gewoon bij Intel. Ook als de Mac Pro 8,1 alleen de Apple soc bevat. Bij een pro machines, zoals dus de huidige Mac Pro, wens ik nog steeds uitbreidbaarheid van mijn hardware zoals PCie sloten, ram sloten en cpu upgradable. Een Mac Pro met een Apple soc welke zijn geheugen en gpu ingebakken heeft is geen Pro machine (voor mij).
Een Mac Pro met een Apple soc welke zijn geheugen en gpu ingebakken heeft is geen Pro machine (voor mij).
.

Er is werkelijk geen enkele indicatie dat de M2 Extreme (niet mijn naamkeuze) niet met externe hardware overweg zou kunnen. Dus er is nog geen enkele reden om aan te nemen dat uitbreiden wel of niet mogelijk is

[Reactie gewijzigd door Snowfall op 24 juli 2024 15:41]

Dan weet ik niet onder welke steen jij leeft, maar de M socs van Apple hebben allemaal het geheugen en gpu ingebakken zitten. Als deze in de volgende 8,1 Mac Pro komt denk ik niet dat men het geheugen uit kan breiden zoals het nu kan in alle vorige Mac Pro modellen.
Wow serieus? Ik had werkelijk geen idee... Doe toch normaal, heb zelf een M apparaat en weet echt wel hoe de architectuur in elkaar zit. Ik develop er zelfs voor.

Er is gewoon geen enkele reden om aan te nemen dat het niet uit te breiden is met normaal DDR5 voor een Mac Pro. M chips hebben genoeg IO aan boord om externe reepjes DDR5 aan te sturen. Trouwens ook meer dan genoeg Memory lanes. Technologie hiervoor bestaat namelijk gewoon al sinds de jaren 80. Of Apple het implementeert is een andere discussie maar nu aub niet gaan doen alsof een Chip die memory on Die heeft onmogelijk dedicated memory zou kunnen aansturen.

Technologisch is er geen enkele reden om dit niet te kunnen doen.

Net zoals een M2 extreme of whatever geen dedicated GPU aan zou kunnen voeren. We weten namelijk nog niets over de M2 extreme en wat ze er mee van plan zijn.
Misschien ook CXL io porten of TB4 iig MAC pro is dat wel gewenst meerdere dgpu en extenden memory en opslag.
Geheugen uitbreidden gaat wel niet kunnen met gewone DDR reepjes. Waarschijnlijk een speciale module om snelheden te behouden.

Ik denk zelf dat we naar een toekomst gaan waar RAM op de chip gebakt wordt en dan ofwel een deel van de SSD als SLC aanspreken (zoals momenteel in de desktop/laptop van Apple) en dan voor high-end zoals de Mac Pro/Xeon ga je dan DDR5/6 als L2 RAM gebruiken of als SSD snel genoeg zijn, gewoon een extra reepje ultra-snel SLC SSD.

[Reactie gewijzigd door Guru Evi op 24 juli 2024 15:41]

Je kan er eigenlijk weinig over zeggen omdat het geruchten zijn. Maar mocht het kloppen, dan lijkt het me dan de M2 Pro/Max versies op 5nm zijn blijven steken, een 3nm chip zou toch sneller moeten zijn. Tijd zal het leren.
20% meer in multicore performance is wat mij betreft helemaal niet slecht. Zeker niet voor het power package waarin de M1 en M2 series lopen. En daarbij als we echt eerlijk zijn. Er zijn weinig use cases waar de M1 max of zelfs Ultra als langzaam wordt ervaren. Rock zelf een Studio met de M1 Max en gebruik het vooral voor 4K videobewerking, programmeren en UI Design en soortgelijke. Bespaar tegenover mn Intel Mac uren per week aan compileer en export tijden.

M2 wordt trouwens wel de basis voor de Mac Pro. M2 Ultra met 20 Cores of de M2 Extreme (naam onder voorbehoud) met 40 Cores voor het high end Model.Zelf niet voor in de markt maar natuurlijk wel gaaf om te zien.
Waarom wordt in het artikel de M2 Max niet vergeleken met de M2?
Ik ben blij dat ik niet gewacht heb ik de M2 en gewoon voor de M1 Max ben gegaan. Ik kan bijna 4-5 dagen puur op batterij werken als ik geen grafische programma's nodig heb.
Hoeveel procent zakt de performance in als je op je accu werkt ipv netstroom?
Tot zover ik kan merken, niet. De taken waarvoor ik mijn MacBook nodig heb zijn niet super intensief.(fotobewerking, light video edit en af en toe eens een spelletje)

Het valt het meeste op als ik aan het gamen ben op batterij (War Thunder, 4K, ultra), dan gaat de batterij snel naar 0%, maar merk ik niets van performance drops. Power management staat ook gewoon op automatisch.

Op dit item kan niet meer gereageerd worden.