Mark Gurman: Apples M3 Pro-chip krijgt 12 cores en gpu met 18 cores

De aankomende M3-chip van Apple zou een chipset met twaalf cores zijn, die ook 18 grafische cores heeft. De soc zou daarnaast 36GB geheugen hebben, schrijft Mark Gurman op basis van informatie in de App Store.

Bloombergs Mark Gurman baseert zich in zijn nieuwsbrief op data uit de App Store waar een ontwikkelaar toegang toe kreeg. In die data is te zien dat Apple al werkt aan een M3 Pro-chip die zou draaien op een nog niet aangekondigde Macbook Pro met macOS 14. Het standaardmodel van die M3 Pro zou in totaal twaalf cores hebben. Dat zijn er twee meer dan het standaardmodel van de M2 Pro die eerder dit jaar uitkwamen in de MacBook Pro's, al kon de M2 Pro ook met twaalf cores worden geleverd. Het is niet bekend of er meerdere modellen van de M3 Pro uitkomen, maar dat lijkt wel aannemelijk gezien de eerdere releases.

Zes van de twaalf kernen op de M3 Pro zijn snelle kernen. De andere zes zijn juist efficiënte voor lagere werkbelastingen. Daarmee zit er vooral verbetering in die laatste categorie; bij de M1 Pro en M2 Pro zaten er ook al zes snelle kernen in het apparaat.

De M3 Pro krijgt daarnaast een geïntegreerde gpu met achttien cores. Ook dat zijn er twee meer dan bij het vorige model. Het geheugen gaat ten slotte ook omhoog van 32GB naar 36GB. Volgens Gurman laat Apple de chips op TSMC's 3nm-procedé bouwen, wat het bedrijf de mogelijkheid geeft meer hardware kwijt te kunnen op een kleiner oppervlak.

Door Tijs Hofmans

Nieuwscoördinator

15-05-2023 • 07:34

142

Reacties (142)

142
141
63
2
0
66
Wijzig sortering
Ik vraag me af hoeveel vraag hierna is. De M1 was een denderend success in de markt dankzij de prestaties maar ook dankzij covid. De M2 sales waren ronduit betreurend wat niet geheel verwonderlijk was vanwege einde covid maar ik vermoed dat ook veel mensen gewoon nog geen upgrade nodig hadden. Dankzij dat apple slechts sporadisch grote veranderingen doorvoert zijn de sales ook heel onregelmatig. Last but not least met de M2 zijn de upgrade kosten ook gewoon asociaal geworden, ik snap dat Apple de gedaalde sales probeert te compenseren via upgrade kosten maar het mag onderhand duidelijk zijn dat veel mensen dit zat zijn. Dus wilt Apple weer goed verkopen dan dient de M3 daadwerkelijk weer een game-changer te zijn en daarnaast de verkoop prijs met upgrade kosten een stuk schappelijker te zijn.
Ik denk dat de M2 sales vooral tegenvallen omdat de M1 zo ongelofelijk goed presteert. De M2 is nog flink wat stappen verder maar de meeste mensen zullen meer dan tevreden zijn met een M1. Eigenlijk kan je stellen dat de producten "te" goed zijn en te snel gaan voor de markt. Pas als er softwaretoepassingen komen die een substantieel sneller systeem nodig hebben groeit de markt weer.
Ik denk ook dat er weinig mensen zijn die in het upgradepad alle stappen doorlopen. Elk jaar een nieuwe Mac kopen is complete waanzin.

Echter zullen er wel mensen zijn die nog een pre-Mx apparaat hebben die zitten te wachten op een mooie upgrade. Van M1 naar M2 was niet zo spectaculair als de stap naar M1 zelf.

Als deze soc nu echt grote voordelen heeft, bijvoorbeeld door veel zuiniger te zijn, ga je wellicht weer wat mensen over de streep trekken. Ik kan me echter niet voorstellen dat dat mensen zijn die van M1 of M2 afkomen.

[Reactie gewijzigd door doltishDuke op 22 juli 2024 16:08]

Precies. Ik ken Iemand die normaal altijd windows haalde. Hij kocht de M1 mac omdat het gewoon zeer goede prijs-kwaliteit was.

Met GPU's hetzelfde; Nvidia AMD zitten nu al 4 jaar slechte prijs-performance te leveren voor nieuwe GPU's dus ik draai nog steeds een gtx 1080. Zodra ze een beetje redelijke prijzen gaan leveren komen alle wachtende jongens inclusief mij over de toonbank.

[Reactie gewijzigd door Osiummaster op 22 juli 2024 16:08]

Hier ook gedaan, moest al enige tijd een laptop en heb maar een M2 Pro gehaald. Weekje of twee wennen aan macOS (had overigens wel een beetje ervaring uit het verleden), geen punt--werkt prima allemaal. De performance is gewoon niet te vergelijken met Windows laptops, de absurde gaming varianten met rgb daargelaten. De upgrades zijn idd aan de prijs (in totaal zo'n 3k betaald), maar in dit kaliber zijn de prijzen voor Windows machines eerlijk gezegd echt niet zo veel beter.

Als je wilt gamen moet je het niet kopen overigens, maar voor de rest is het zeker een goede optie.

[Reactie gewijzigd door i7x op 22 juli 2024 16:08]

230 euro extra om ipv M2 8GB naar M2 16GB (mac mini) vind jij qua prijs gelijkwaardig aan windowsprijzen? Ok de Mx series heeft geïntegreerd geheugen, maar dat is gelijk ook een valkuil.
Vroeger had een amiga de mogelijkheid fast-ram en slow-ram geheugenuitbreidingen te bevatten.
Vind het dan ook gek dat er toch niet een mogelijkheid is een geheugen-dimm/simm oid erbij te prikken.
Dus je betaald nu de hoofdprijs om je computer toekomst vast te maken, waar je normaal gesproken wellicht na 2-3 jaar behoefte krijgt geheugen bij te prikken.
Je haalt hier een specifiek punt aan (wat inderdaad wel wat een doorn in het oog is) om het hele argument van @i7x onderuit te halen i.v.m. vergelijkbaar Windows. Als tweaker vind ik het ook storend dat een simpel component als RAM niet te vervangen is bij een Macbook-/mini. Zelf schrik ik ook van de upgrade prijzen voor RAM, want we weten wat een losse rip kost. Bij Apple weet je nu eenmaal dat het zo is. Voel je bij de poot gepakt, het maakt niet uit. Laat ze mooi hun geld verdienen. Gelukkig hebben we keuze .. windows

Aan de andere kant, kijk gewoon eens naar het totaal plaatje. Iets van het zelfde kaliber bij een Windows laptop is qua prijs niet veel anders. Los van de RAM prijs/upgrade. Daarnaast gaat een laptop zowel bij Windows als Mac makkelijk 5 jaar mee. Misschien zelfs wel 10 jaar in sommige gevallen. Zou de levensduur dan werkelijk alleen van de RAM prijs/upgrade afhangen? Ik denk van niet.
Had ik de SSD als voorbeeld moeten nemen dan?
+230 euro om ipv 256GB 512GB te krijgen (512GB is wat mij betreft ook een bare minimum voor opslag.
Je blijft doorgaan over de upgrades van componenten. Ik sprak enkel over het totaalplaatje. Dan scheelt het bij dit soort specs niet echt veel met de Windows alternatieven, die dan ook veelal in de 3k+ lopen.

Ja, het moge duidelijk zijn dat de ram of ssd upgrades duur zijn, maar in totaal is het mi best een acceptable prijs in de markt. Maar ieder heeft zo z'n eigen afwegingen natuurlijk.
Sorry, wist niet dat je er aanstoot aan nam. Upgrades zijn toch wezenlijk onderdeel van totaalprijs? Kunnen we niet gewoon concluderen dat Apple mooie en hele dure spullen maakt?
Nu weer wel. Alles tussen de MBP 2015 en M1 sloeg bij mij echt de plank mis.

-touchbar
-geen USB A
-geen SD card reader
-geen hdmi
-waardeloze butterfly toestenbord
-verwijderen van magnetische voeding aansluiting

De M1 maakte een hoopgoed vanwege prestaties en prijs verhouding. Nu zijn de SD cardreader, magnetische aansluiting, hdmi en toestenbord weer terug. Ook heeft de MBP weer een formaat waarbij betere koeling mogelijk is.

Ze hebben daar echt zitten slapen en consumenten kritiek totaal verwaarloosd. Inclusief Apple medewerkers hadden kritiek op koers van een paar jaar geleden. Gelukkig gaat het nu weer beter (van uit consuments oogpunt gezien).
Ik heb nog nooit een upgrade gedaan bij mijn Apple producten, na 8jaar koop ik een nieuwe en de oude gaat nog wel een paar jaar mee op vakantie.
Ga jij een PC vinden aan de eigenschappen van een Apple silcon computer ? Ik vind dit ver van duur als je 12 jaar met een computer doet. Ipv om het jaar weer een nieuwe te moeten. Een paar generaties overslaan en dan direct iets goeds kopen ipv 5 keer niks en een hoop onnodige onkosten. Zelfde met een iphone of een ipad. Van een intel generatie naar een arm generatie. Wat koop je bij windows pc s ? Een haardroger op hoog vermogen in watt. Een gaming laptop kan je ook kopen of een zelf in elkaar gestoken pc. Echter zal dit nooit kunnen tippen aan Apple silicon. x86 heeft zijn dagen wel nu gehad. Ik hoop echt dat alles binnenkort ARM gaat worden. Ipv zon energie slurpende gaming pc Even de energie maatschappij rijk maken. Of en computer kopen die 1/100ste van het vermogen verbruikt. Nu de gas en stroom iedere keer duurder wordt. Apple is zeker een investering maar het loont op de lange termijn. Ik zie ook het nut niet om een schijf van 512gb in een meeneem laptop te steken terwijl het ram geheugen op lange termijn de keuze is die je moet maken. Even een externe schijf aan je computer hangen voor een prikje is ook een optie. Even een 2tb ssdje aan je mac en klaar ben je. Waarom alles intern kopen zie ik echt het nut niet in voor een laptop. Voor een mac mini zou ik ook niet meer nemen dan 512gb. Ram is meer belangrijker dan ssd opslag. Want mac os wordt ieder jaar ook zwaarder. En daar is je computer het meest afhankelijk van.
De upgrades zijn gruwelijk duur maar de hardware is domweg fantastisch. Ik ken geen laptop aan de Windows kant die dezelfde performance biedt in dezelfde formfactor en deze kwaliteit scherm/trackpad/keyboard/accuduur. De M1 macbook air is zelfs goedkoop voor wat hij biedt.

In de professionele context is het goed spul, zeker als je performance nodig hebt (development, media creation, etc) en ook nog mobiel bent (meetings, trein).

ik heb een m2 max macbook pro 14. Vergeleken met onze Lenovo workstation laptops biedt hij ongeveer 80% van de performance, maar ik heb geen hernia en geen oordoppen nodig. Ik heb de Lenovo workstation hier ook naast me op het bureau liggen voor specifieke use cases, drie keer raden waar ik de hele dag mee rondloop.

Het is duur en het is goed. Had ik hem niet van het werk gekregen, dan had ik er zelf 1 gekocht ondanks de prijs.
230 euro extra om ipv M2 8GB naar M2 16GB (mac mini) vind jij qua prijs gelijkwaardig aan windowsprijzen?
Absoluut niet. En voor SSD's kun je hetzelfde verhaal ophangen. Maar je haalt exact het verkeerde aan!

Het punt van i7x is dat je voor het geld dat je aan een premium HP Zbook kwijt bent, je ook een MacBook Pro hebt.
Dus je betaald nu de hoofdprijs om je computer toekomst vast te maken, waar je normaal gesproken wellicht na 2-3 jaar behoefte krijgt geheugen bij te prikken.
Ja, helaas.

En daarom zit ik ook met smart op nieuwe Mac's met M3 te wachten. Hopelijk is de ondergrens voor desktops dan opgekrikt naar 16GB RAM en 1TB SSD, want dan koop ik meteen een nieuwe iMac. En als dat niet standaard is bij de M3, dan koop ik een "oude" met een leuke korting.
Vroeger had een amiga de mogelijkheid fast-ram en slow-ram geheugenuitbreidingen te bevatten.
..en kon je je programma's op een cassettebandje wegschrijven. De techniek is sinds de Amiga wel iets complexer geworden.
Een van de grootste vraagtekens en onderwerp van discussies op techsites is of Apple de komende MacPro überhaupt met uitbreidbaar geheugen gaat uitrusten omdat het technisch uiterst lastig is dat te combineren met geïntegreerd geheugen zonder alle voordelen van het toepasen van geïntegreerde geheugen te verliezen. Het tijdrovende ontwikkelen van een soort oplossing om extra geheugen bij te kunnen plaatsen zou ook een van de redenen zijn waarom de MacPro nog steeds niet is aangekondigd.
Vind het dan ook gek dat er toch niet een mogelijkheid is een geheugen-dimm/simm oid erbij te prikken.
Zie eerdere punt. Uiteraard gaat Apple geen tientalen miljoenen extra en nog jaren vertraging steken in ontwerp en productie van hun computers omdat de kopers er anders straks geen geheugenreepje van Aliexpress in kunnen steken. De paar extra kopers die dat oplevert vallen totaal weg tegen de extra kosten en opbrengsten van het huidige aanbod.
Dus je betaald nu de hoofdprijs om je computer toekomst vast te maken, waar je normaal gesproken wellicht na 2-3 jaar behoefte krijgt geheugen bij te prikken.
Die 230 euro over 2 of 3 jaar valt nog wel mee. En je moet het natuurlijk ook andersom zien: als jij een computer koopt met allerlei voorzieningen voor extra schijven, geheugen en uitbreidingskaarten en je gebruikt die allemaal niet dat heb jij voor niets betaald voor allerlei ontwerp-, materiaal- en productiekosten...
Je had gezien dat "vroeger" schuingedrukt was waarbij ik op speelse manier referentie wilde maken aan oude tijden?
Maar aangezien je reactie over cassettebandjes heb je blijkbaar geen idee van de architectuur van Commodore Amiga en dat is toch wel een gemis en je doet dat platform echt te kort.
De grap is dat je nu techsites aanhaalt en of Apple het technisch wel aankan om extern geheugen te ondersteunen. Reden te meer om je eens te verdiepen in Amiga architectuur, want daar kon het wel en dat was toen al revolutionair. En Apple zou het ook kunnen als ze er slim genoeg voor zijn, niets is onmogelijk.
(ik heb de overtuiging dat het ook kwestie is van commercie...ideaal toch dat je deze moderne cpu/gpu/memory afhankelijk wordt om alles af te nemen bij 1 fabrikant?)
En Apple zou het ook kunnen als ze er slim genoeg voor zijn, niets is onmogelijk.
(ik heb de overtuiging dat het ook kwestie is van commercie...ideaal toch dat je deze moderne cpu/gpu/memory afhankelijk wordt om alles af te nemen bij 1 fabrikant?)
Apple kan het ook wel hoor. Ze kunnen bijvoorbeeld de M1 Ultra best met DIMMs uitrusten. Om de 800 GB/sec bandbreedte te halen die ze nodig hebben om CPU en GPU ongehinderd van hetzelfde geheugen gebruik te kunnen laten maken heeft de Ultra 32 LPDDR5 geheugen kanalen.

Met losse DIMMs zou je er daar dus 32 van nodig hebben die ALLEMAAL gevuld moeten worden met DIMMS van dezelfde grootte. Een geheugen upgrade is dus geen zaak van een reepje bij prikken.
De fysieke afmetingen van 32 DIMMS en de afstanden die de signalen van de verst van de processor gelegen DIMMS moeten afleggen gaan zorgen voor allerlei timings, overspraak en andere interferentie problemen die weer opgelost moeten worden met extra versterkers op de signaallijnen. Je krijgt te maken met fundamentele natuurkundige beperkingen waar de ontwerpers van Amiga totaal nog geen rekening mee hoefden te houden.

En voor de komende 'Studio Extreme' voor de MacPro met 4 processorkernen zijn er dan dus 64 DIMMS nodig.

Het probleem is op te lossen en fabrikanten van gespecialiseerde computerapparatuur hebben dat ook al gedaan maar tegen prijzen waarvoor je alle M-varianten van Apple met maximaal geheugen probleemloos aan kan schaffen.

Het zou dan ook zomaar kunnen dat de MacPro een compleet nieuw 'concept' wordt. Niet meer standaard uit te breiden via PCI- en RAM sleuven maar een soort abonnement of lease waarmee je een betere configuratie kan krijgen als je die nodig hebt.

Het lijkt wel vergezocht en ongeloofwaardig maar dat waren de geruchten "Apple stapt over op Intel chips' of 'Apple gaat al zijn computers met eigen procesoren met geïntegreerde GPU uitrusten' ooit ook...
GeForce now abonnement, en je kan heerlijk gamen op een Mac.
Nee lekker dure "pc" kopen en dan nog een abonnement erbij om te kunnen gamen. Ben je ook compleet loco :+
Ja want een fatsoenlijke computer koop je alleen maar voor gamen :+ . Een MacBook en MacOS samen met het Apple eco systeem is het (voor mij) waard. Maar geen zin om er dieper op in te gaan, (ik heb wel wat beters te doen dan fanboy gedoe). En iedereen die dat niet begrijpt die blijft maar lekker HP, Dell & Acer kopen om de 4 jaar wanneer de accu het begeven heeft en het net lijkt alsof er een vliegtuig opstijgt. Windows update blijft fantastisch, elke keer als ik mijn Windows laptop opstart eerst 2 uur updates draaien.
Trouwens ik game zelfs voortaan op Windows computers via Geforce now. Het heeft veel voordelen ook op Windows.
Dat is ook mijn insteek.
Van die prijs kwaliteit is met de M2 niks over. De Macbook pro 14 en 16 zijn zeer prijzig.
Ik zit te overwegen om te upgraden hebben nu 15-inch MacBook Pro 2019 met de Intel Core i9. Ik wacht nog tot de m3 MacBook Pro uitkomt. Dat wordt echt wel flinke upgrade. Veel langer batterij duur en niet z'n enorme herrie die van mij heeft vaak de ventilator op max draaien omdat hij de hitte niet kwijt kan.
"M1 is sterk genoeg"
"Corona-lockdowns eindigden"
"Geen upgrades nodig"

Ik denk dat alle reacties hier enorm onderschatten hoe zwaar een prijsverhoging van 50 fucking procent valt. Serieus, beeld het je eens in? 50% prijsverhoging!

De M1 Air kostte bij release € 1040
De M2 Air kostte bij release € 1520
De M1 Air kreeg een prijsverhoging naar € 1220

Je kunt inmiddels bij webshops van derden de M1 Air vinden voor ± € 975 en de M2 Air voor € 1250, maar dat was voor beide apparaten (en zeker de M2) niet het geval een maand na de release van de M2 en de zware prijsverhoging van de M1. Voor de release van de M2 was de M1 soms beschikbaar tegen prijzen van rond de € 880. Rond de release van de M2 rond of onder de € 950. Dit steeg binnen een maand met ruim € 200 (Pricewatch grafiek), dankzij Apple's prijsverhoging van de M1.

We kunnen allemaal redenen bedenken voor het tegenvallen van de M2, maar de massieve prijsverhoging is de enige factor die echt het verschil maakt en elk argument vóór de M2 100% kan counteren.

[Reactie gewijzigd door Blizz op 22 juli 2024 16:08]

Mee eens, met name omdat de Mac nog geen high end gaming platform is en er ook niet echt lekkere game benchmarks zijn , zal er op grafisch gebied, ook weinig vooruitgang zichtbaar zijn.
Want computers worden ook enkel gebruikt voor videospelletjes en feesboek, daarom dat professionals er zoveel geld voor betalen elke keer :) .
Niet meteen zo zwart-wit.

Ik bedoel eerder dat de nieuwste high end games met fps metingen worden gebruikt als benchmarks om de prestaties van zowel cpu’ s als gpu’ s te beoordelen, zie ook de cpu en gpu reviews van tweakers zelf.
Nu wordt er op met Macs met name gebenchmarked op geekbench, en export tijden van mediabestanden , en een beetje 3D Mark, als je daarbij nog 3D high end gaming zou kunnen betrekken, krijg je meer informatie. Dat ontbreekt nu.
Als jij de reviewers even enkele AAA games aanlevert die native op Windows en MacOS draaien (dus x86-64/DX12/Vulkan + aarch64/Metal), dan krijgen we die resultaten zeker. Los van dat je dan weer naar het verschil tussen DX12/Vulkan/Metal zit te kijken. Of je voegt MoltenVK toe, maar dan heb je weer een wrapper.

Blijkbaar is er sinds 6 maanden één die daaraan voldoet: Resident Evil. Maar bij de release (en reviews) van al die hardware was die game er niet.
Er zijn dus bijna geen high end games en dat is mijn punt. Op Mac staat gaming nog , zacht uitgedrukt, in zijn kinderschoenen.

Dat is jammer, dan konden er grafisch ook betere vergelijkingen worden gemaakt.
Ze waren er wel. De laatste jaren zijn er ook nog uitgekomen. Alleen zijn die gecompileerd voor x86-64 wat niet native draait. Of ze hebben een soort van wrapper zoals MoltenVK, wat je weer niet kan vergelijken.

Draait allemaal wel, maar voor benchmarks is het niet echt representatief.
Benchmarks zijn dat sowieso niet, want het gaat om real-worldprestaties. Leuk dat een benchmark zegt dat een soc retertraag is in vergelijking met de concurrentie, maar als een app binnen 4 seconden opent en dat voor de gebruiker snel zat is, dan zijn die benchmarks onnodig. En zelfde geldt voor gamingprestaties.
Mac is niet bedoeld als high-end gaming platform. Dat gezegd hebbende, zijn er legio games die goed speelbaar zijn op de Apple M1 met Rosetta. Ook zijn er wel degelijk gaming benchmarks beschikbaar. Game support is inderdaad voornamelijk via Rosetta en nog niet native op de Apple M-chips, en dat zal nog wel even gaan duren. Waar gamen mogelijk is met de M1-chips, zijn de grafische prestaties echter wel vergelijkbaar met laptops met high-end grafische chips.

Daarnaast moet je vooral niet vergeten dat Apple heel veel toepassing ziet in het grafische werkveld. Een verbeterde GPU ga je absoluut wel kunnen merken in hoe soepel een applicatie zoals Adobe Premiere/After Effects werkt en hoe snel een project rendert, of hoe snel schaduwen worden gegenereerd in SolidWorks bij het draaien van het beeld. Dus extra grafische kracht is altijd welkom. :)
Dat bedoel ik eigenlijk ook. Benches via Rosetta is niet een goede afspiegeling van de prestaties, waardoor vergelijken met andere platforms gewoon lastiger is. Ook tweakers maakt gebruik van game benchmarks in zijn cpu en gpu reviews. Het is jammer dat je deze niet kunt gebruiken om 1 op 1 vergelijkingen te maken met andere platforms.
Ik heb ook geen enkele behoefte om mijn M1 Macbook Air te vervangen. Ik gebruik het nauwelijks, maar wel handig om achter de hand te hebben. Waar ik het voor nodig heb, is het perfect. Misschien dat ik bij de M5/M6 weer ga upgraden.
Ik had tot 2020 een MacBook uit 2014 (want de laatste met Retina, poorten, en een goed toetsenbord), maar heb het redelijk makkelijk uit kunnen houden, ondanks dat de traagheid van die oude Intel machines echt wel te merken was. Heb na drie jaar de accu wel vervangen, maar daarnaast werkte die prima.

Met dat als vergelijking heb ik het gevoel dat de M1Pro die ik nu heb het wel jaaaren vol gaat houden.
denk aan de 1080ti
Ik denk dat de M2 sales vooral tegenvallen omdat de M1 zo ongelofelijk goed presteert.
Inderdaad, kijk simpelweg nu naar de Apple site, ze bieden beide nog aan.
M1 Vanaf € 1.218,85
M2 Vanaf € 1.518,85

Scheelt je 300 euro en wat betreft performance ga je het waarschijnlijk niet eens merken.
Het zijn gewoon incremental updates net als bij amd/intel, niets mis mee. De M1 is revolutionair, omdat de performance gap met alles wat we daarvoor kenden ongekend was. Daarom was er ook ongekende vraag.

Ik heb recentelijk geupgrade van m1 naar m2 en merkte net zoveel als een upgrade van de ene intel naar de andere, oftewel een klein beetje. M3 zal hetzelfde effect hebben al proberen ze je altijd te laten geloven dat het spectaculair is om toch mensen te overwegen te upgraden. Maar een M1 is voor grootste deel van de mensheid al spectaculair.
Zo speciaal en ongekend is zijn de M chips ook nou weer niet. De meeste voordelen liggen erbij dat Apple heel de stack kan beheren en andere fabrikanten niet. Moderne AMD APU's zijn vaak gewoon sneller tegenwoordig.
Je krijgt -1 maar als je een systeem haalt voor het zelfde geld, is de performance ook aardig het zelfde.

Niet te vergeten de upgrade mogelijkheden, waardoor je over 4 jaar nog eens een reepje geheugen kan bij prikken etc.

Ik ben persoonlijk juist afgestapt van Apple nadat alles een black-box begon te worden

[Reactie gewijzigd door DutchKevv op 22 juli 2024 16:08]

is de performance ook aardig het zelfde
In een vacuüm betekend dit natuurlijk niks. Zijn er processor benchmarks waar top-of-the-line Intel/AMB processors het beter doen? Absoluut. Maar dan moet je wel echt laatste generatie Threadrippers en i9's hebben.

Daarnaast zijn de taken die we op onze machines doen niet enkel afhankelijk van processors, maar ook van disk snelheden, en RAM. En dat integreren op een enkele SoC maakt alle acties een stuk sneller. Wat dat betreft is het helemaal niet handig om te kijken naar benchmarks gericht op een enkel component, maar op typische functionaliteiten (exporteren van video's, compileren van code, JS benchmark suites, etc).

En dan hebben we het nog niet eens over performance-per-watt, waar Intel/AMD vaak een paar factors achter lopen. Ik heb de x86 laptop die 16-20 uur mee gaat op een acculading in elk geval nog niet gezien.
https://www.laptopmag.com...longest-lasting-notebooks

Zij hebben toch een aantal Intel-powered laptops getest die rond de 15 uur hangen. Intel loopt geen "paar factors" achter. Hun chips kunnen (idle) heel zuinig draaien. Alleen verkoopt dat minder dan "snelste" laptop, een titel die ze dan ook wel hebben. Om dat te halen moet de TDP dan wel significant omhoog... en dan heb je weer slechte performance/Watt.

Ze kúnnen zuinig draaien, maar daarom is een heel samengesteld systeem dat nog niet.
en dan heb je weer slechte performance/Watt.
En dat is dus mijn hele punt: Intel/AMD hebben misschien wel de performance kroon, maar zeker niet voor performance-per-watt, en dat is wat het meeste uitmaakt voor een laptop device die je op accu gebruikt. Ik weet dat ik mijn laptop in elk geval niet gekocht heb om lekker lang in idle te laten staan. Leuk dus dat al die windows laptops (vanaf nummer 5, nummer 4 is een ARM Windows laptop) ~15 uur mee kunnen, maar kunnen ze ook echt 15 uur mee? Of is het alleen bij Word processing en video's kijken? Ik zie dat ze ook allemaal een 1080p scherm hebben, dat speelt waarschijnlijk ook mee in stroom verbruik. De helderheid staat niet vermeld, maar ik heb een vermoeden dat die ook niet super hoog ligt.

Verder helpt het gebruik van een SoC met RAM en SSD zeer zeker wel bij stroom verbruik. Alleen het fysieke aspect al, dat het allemaal dichter bij elkaar zit zorgt er voor dat er minder stroom nodig is voor communicatie tussen onderdelen. Het scheelt ook allerlei busses, connectors, een controller hier en daar. Dat telt allemaal echt bij elkaar op als je het hebt over efficiëntie.

Ik wacht in elk geval met smart op die Microsoft ARM SoC's.
De cijfers van die website zijn op basis van een browsetest. Die macbooks gaan ook geen 16 uur onder load mee, da's allemaal lichte dingen. Niks gaat 16 uur onder load mee. Idle is super-belangrijk. Zelfde voor smartphones: race to idle en die idle dan zo zuinig mogelijk maken.
Ik heb de methodologie van de test even bekeken, maar die valt mij vies tegen. Performance (al dan niet per-watt) wordt helemaal niet meegenomen in die tests.
Like our original test, version 2.0 involves continuous surfing over Wi-Fi until the laptop runs out of charge.
Maar ze tellen nergens hoe snel een pagina in laadt. Ze geven elke 'visit' 33 seconden om te laten hangen. Als een laptop 5 seconden er over doet, ten opzichte van de 0.5 seconden van de andere laptop, heeft die hetzelfde resultaat. De relevantie van de test zou beter zijn als ze zouden loggen hoeveel websites ze in X seconden kunnen inladen.

Idle is inderdaad enorm belangrijk. Zo belangrijk dat je er zo snel mogelijk naar terug wil -- in ook die context is performance under load dus erg relevant. En als je dan toch idle uit moet, gebruik je liever een kleine (efficiënte) core dan een grote.

Ik kan het zo snel niet vinden, maar iemand had ooit de term "time-to-idle" gecoined in deze context, waarbij het bijvoorbeeld belangrijk is om bij elke frame die je rendered zo snel mogelijk terug te gaan naar idle (en in het geval van VRR/ProMotion, dynamisch de framerate verlagen als er alleen statische content is).

Idle performance an-sich betekent dus niets zonder daarbij ook rekening te houden met performance. Dat is volgens mij ook de reden dat die x86 laptops pas vanaf nummer 5 verschijnen: ARM machines zijn efficiënter in dingen doen, en als je sneller bent in je taken af maken, kun je sneller terug naar niks doen.

Maar het liefst test je een laptop natuurlijk op dingen doen, en niet op hoe efficient ze zijn in dingen niet doen (wat de genoemde laptoptest vooral doet, want 90% van die tijd is in idle).
Vraag mij af hoe lang een Pi4 het met deze test en een 99W accu het zou uithouden.
Volgens dit artikel is 3nm M3 toch iets om naar uit te kijken:

https://www.computerworld...than-you-might-think.html

- Meer computer power bij minder vermogen
- Gelekte benchmarks van gelijkwaardige A17 IPhone chip lijken veelbelovend.
- GPU zou Ray-Tracing functionaliteit krijgen.

https://developer.apple.c..._accelerating_ray_tracing

[Reactie gewijzigd door obimk1 op 22 juli 2024 16:08]

De GPU krijg RT functionaliteit; zijn er serieus mensen die op Macs gamen? Mac is voor mij het laatste "pc" platform waar ik een spel op ga uitbrengen, eerst Windows en Linux. Met als redenen dat er dat geen game stigma heerst, ik nog geen Mac heb en ook liever niet wil.

Ik had het gevoel dat Apple gaming helemaal niet serieus neemt.

Het zal dus misschien leuk zijn voor dingen zoals Blender.
Rosseta 2 is de snelle vertaal laag.

En wat veel mensen niet weten is dat Apple meer met gamen verdiend dan MS, Nintendo, Activision en Sony gecombineerd. (iPhone + iPad games)

https://appleinsider.com/...osoft-activision-combined

https://www.ign.com/artic...e-than-nintendo-sony-xbox


Gaming op een moderne M Macs (sneller dan dat je verwacht, AUB kijken)
Er zijn wel wat truukjes voor nodig (oa emulators)


https://www.youtube.com/watch?v=GA3Ly66KO9Q


https://www.youtube.com/watch?v=1Da-ZnJK0Hg

[Reactie gewijzigd door obimk1 op 22 juli 2024 16:08]

Dat kan wel zo zijn, maar op macOS is dat toch anders. Valve heeft er zelfs bijna volledig de brui aan gegeven en dat is toch een van de grootste spelers: https://www.youtube.com/w...=ygUKbWFjIGdhbWluZw%3D%3D
Precies, daarom noemde ik ook Mac ipv iPad en iPhone.
Ik had het specifiek over de Mac (gezien smartphones en tabelts op de korte termijn in ieder geval nog niet mijn doelgroep zijn), niet over de iPhone en iPad. Ik vermoed dat Google ook meer zal verdienen dan dat lijstje wat je noemt.

Het gaat mij ook niet echt om de snelheid (mijn spel draait op een aardappel waarschijnlijk); maar meer om het feit dat ik een nieuw ecosysteem moet leren een Mac moet aanschaffen etc. daarom heeft het voor mij een lagere prioriteit dan Windows en Linux :p.

Bedankt voor de links, die ga ik in de avond even bekijken!
Google wordt NIET eens genoemd...

En met deze zoekopdracht:
Apple earns most with gaming
Komen er 10-tallen verschillende links voorbij, uit verschillende bronnen met dezelfde strekking.

Maar IDD, jij, als enige bron zal wel volledig gelijk hebben.
Lees mijn reactie nog eens door.... In het Nederlands betekent "ik vermoed", ook dat het sowieso waar is!!!! en dat de persoon die dat zegt zich nooit zal laten overtuigen!!!! Daarnaast geef ik aan dat ik de links vanavond ga bekijken omdat ik daar nu niet direct de tijd voor heb.
Maar laat ik vooral even toelichten waarom het misschien wel had gekund; Google heeft net zoals Apple een appstore en vangt ook 30%. Daarnaast hebben ze een grotere market share (verhouding +/-70/30), maar over het algemeen minder klanten die echt betalen ten opzichte van Apple. Dit was een aanname, daarom gebruik ik het woord vermoed.

Laten we dan gelijk de laatste reden behandelen waarom iets uitbrengen op MacOS verloren tijd is. De vijandigheid van de mensen die die spullen kopen. Ik was blij met de onderbouwde reactie met linkjes die ik op een latere datum rustig kon bekijken. Je laatste reactie is de typische reactie die ik van een Apple gebruiker verwacht.
De M2 verkopen zijn denk ik eenvoudig te verklaren door ‘pent up demand’; veel mensen zijn al ingestapt op de M1, omdat gewoon een geweldige chip was/is. Die mensen gaan niet meer spontaan over op de M2. Daarbij komt dat de hele “pc markt” is ingestort door de economische malaise waar we nu in zitten. Daar heeft ook Apple last van. Daar komt nog bovenop dat de prijzen voor al hun producten gestegen zijn om de gestegen kosten door Covid icm Ukrain en valuta koersen te compenseren. Best wel een double whammy zeg maar.
Apple kan natuurlijk bij de M2 niet zeggen: nou is het wel goed genoeg, we stoppen even met verder ontwikkelen. Techbedrijven blijven hun producten continu verbeteren omdat ze zeker weten dat de concurrentie dat ook doet.
Dankzij dat apple slechts sporadisch grote veranderingen doorvoert zijn de sales ook heel onregelmatig.
Bedoel je dat op soc vlak? Want dat klopt gewoon niet.

Ik hoor appel fans vaak iets verzinnen in de trans "apple koos ervoor om met de m2 niet zon grote stap te nemen als met de M1", maar dat is natuurlijk onzin, als apple de m2 beter had kunnen maken hadden ze dat gedaan.

De M1 heeft het allergrootste deel van zn succes te danken de stap die apple maakte van het stokoude 14nm intel naar het gloednieuwe 5nm TSMC procede, natuurlijk heb je dan een aardverschuiving op vlak van performance per watt. Sure, hun cuippntwero helpt, maar het overgrote deel ligt puur aan dat procede. Bewijs: apple fans vergeleken hun nieuwe chips enkel met oude intel leuk omdat dat in machoos zat, maar als je de M1 vergeleek met de 7nm chips for and toen had was het verschil in performance per watt veel en veel kleiner. Vergelijk de M1 met de nieuwste Ryzen 7000 chips, welke de eerste niet-apple laptop chips zijn op datzelfde 5nm procede van TSMC, en waarenpel: die chips hebben ongeveer dezelfde performance per watt.

Als je dus wilt weten hoe de performance van apple zal evolueren, laat dan speculaties van apple fans achterwege, en kijk gewoon naar de roadmap van TSMC. Die heeft veel meer invloed dan de veranderingen die apple doorvoert in het ontwerp.

[Reactie gewijzigd door kiang op 22 juli 2024 16:08]

Er zijn natuurlijk sowieso weinig upgrades van de m2 naar m3, of zelfs m1 pro naar m3. Want die mensen (waaronder ik) hebben al een relatief recente en dure laptop.

Als je op allerlei fora voor Apple gebruikers kijkt zie je veel mensen met veel oudere laptops. Apple is duur en hun gebruikers zijn trouw. Ze doen jaren met hun laptops.

Maar hoe trouw zijn Apple's klanten als een upgraden 3000 euro kost? Ik kan me voorstellen dat ze zeker voor de pro varianten zichzelf op een gegeven moment uit markt prijzen voor consumenten die het niet echt keihard nodig hebben. Aan de andere kant denk ik dat ook al jaren van hun telefoons en de goedkoopste iPhone is ook nog steeds flink aan de prijs.
Voor alle goederen geldt dat er merken zijn die 'duur en degelijk' (en soms zelfs alleen 'duur') aanbieden. Toch worden er nog steeds Mercedessen, Levi's, Coca cola drankjes etc verkocht.
Als je jaren met een Apple laptop kan doen (of evt voor veel meer geld tweedehands kwijt kan als je wil upgraden) is een hogere prijs ook beter te verantwoorden.
Ik denk dat sowieso meespeelde dat de M1 dusdanig beter is (qua snelheid en accuduur) dat het een extra groep kopers heeft aangesproken die anders misschien nog een jaartje hadden gewacht (of voor een ander product zouden zijn gegaan). Dat in combinatie met (voor Apple) schappelijke prijs voor de MacBook Air.
De M2 uitvoeringen zijn eigenlijk maar een specbump/update. En dat in combinatie met een flink hoger bedrag vergeleken met de voorgaande versie.

Ik verwacht dat het met de M3 weer het zelfde gaat zijn, dat mensen het kopen omdat ze toe zijn aan een nieuwe Mac, niet omdat de machine een game changer is, terwijl ze nog wel een jaartje met hun huidige verder kunnen. Wel zou het misschien kunnen zijn dat er meer de M3 kopen in vergelijking met de M2. Bijvoorbeeld omdat er nog mensen waren die een jaar geleden voor de M1 gingen vanwege de prijs, of omdat M2 als tussenjaar werd gezien.
M1 was ook succesvol omdat Apple in de jaren daarvoor nu niet bepaald gewilde laptops en desktops uitbracht, naast gewone het nieuwe aan M1 en de Covid pandemie. Allemaal dingen die nu niet meer van toepassing zijn.
De M1 heeft mij doen overtuigen om een M2 te kopen. Ik moest een nieuwe laptop hebben waar ik Office op kon draaien, HDMI uitgang op heb en ook een Bash terminal. MacBook Pro M2 werd het, want die was toen net uit.

Zo bloedsnel als deze is, dat is het bizar. Zou ik nu een M3 willen? Nee, die M2 is echt al super.
Misschien is het net als met telefoons dat je niet elke keer bij een nieuwe generatie moet willen upgraden. Nergens voor nodig; met telefoons kan je prima twee generaties overslaan, dus als je het zo bekijkt is het niet zo gek dat de m2 minder verkocht dan de m1; de mensen meteen m1 hoefden nog niet te upgraden, dus het zullen voornamelijk verkopen geweest zijn aan mensen die nog geen m1 hadden.
Ik vind het geld uitgeven voor een goede processor nog niet zo erg. Maar de honderden euro's aan upgrades voor meer intern geheugen of een fatsoenlijke hard drive geeft mij geen enthousiasme om een upgrade te doen.
Hoe wil je upgraden als je geheugen alleen zo snel kan zijn door het aan de CPU te solderen? Een mac is geen bak onderdelen.
Het gaat niet zo zeer om de snelheid, het geheugen dat op de M1/M2 is geintegreerd is gewoon hetzelfde LPDDR5 wat je ook in andere laptops kan vinden. De reden om het geheugen op de chip te integreren is voor Apple vooral omdat ze 1 SoC ontwerp willen hebben dat (in verschillende varianten) gebruikt wordt over hun hele product aanbod, inclusief tablets en telefoons waar elke millimeter ruimte telt.

Voor andere laptop bouwers is solderen van het geheugen trouwens ook vaak de enige optie als je modellen met 64GB of meer RAM wil kunnen aanbieden (bijvoorbeeld voor laptops met gedeeld RAM/VRAM). LPDDR5 SODIMMS gaan tot 16GB capaciteit, en in de meeste enigzins draagbare laptops is simpelweg geen ruimte voor 4 SODIMM slots.
Het is niet alleen om het ontwerp. Een paar millimeter dichterbij de CPU geeft ook lagere latency. Daarnaast is een DIMM socket ook een potentieel point of failure.
Dat is het wel.
En al was het dat niet dan kun je nog normale prijzen vragen en niet 4x de marktwaarde.
Dat is het niet, zoek maar eens naar de bandbreedte van DDR5 vs de getallen die Apple noemt.
Er is geen marktwaarde voor "geheugen wat in een mac gesoldeerd is" behalve wat Apple er voor vraagt.
Dat de M1 zo goed verkocht was zeer waarschijnlijk ook omdat een hele hoop mensen/bedrijven aankopen hebben uitgesteld (voor zover mogelijk) om met de CPU shift de kat uit de boom te kijken. Maar ook veel bedrijven hebben gewacht met de massale M1 aanschaf totdat de infra applicaties werden ondersteund, wat weer redelijk laat was in de levens cyclus van de M1...

Ik denk dat heel weinig mensen hun M1 zullen upgraden ongeacht of de M2/M3 een flinke upgrade is. Voor het overgrote deel van de gebruikers zal de M1 meer dan genoeg blijven. En wat betreft een M1 vs een M2, die keuze heb je eigenlijk alleen nog bij de MacBook Air, op het moment dat je een MacBook (Pro) of MacMini nodig heb, zit je gewoon vast aan de M2. En dat is iets waar de meeste mensen/bedrijven gewoon naar kijken, prijs zal dan even slikken zijn, maar minder belangrijk dan je denkt.
Deels herkenbaar: De prestatie-verbeteringen van Intel naar Apple Silicon waren indrukwekkend. Die van M1 naar M2 niet zo.

Maar stel je voor dat de M2 niet 20-30%, maar 2x zo snel was? Zou ik dan mijn M1 Macbook Air inruilen voor een M3?

Misschien wel, maar waarschijnlijk ook niet: de M1 is snel genoeg. En dat is eerder een "probleem" voor Apple dan de relatieve verschillen...

[Reactie gewijzigd door Keypunchie op 22 juli 2024 16:08]

Het artikel gaat over de M3 Pro, die is niet bedoelt voor consumenten maar echt voor professionele toepassingen. Bv grafische vormgevers waarbij er veel gerenderd moet worden. Dit zijn systemen die vele duizenden euro’s gaan kosten en zijn niet te vergelijken met bv de standaard M1.

Is er markt voor, ja denk het wel al zal dit heel specialistisch zijn.
Toch wel een heel ongenuanceerde versie van feiten. Ten eerste de M1 was een revelatie waar iedereen al jaren op zat te wachten. Plots kreeg je de prestaties van een stevige i9 + GPU met het vermogen van een trage i3.

Als je nog op intel zat dan wat de M1 echt hét moment om over te schakelen. Ik heb zelf bijna 2jaar gewacht… ik wilde voorkomen dat ik de laatste intel-mac kocht. Heel het internet stond vol rumours.

De M1 macs waren ook goed ontvangen konden de hoge verwachtingen inlossen. All day battery, snelle single core,stevige GPU, geen luide fans meer, goede schermen, speakers, keyboard, webcam en microfoon.

De M2 is gewoon een verbetert 5nm procedé. Sneller, zuiniger maar gewoon iteratie zoals AMD en intel dat doen. Ook zinder covid zou hier de vraag sterk gedaald zijn.

De M3 is 3nm en daar liggen de kaarten anders. De single core prestaties van de M3 zouden 50% sneller zijn. Ook de GPU zou een ferme boost krijgen.

Ik denk niet dat mensen die nu een M1 hebben de noodzaak voelen om een M3 te kopen. Het is gewoon meer van hetzelfde. De grote revolutie van de M1 is al gepasseerd en zal niet snel terugkomen.

Covid19 zal het verkoopcijfer cijfers zeker wat geholpen hebben maar het was eigenlijk van ondergeschikt belang. Alles was immers uitverkocht en de hype rond M1 had eigenlijk niets met covid te maken.
Ik denk dat het heel simpel is: wat heeft een M2 extra als je al een M1 machine hebt?

M1 was een revolutie, M2 een evolutie. Tegen de tijd dat de M1 eigenaren wat nieuws kunnen gebruiken zal het eerder om M5/M6 gaan denk ik?

Kijkend naar de iPad is de M1 een betere deal dan de M2. Als ze net zo duur waren zou iedereen M2 pakken (lijkt me).
Waarom zou iedere processor upgrade een game changer moeten zijn? Dat is nergens voor nodig.
De M1 was een introductie van een hele nieuwe soc, daarna krijg je evolutie.

Ik ben zeer benieuwd naar de GPU presaties van de M3. En of dit serieuze concurrentie gaat worden voor NVidia en AMD videokaarten.

Dan wordt een Mac een serieus interessanter platform voor de gaming markt.
Opvallend is dat Apple 1 van de weinige fabrikanten lijkt te zijn dat blijft investeren in nieuwe architectuur in vrij onrustige financiële periode. Bij Nvidia, Intel en AMD lijkt het erop dat dit jaar voornamelijk refresh / of iets verbeterd model op de markt zetten, maar niet compleet nieuwe architectuur. Dit om kosten te besparen. Misschien heeft te maken dat Apple bij TSMC 3nm ruimte jaren geleden heeft ingekocht / geïnvesteerd. Het zou dan geld vernietiging zijn als je dan de productie lijn niet zou gebruiken.
Hoe is Apple's M3 "nieuwe architectuur" en AMD/nvidia/intel "refresh"/"iets verbeterd model"?

AMD's high-end chips zijn op dit moment efficienter EN sneller dan die van Apple. De fabrikanten die deze chips gebruiken kiezen ervoor om ze onzuinig te maken, maar met dezelfde TDP wint AMD nog steeds. De voorsprong die M1 had, was echt maar van korte duur.

[Reactie gewijzigd door Gamebuster op 22 juli 2024 16:08]

Heb je hier een bron voor?
https://www.club386.com/a...9-12900k-at-125w-and-65w/

note: 60 watt is de power target van de M1 ultra "desktop" chips. Cinebench R23 haalt 29K puntjes met een 7950X op 65 watt. De M1 ultra haalt 24K. Nou zou ik graag een bron aanhalen met een M2 ultra, maar die bestaat niet.

De Ryzen 9 7945HX, een high-end laptop chip, haalt een score van 36K, alleen in deze benchmark was er een power target van 130 watt. Ik kan geen bron vinden voor de 7945HX op 65 watt. Naar mijn mening, als je in de markt bent voor "de snelste", neem je het hogere stroomverbruik voor lief als je daarmee sneller je werk gedaan krijgt.

De AMD 7940HS, een 8-core CPU van AMD met een 35 watt power target, verslaat de M2 Max ook in de meeste benchmarks, al doet de M2 Max het in maximaal 25 watt. De 7940HS is geen super exotische, dure chip. Een laptop met een 7940HS kan je krijgen voor 1799 euro. Niet zo mooi als een macbook, maar bij Apple krijg je niets voor die prijs met die performance.

Nou zal een M-chip macbook alsnog drastisch langer meegaan op een accu dan een windows laptop, maar dat ligt niet per se aan de CPUs of een gebrek aan innovatie in CPUs. Het lijkt erop dat de AMD chips in alle gevallen sneller zijn dan die van Apple als je ze dezelfde power target geeft. Apple's M-chips zijn dus echt niet zo speciaal als hun marketing doet geloven.

[Reactie gewijzigd door Gamebuster op 22 juli 2024 16:08]

Deze analyse deel ik niet. Weliswaar zijn chips van Apple niet buitenaards goed of zo, maar uit jouw bronnen blijkt toch ook wel dat ze veel beter zijn in wat ze beogen te doen dan AMD.
Je moet namelijk wel appels met Apple's chip vergelijken. Ze zitten voornamelijk in laptops. Hoe doen de high end chips het daar? En dan stroomverbruik en temperatuur niet iets dat je gewoon voor lief neemt. Anders waren alle laptops wel gaming laptops met semi-desktopprocessoren.

Wat vooral opvalt is dat Apple's nieuwe architectuur achterblijft op die desktop. Die onbetaalbare desktop bakken die ze hadden maken ze er gewoon nog niet mee. Want voor die gebruikers doet stroomverbruik er inderdaad niet zo toe. Die willen soepel 8k video's renderen.
Weliswaar zijn chips van Apple niet buitenaards goed of zo, maar uit jouw bronnen blijkt toch ook wel dat ze veel beter zijn in wat ze beogen te doen dan AMD.
Lezen we dezelfde bronnen? Huh?
Ze zitten voornamelijk in laptops.
Gelukkig deelde ik desktop chips vs desktop chip EN laptop chip vs laptop chip vergelijkingen
Hoe doen de high end chips het daar?
Welke? De "highest end chip" van Apple in een laptop is de M2 Max, en die wordt verslagen door een mid-tier AMD chip in een laptop voor de helft van de prijs.
En dan stroomverbruik en temperatuur niet iets dat je gewoon voor lief neemt.
Ik gaf 2 laptop voorbeelden, 1tje die VEEL sneller was maar meer verbruikt. 1tje die nog steeds sneller is, maar vrijwel even veel verbruikt (25 watt vs 35 watt). Mijn aanname hier is dat als een fabrikant het boeit, dat ze de power limit prima kunnen verlagen naar 25 watt en dat de performance dan nog steeds op M2 Max niveau is, of beter.

Ik heb helaas geen laptop in handen waarvan ik de power limit kan instellen, maar gezien alle voorbeelden die ik gedeeld heb is toch wel duidelijk dat AMD's chips heel goed schalen met minder stroom. De 7950X is hierbij het meest extreme voorbeeld, die zelfs nog uitstekend presteert op 65 watt.

Mijn conclusie is simpelweg dat AMD's chips en Apple's M-chips op z'n best gelijk presteren per watt. Als je een fanboy bril opzet, kan je voor zowel AMD als Apple "wins" aanwijzen. Die discussie kan je uren voeren, ga ik niet aan mee doen.

In geen geval is Apple de enige fabrikant die blijft investeren terwijl de rest stil zit, zoals deze comment schreef.

Met een beetje research vind je vast vergelijkbare benchmarks voor Intel. AMD en Intel ontlopen elkaar echt niet zo ver op dit moment.

[Reactie gewijzigd door Gamebuster op 22 juli 2024 16:08]

Je hebt gewoon gelijk. De pipos hier die Apple chips als buitenaards en next next gen beschouwen zijn gewoon fanboys of hebben zich niet in de materie verdiept.
Dat geldt natuurlijk net zo hard voor de mensen die het tegenovergestelde beweren ;)
Daarnaast heb je natuurlijk niks aan de beste chip performance van de wereld als de software die er op moet draaien er slecht gebruik van maakt (herinner met de Pentium pro nog...)
En zo word er altijd wat verzonnen.. Nu is het opeens de software.

Zo kun je ook zeggen dat het niet fijn werken op Apple is omdat je non-stop een gekloot hebt met docker images etc (is de ervaring bij enterprises etc)
En zo word er altijd wat verzonnen.. Nu is het opeens de software.
De 'beleving' van een computer wordt voor een groot deel bepaald door de kwaliteit van de software. Dat is niets nieuws, blindstaren op de chip is zinloos.
Zo kun je ook zeggen dat het niet fijn werken op Apple is omdat je non-stop een gekloot hebt met docker images etc (is de ervaring bij enterprises etc)
Vroeger was het 'windows software draait niet op een mac'. Ken niet zoveel eindgebruikers die docker images draaien maar zal wel aan mij liggen.
Ligt inderdaad aan jou. Als je zo'n 3k Mac koopt dan is er een grote groep die er op devt.
Neem eens eender welke intel computer tegenover apple silicon. Ze hebben gelijk en heeft met fanboys niks te zien. Een macbook air of pro met een silicon gebruik je 2 a 3 dagen op een batterij. Neem een windows laptop. Je mag blij zijn dat je 4 uur haalt met zon ding. En dan heb je niks open gegooid dan een web browser. PC = stopcontact verplicht. Zelfs mijn Surface Pro x kan hier gewoon niet aan typen en het is een ARM tablet. Apple silicon is gewoon HET beste wat er is op dit moment. En je hoeft geen 1000en euro s neer te tellen. De baseline m1 macbook air is al de stap die je moet maken als je hier geen kennis van hebt. Ik daag je uit om een windows laptop of een chromebook te kopen die de zelfde eigenschappen heeft als een M series. Ga jij gewoon weg niet vinden.
Je mag blij zijn dat je 4 uur haalt met zon ding.
Lol wat??? Moderne laptop met nieuwe AMD APU gaan gewoon 12 tot 15 uur videobrowsen mee op de accu of zelfs langer. Welliswaar niet letterlijk zo goed als Mac, maar zeggen dat Windows stopcontact betekend is gewoon echt onzin.

[Reactie gewijzigd door Clevergyno op 22 juli 2024 16:08]

Synthetische Benchmarks vergelijken tussen compleet verschillende architecturen zegt niet zoveel. Zie liever vergelijkingen tussen complete systemen met real world applicaties.
Kortom, een vergelijking tussen hoe snel applicaties lopen op de systemen, en hoeveel stroom die dan verbruiken. Dan heb je een goede baseline wat betreft de snelheid.
Verder moet ik de eerste laptop nog zien die een vergelijkbare performance bied met een vergelijkbaar goed scherm, audio, batterijduur, voor een lagere prijs dan een M-Serie Macbook
Synthetische Benchmarks vergelijken tussen compleet verschillende architecturen zegt niet zoveel
Ja dat zou ik ook zeggen als ik Apple fanboy was.
Verder moet ik de eerste laptop nog zien die een vergelijkbare performance bied met een vergelijkbaar goed scherm, audio, batterijduur, voor een lagere prijs dan een M-Serie Macbook
Waarom moet het nou weer voor een lagere prijs?

Niet dat het uitmaakt, Macbooks zijn altijd al de accuduur koning, dus je gaat er geen 1 vinden. Prima toch? Dat was de discussie ook niet. Ik ga geen modellen zoeken met vergelijkbare prestaties en goede specs, want je gaat dan gewoon wijzen naar dat je 'm niet mooi vindt of dat de accuduur onvoldoende is, en wijst dan naar een synthetische test waarbij filmpjes afgespeeld worden voor 20 uur, terwijl in realiteit mijn 16" 2019 macbook het nog geen 2 uur volhoudt op een accu als ik 'm daadwerkelijk gebruik.

Wat is de accuduur van een macbook tijdens gebruik? Simpel: Neem het verbruik van een M2 max tijdens gebruik ( ~36 watt ), neem de rest van de hardware mee en deel dat door de accu capaciteit van 99Wh: minder dan 3 uur. Dit is verassend in lijn met mijn ervaring met mijn macbook die zichzelf in 2 uur kan leegtrekken. Een M2 doet dat dus in net iets meer dan 2 uur, net zoals iedere windows laptop.

Als ik 20 uur filmpjes wil kijken pak ik mijn iPad wel.

[Reactie gewijzigd door Gamebuster op 22 juli 2024 16:08]

[...]

Ja dat zou ik ook zeggen als ik Apple fanboy was.
Jammer dat je dit er in gooit en niet met argumenten komt. Beetje een zwaktebod, niet?
[...]


Waarom moet het nou weer voor een lagere prijs?
Mag ook dezelfde prijs zijn, maar jij begon over prijs
Niet dat het uitmaakt, Macbooks zijn altijd al de accuduur koning, dus je gaat er geen 1 vinden. Prima toch?
Beeldscherm, bouwkwaliteit, afwerking, speakers?
Dat was de discussie ook niet. Ik ga geen modellen zoeken met vergelijkbare prestaties en goede specs, want je gaat dan gewoon wijzen naar dat je 'm niet mooi vindt of dat de accuduur onvoldoende is, en wijst dan naar een synthetische test waarbij filmpjes afgespeeld worden voor 20 uur, terwijl in realiteit mijn 16" 2019 macbook het nog geen 2 uur volhoudt op een accu als ik 'm daadwerkelijk gebruik.
Beeldscherm, bouwkwaliteit, afwerking, speakers?
Wat is de accuduur van een macbook tijdens gebruik? Simpel: Neem het verbruik van een M2 max tijdens gebruik ( ~36 watt ), neem de rest van de hardware mee en deel dat door de accu capaciteit van 99Wh: minder dan 3 uur. Dit is verassend in lijn met mijn ervaring met mijn macbook die zichzelf in 2 uur kan leegtrekken. Een M2 doet dat dus in net iets meer dan 2 uur, net zoals iedere windows laptop.

Als ik 20 uur filmpjes wil kijken pak ik mijn iPad wel.
Fijn voor je, jammer dat je je zo vastbijt in de Accuduur, en prijs, maar niet ingaat op mijn uitspraak dat synthetische Benchmarks niet zoveel zeggen.
Jammer dat je dit er in gooit en niet met argumenten komt. Beetje een zwaktebod, niet?
Ik heb bronnen aangehaald met synthetische benchmarks voor mijn argument. Als jij meer bronnen wil voor niet- synthetische benchmarks mag je die zelf zoeken. Als het geen video encoding is, denk ik niet dat er een ander beeld uit komt.
Beeldscherm, bouwkwaliteit, afwerking, speakers?
Er zijn genoeg laptops die beter zijn dan Apple's smeerpasta schermen. Filter op "OLED" in de pricewatch en je hebt er genoeg.

Bouwkwaliteit? Genoeg laptops die minstens net zo goed zijn als Apple's laptops. Bij Apple krijg je laptops met grove bekende defecten in vrijwel iedere generatie. Schermen die spontaan niet meer werken, toetsenbord ellende, hardware die zichzelf doodbakt, gebrekkige koeling, ga zo maar door. Nou zeg ik niet dat Apple's laptops slecht zijn, maar ze zijn ook niet uitzonderlijk goed. Apple's bouwkwaliteit is echt niet beter dan de laptops Dell, Lenovo, Asus, of een andere grote naam.

Afwerking? Apple is daarin zeker consistent goed. Er zijn concurrenten met mooie laptops, maar die zijn helaas schaars.

Speakers? Geen ervaring mee.
Fijn voor je, jammer dat je je zo vastbijt in de Accuduur, en prijs, maar niet ingaat op mijn uitspraak dat synthetische Benchmarks niet zoveel zeggen.
Synthetische Benchmarks geven je prima de mogelijkheid om een indicatie te geven van de performance van een CPU, waar deze discussie over ging
Ik heb duidelijk geschreven waarom synthetische Benchmarks niet bijzonder relevant zijn. Je komt niet verder dan het roepen van Fanboy en welles.
Maar goed, fijne dag nog gamertje
Ik weet niet waar jij een vergelijk op maakt, maar zowel AMD en Intel hebben een node verkleining op het programma staan in volgende generatie... Architectuur is al jaar en dag X aantal revisies voor er een nieuwe komt. Apple heeft ook al jaar en dag dezelfde in iphones met de A series cpu, een doorgevoerde verbeterde architectuur. Het is enkel apple met De M dat uiteindelijk iets nieuws gebracht heeft.

Dus je verhaal klopt van geen meter en je haalt platformen door elkaar alsof het vis en vlees is.
De marginale hoeveelheid M3 die er nodig is heeft dus niks met de "jaren/ingekocht/geinvesteerd" te maken. De A serie komt ook op 3nm, de huidige staat op de N4P (ook een 5nm variant) we kunnen wel stellen dat dit het massa product is, de M1+M2 staan op 5nm (en NM is marketing termen). De M3 komt nu ook op een 3nm variant. Dus het M product is dan gewoon ook iteratie Xvan een generatie...

neemt niet weg natuurlijk dat de M een mooie architectuur start geweest is (maar dat is ook zo eiegen voor de "Core" en de "Zen" architectuur op zichzelf..)

[Reactie gewijzigd door d3x op 22 juli 2024 16:08]

Het verschil tussen genoemde partijen en Apple is dat zij toeleverancier zijn. Apple maakt de producten waar hun eigen chipsets en processors en andere chips in belanden.

Waarschijnlijk is het een valide punt dat Apple ook deels geïnvesteerd heeft in de productielijnen bij TSMC
Hoe zou Apple investeren in een nieuwe architectuur volgens wat we lezen in dit bericht? Wat meer kernen en geheugen is geen aanpassing aan de architectuur. Die is gewoon modulair ontworpen en je kan dat gewoon uitbreiden. Het is niet anders dan wanneer Nvidia beslist wat meer kernen te plaatsen, iets wat ze elke generatie wel doen, iets wat ze ook gewoon doen voor product differentiatie.

En het feit dat ze dat kunnen zal komen doordat ze naar een kleiner productieprocess gaan waardoor de fysieke afmetingen dezelfde kunnen blijven.
Nieuw GPU ontwerp, nieuw Efficiency core ontwerp
Een node kleiner gaan is geen "nieuwe architectuur". Daarbij hebben zowel Intel als AMD pas een nieuwe architectuur aangenomen en hebben ook zei een node verkleining op de planning staan dit of volgend jaar.

Je hele verhaal klopt lang geen kanten.
Nieuw GPU ontwerp met HW Raytracing
Doet AMD, Nvidia en Intel dat niet dan? Om AMD even als voorbeeld te nemen en ik pak alleen de consumenten videokaarten dus niet eens CDNA.
AMD kwam van de GCN architectuur af met als laatste kaarten de Vega64 en Radeon VII. Dus het lijstje wordt als volgt:
  • GCN
  • RDNA hele nieuwe architectuur die anders werkt met Infinity Cache.
  • RDNA2 er komt nu hardware ray tracing bij.
  • RDNA3 opdeling van de chip met losse compute chips die door een soort van IF verbonden worden en ze verdubbelen de shaders cores net zoals Nvidia heeft gedaan.
Intel heeft net zijn nieuwe architectuur voor discrete gpu's uitgebracht.

Nvidia is misschien de enige waarvan je kan zeggen dat er weinig verschil is tussen de 3000 en 4000 series.

[Reactie gewijzigd door Sp3ci3s8472 op 22 juli 2024 16:08]

Doet AMD, Nvidia en Intel dat niet dan?
Zeg ik dat?
Reactie had beter gepast onder die van Xieoxer; ik deed de foute aanname dat jij er hetzelfde over dacht.
Deze update komt in mijn ogen ook over als een refresh / iets verbeterd model tenopzichte van vorige generatie, of zie ik iets over het hoofd? Wat meer efficiency cores en geheugen... Zal ongetwijfeld allemaal heel goed presteren, daar twijfel ik niet aan, maar het komt op mij niet over alsof er daadwerkelijk vernieuwing in de architectuur wordt toegepast waar je over praat.
Dit soort planningen gaat over meerder jaren heen, dus ik verwacht niet dat ze zich teveel door korte economische dipjes laten leiden. Zo'n ontwerp + fab opzetten zijn miljardeninvesteringen die niet zomaar stop te zetten zijn.
Die van 32gb naar 36gb vat ik even niet?
De nieuwe Apple-processoren zijn SoC, oftewel System on a Chip. De cpu, gpu en het werkgeheugen zijn ingebouwd op dezelfde chip. Van 32 naar 36gb betekent dus dat Apple 4Gb extra ram in de SoC heeft kunnen proppen
Kan me vergissen maar is dit daadwerkelijk een "game-changer" for the better? UMA is net zo snel als gewone ram dus is er sprake van shared memory met je GPU. Daar boven op is ram langzamer vergeleken met vram. Mij komt dit eerder over als een marketing pitch voor shared memory wat we vroeger hadden met gewone PC's en GPU on board. Daar was je ook 2-4 MB kwijt voor je graphics.
is het niet juist dat informatie in dezelfde geheugenpool zit waardoor het niet meer hoeft te 'reizen' tussen ram/vram om gebruikt te worden door cpu of gpu? Je hoeft de data dus maar 1x weg te schrijven en beide kunnen het op dezelfde plek pakken. Ben ook geen expert, maar zo heb ik het begrepen.
Dit inderdaad (al ben ik ook geen expert).
De opmerking van @n4m3l355 gaat over 'shared memory', als in de ingebouwde GPU maakt gebruik van 'gewoon' RAM. Dat is een reservering die enkel voor de GPU beschikbaar kan komen. Er is geen directe toegang vanuit de applicatie of intelligentie vanuit de hardware om hier slim mee om te gaan. Het is enkel bedoeld om het tekort aan geheugen in de on-board graphics af te vangen.

Bij Apple silicon wordt niet enkel het geheugen gedeeld, er is geen harde limiet (dus er kan dynamischer mee omgegaan worden). Het is ook direct toegankelijk voor hardware. Zaken hoeven dus niet van CPU naar GPU overgekopieerd te worden, enkel een verwijzing is voldoende. Maar het is natuurlijk een taak van de OS laag om dit te regelen.

@n4m3l355, verder is de interconnect een grote bottleneck in traditionele systemen. Ja, videoram is sneller dan normaal geheugen. Normaal geheugen (DDR4) kan 17-20 Gb/s aan maar de M1 gebruikt een andere interconnect en kortere lijntjes (al weet ik niet hoeveel verschil dat maakt, wel belangrijk in latency). De M1 pro doet 66.67GB/s richting het geheugen en de M1 Pro 200GB/s. Als laatste doet de M1 Max 400GB/s.

Tel beide 'technieken' bij elkaar op en het maakt zeker een verschil. Maar er is veel meer dan enkel doorvoersnelheid (staar je niet blind op MB/s), latency is afhankelijk van je applicatie misschien wel belangrijker. Door de korte lijntjes schijnt de M1 ook daar goed te scoren. Maar zoals gezegt, ben ik geen expert in dit onderwerp.
Zoals @SirLenncelot hieronder al aangeeft staat alles in dezelfde geheugenpool en is dus gemakkelijk bereikbaar.

Bovendien is de bus tot 1024 bit breed versus de normale dual channel 128 bit op een X64-pc.

Er is dus tot 800 GB/s bandbreedte (M1-Ultra) beschikbaar voor zowel de cpu als gpu samen versus de 89.6 voor een standaard config van 2 DDR5-5600 Dimmen in dual channel.

Bovendien is het overhevelen van data tussen cpu en gpu dus niet nodig. Normaliter moet dat allemaal via de PCI-E-bus de gpu op gepompt worden.
Het idee dat VRAM, dat in een klassieke PC opstelling beduidend verder bij de CPU vandaan staat, significant sneller zou zijn dan de implementatie van UMA hangt ernstig af van de optimalisaties van de software, of het gebrek daaraan. Aangezien apple zowel hard- als software in beheer heeft, zit dat wel snor.

Zelfs in het gunstigste (direct storage) scenario zal de data nog altijd van RAM naar VRAM verplaatst moeten worden op een PC. Het stukje RAM dat opzij gezet werd voor shared graphics was niet te vergelijken: het was beduidend minder optimaal dan apples implementatie van UMA, want men moest nog altijd data van generiek RAM naar gereserveerd RAM verplaatsen.

Dat het verplaatsen niet meer nodig is, is de reden waarom ik denk dat SOC's de toekomst zijn voor doorsnee gebruikers. Unified RAM is niet alleen gunstig voor graphics, maar hetzelfde geld zeker ook voor andere ingebakken gespecialiseerde cores (denk aan AI). Deze trend zien we overigens niet alleen bij Apple, maar is inmiddels echt industrie-breed.
Dat bedoelde ik niet. Dat snap ik wel, maar de keuze voor zo'n minimale upgrade?

[Reactie gewijzigd door Davidoff1976 op 22 juli 2024 16:08]

Vermoedelijk gewoon het opvullen van de fysieke ruimte die is vrijgekomen door het produceren op een kleiner procede.
Maximaal ondersteunde hoeveelheid geheugen.
Ik zou zo gokken dat ze van dual channel naar triple channel geheugen zijn gegaan.
Ik vermoed dat de M1 en M2 twee memory lanes hebben en de nieuwe M3 drie om de geheugenprestaties in lijn met de extra cores te houden. Bij de M1 en M2 zit je dan op een veelvoud van 2x4 (8, 16, 24, 32) of 2x8 (16, 32) en bij de M3 op een veelvoud van 3x4 (12, 24, 36).
Als Apple standaard zoveel GPU power mee gaat leveren dan zou mijn volgende "zakelijke" notebook zo maar een Apple kunnen zijn.

Lekker los met AI tools voor image generating en af en toe een spelletje op zijn tijd is dan ineens ook mogelijk zonder persoonlijk ook nog in de buidel te hoeven.

Ik begreep dat de nieuwe unreal engine ook native apple ondersteuning zou hebben tegenwoordig.
Voor machine learning is de hoeveelheid geheugen gewel’dig, je kan hiermee makkelijk bijvoorbeeld 48GB van de 64GB gebruiken. Alleen al een grafische kaar van 24GB kost jij bijna de helft van een macbook. Alleen de GPU moet nog wat sneller worden. Ik doe ML op een M1 max met 64 Gb gaat behoorlijk goed.
Ik had begrepen dat praktisch alle ML tools rond nVidia's CUDA gebouwd zijn. Is het ecosysteem rond de M serie macs ondertussen zoveel verbeterd of ben je alleen gebruiker van ML applicaties?
Er is ondersteuning via de volgende libraries:

python=3.10
tensorflow-deps=2.10.0
tensorflow-macos==2.12.0
tensorflow-metal==0.8.0

Is nog niet perfect maar werkt al behoorlijk goed. Ik maak voornamelijk (en daarmee gebruik) modellen. Modellen als EfficientNetB0 (V1 / V2) voor transfer learning met bijvoorbeeld de laatste 30 lagen trainable gaat behoorlijk goed. Maar nogmaals, GPU moet wat sneller worden, ik heb maar 24 GPU cores op mij M1 Max, maar de M2 Max heeft er al 38, als de M3 er nu bijvoorbeeld 48 of 52 krijgt dan is die al dubbel zo snel als mijn laptop.

En tuurlijk en 4090 is nog steeds sneller maar is ook een behoorlijk investering, want je wilt bij grotere modellen ook veel geheugen hebben en dat is meestal de bottleneck bij Nvidia kaarten die redelijk betaalbaar zijn. Dus Nvidia cores > M1/M2/M3? maar M1/M2/M3 Geheugen > Nvidia.

[Reactie gewijzigd door ronaldmathies op 22 juli 2024 16:08]

Geen idee waar het omslagpunt zit, maar voor de Apple Max CPU's betaal je anders ook een forse meerprijs. Kan me voorstellen dat het dan - al is het maar omdat software makkelijker aan de gang te krijgen is - efficiënter is voor de nVidia optie te gaan.
Software is vrij gemakkelijk aan de praat te krijgen, installeer Xcode en gebruik bijvoorbeeld de volgende environment.txt voor python:

channels:
- apple
dependencies:
- pip=23.1
- python=3.10
- jupyter=1.0.0
- tensorflow-deps=2.10.0
- keras-tuner=1.3.5
- scikit-learn=1.2.2
- matplotlib=3.7.1
- pandas=2.0.0
- shap=0.41.0
- pip:
- tensorflow-macos==2.12.0
- tensorflow-metal==0.8.0
- tensorflow-hub==0.13.0

En je bent gereed om te beginnen met bijvoorbeeld TensorFlow / Keras.

Een RTX4090 met 24Gb geheugen kost je al snel 1600 euro, dan moet je nog je opslag, CPU, memory, Kast moederbord etc... hebben. Dus dat gaat ook vrij rap en dan heb je wel de snelheid maar niet de mogelijkheid om dergelijke grote modellen te draaien die je op een Macbook wel kan. Echter op een Macbook kan je de grote modellen wel draaien maar heb je weer niet genoeg GPU kracht om het snel door te rekenen dus zul je meer geduld moeten hebben, maar het kan tenminste wel.

Het is dus afhankelijk van het soort modellen wat je wilt draaien. Anders zou je al snel 2x een 4090 moeten hebben, dan kom je qua geheugen redelijk in hetzelfde domein terecht van 48Gb.

Persoonlijk hoop ik dat de M3 / M4 veel betere GPU kernen krijgt en dat we in de toekomst ook de neural engine kunnen gebruiken, dat zou ook enorm helpen.
Nee, de nieuwe editor van UnrealEngine ondersteund nu de native M chips, maar er zitten wel haken en ogen aan wat het werkelijk ondersteund. Maar er is wel zeker ondersteuning voor de engine ansich.
Ben heel benieuwd, nu op een m1 met 16GB en dat gaat al snel. Toen meteen willen aanschaffen na launch en zit nu met een 13 inch wat jammer is. Denk als de prijs niet enorm veel verschilt met het topmodel m2 ik ga wachten op de 16 inch met m3.

En zo blijk je wachten en wachten en wachten ;) Gelukkg op een m1 dus het zijn wel luxeproblemen :-)
Persoonlijk vind ik laptopschermen nooit echt groot genoeg om op te werken + het vernaggelt je houding. Ik zou die M1 lekker aansluiten op een 24” of groter scherm ;) Dan heb je onderweg een lekker handzaam apparaat én kun je volwaardig werken.
Eens, ik heb een 13 inch Thinkpad. Had slechte reviews voor het scherm, maar al het andere was helemaal top kwaliteit. Juist daarom heb ik hem gekocht. Dat scherm bekijk ik toch nauwelijks, want bij mij thuis staat hij in een dock, en op m'n werk staat hij in een dock.
Een 16 inch is net zo goed te klein om op te werken, dus dan liever een kleine machine die makkelijk in iedere tas past.

Daarnaast is het ook handig in de trein of vliegtuig om een filmpje aan te zetten. Een grote laptop past nooit op zo'n tafeltje.
Het gaat in elk geval hard bij Apple. Jaren en jaren met Intel chips en dan plots op een paar jaar tijd gaat het van hun eigen M1 via M2 naar M3. Hier M1 macmini en die draait lekker snel. De 12 jaar oude Intel macmini server heb ik gepimpt met een SSD, extra RAM en een ethernet bridge van Vonets waardoor de draadloze snelheid werd verdubbeld voor een prikje (35 euro).

[Reactie gewijzigd door Jan Heyvaerts op 22 juli 2024 16:08]

Ook bij Intel heb je nog altijd jaarlijks een refresh van de CPUs, dit is niets anders dan dat. De enige echt grote stap was toen men van Intel naar M1 ging, maar daarna is het ook weer gewoon jaarlijks een klein stapje vooruit.
Wat ik de afgelopen tijd aan geruchten gehoord/gelezen heb spreken van
20-40% toename in CPU snelheid
40-60% toename in GPU snelheid
Hardware Raytracing in de GPU (dit gaat renderen in bv Blender enorm versnellen)
Verder verbeteringen in NPU, stroomverbruik, etc

[Reactie gewijzigd door Jan Onderwater op 22 juli 2024 16:08]

Na jaren Windows toestellen te gebruiken ben ik overgegaan naar Mac en ben voor de MacBook Pro 16" M1 Max gegaan. Het zal nog wel enkele jaren duren alvorens ik upgrade naar een nieuwe.
Zes van de twaalf kernen op de M3 Pro zijn snelle kernen. De andere zes zijn juist efficiënte voor lagere werkbelastingen. Daarmee zit er vooral verbetering in die laatste categorie; bij de M1 Pro en M2 Pro zaten er ook al zes snelle kernen in het apparaat.
Niet helemaal correct, althans als ik mijn MacBook mag geloven zijn 8 van de 10 cores snel, en 2 efficient. Gok dat ze de extra ruimte van de snellere cores hebben ingewisseld voor de efficientere variant.

[Reactie gewijzigd door XiniX88 op 22 juli 2024 16:08]

Misschien dat er verwarring is omdat er ook een versie is met 6 + 2 cores, dit is beschikbaar als een downgrade optie op een aantal modellen en is iets goedkoper. Dit zal een binning zijn van de standaard 8 + 2 cores waar 2 cores zijn uitgeschakeld.
Ik hoop dat de standerd versie wel duel monitors support deze keer.

Op dit item kan niet meer gereageerd worden.