Apple toont M1 Pro- en M1 Max-chips met maximaal 10 cpu-cores en 32 gpu-cores

Apple heeft krachtigere M1-socs voor zijn Mac-laptops en -desktops aangekondigd. De M1 Pro- en M1 Max-chips worden wederom gemaakt op 5nm en bieden meer cpu- en gpu-cores dan de reguliere M1. De chips ondersteunen ook meer geheugen.

Apple introduceert de M1 Pro en M1 Max tijdens zijn Unleashed-evenement. De nieuwe chips vervangen de reguliere M1 niet, maar zijn bedoeld voor hoger gepositioneerde Mac-computers. De twee socs worden geïntroduceerd in de nieuwe MacBook Pro 14" en MacBook Pro 16", die het bedrijf ook op maandag aankondigde. De Pro- en Max-varianten zijn beide 5nm-chips die beschikken over maximaal tien cpu-cores die gebaseerd zijn op de Arm-instructiesetarchitectuur. Apple spreekt over een combinatie van acht prestatiecores en twee efficiënte cpu-kernen.

Apple M1 Pro MaxApple M1 Pro MaxApple M1 Pro Max

De M1 Pro bestaat uit 33,7 miljard transistors en beschikt over 8 of 10 cpu-cores en een gpu met 14 of 16 cores. De chip ondersteunt maximaal 32GB geheugen met een bandbreedte van 200GB/s. De Pro-variant biedt ook ondersteuning voor maximaal twee externe schermen. Apple claimt dat de cpu-prestaties van de M1 Pro 'tot zeventig procent beter' zijn dan die van de reguliere M1, maar het is niet duidelijk waar de fabrikant dit op baseert. De gpu zou tot tweemaal krachtiger zijn dan die in de reguliere M1.

De M1 Max is hoger gepositioneerd dan de Pro-variant en bestaat uit 57 miljard transistors. Deze 5nm-chip beschikt standaard over 10 cpu-cores en krijgt 24 of 32 gpu-cores, die volgens Apple tot vier keer krachtiger is dan de gpu uit de M1. De M1 Max-soc ondersteunt maximaal 64GB geheugen en ook geheugenbandbreedte wordt opgehoogd tot 400GB/s. De Max-variant ondersteunt daarbij tot vier externe monitoren.

Apple M1 Pro en M1 MaxApple M1 Pro en M1 Max

Volgens Apple bieden de cpu-cores in de twee nieuwe Mac-socs tot 1,7 keer betere prestaties per watt ten opzichte van ongenoemde 'pc-laptopchips' met vier en acht cores. De gpu in de M1 Max zou daarnaast krachtiger zijn dan losse laptopvideokaarten terwijl deze 100 watt minder stroom verbruikt.

De M1 Pro en M1 Max vormen de tweede reeks zelfontworpen chips die Apple introduceert voor zijn Mac-computers. Het bedrijf stapte vorig jaar over op eigen Arm-processors voor zijn Mac-systemen, toen het bedrijf de originele M1-soc introduceerde. Die chip wordt tegenwoordig gebruikt in de MacBook Air, MacBook Pro 13", Mac Mini, iMac 24" en de meest recente iPad Pro.

Prestaties Apple M1 Pro en M1 MaxPrestaties Apple M1 Pro en M1 MaxPrestaties Apple M1 Pro en M1 MaxPrestaties Apple M1 Pro en M1 Max

Door Daan van Monsjou

Nieuwsredacteur

18-10-2021 • 20:16

390

Lees meer

Reacties (390)

390
381
184
20
0
131
Wijzig sortering
Erg impressed met de performance en ben ook benieuwd of dit iets gaat betekenen voor de gaming branch omdat "gamen" op de M1 eigenlijk als best te doen was, vooral nu als het 2 tot 4x sneller is dan de normale M1. (En ja, Mac is nooit gemaakt voor gaming, maar het is nu wel aantrekkelijk aan het worden!)

Waar ik wel gelijk weer een hartaanval van kreeg wat de prijs, maar... apple kennende was dit wel te verwachten natuurlijk, full spec bijna 7000 euro, instapper is 2200 maar dan wel echt ietsje hoger dan de M1, weet dan niet of dat een goeie upgrade is...

Als dan zou ik denk ik zelf voor de 10 core CPU met 24 core GPU gaan en dan begint dat met 32GB en 1TB ruimte, goed voor 3600 euro.... Oef oef..

[Reactie gewijzigd door Replic op 22 juli 2024 15:31]

Dat is een kleine 3K zonder BTW. Als dit je full-time werkpaard is waar je je brood mee verdient, lijkt me dat een prima investering.
En daarnaast ook nog 10% korting als je een vaste reseller hebt. Tenminste, zo werkt het bij ons in het onderwijs.
dan nog is best veel geld voor de hardware specs. De 7core M1 is bijvoorbeeld ongeveer geliijk aan een 6 of 8 core ryzen van 500 euro. je betaald dus het dubbele voor de apple brandmerk.
Mwah.

Als de M1 met een soort 4big + 4LITTLE configuratie al ~60% van de multicore performance van de top mobile tier van AMD haalde, wat denk je dan dat 8big + 2LITTLE zal doen? Minstens evenaren, lijkt me.

Daarnaast is er een geweldige GPU. Ze vergelijken het topmodel met gaminglaptops voorzien van RTX3080. Al ga je voor de "M1 Pro" ipv "M1 Max", dan zal het waarschijnlijk nog rond een RTX 3050Ti - RTX3060 uitvallen. Ook niet slecht. Zit ook niet in die laptop van halve prijs.

Duidelijke focus op het scherm: 120Hz, 1000 nits sustained, 1600nits peak, hoge resolutie 16:10. Dat zal ook niet in een laptop van de halve prijs zitten.

Uitstekende speakers. Ik typ dit op een MBP uit 2012. Hedendaags speelt een iphone al luider én met diepere bassen dan deze laptop. Opgeschaald naar een hele macbook zijn moderne speakers dan ook écht goed.

En gek genoeg: de connectiviteit is best wel uitgebreid. Geen USB-C poort meer opgeven voor de lader. 3x thunderbolt zonder compromis. Plus HDMI, geen dongle. Plus SD-kaart, geen dongle.
De surface laptops waren op dat vlak al om te huilen, nu is de vergelijking helemaal gek. Alle moderne laptops leken wel op verbindingsdieet, al dan niet door het succes van de macbooks. En nu draaien ze om.

Al bij al is de combinatie net het speciale: én geweldig HDR-scherm én stil én leidende CPU- en GPU-performance én software die op de hardware afgestemd is én dit alles in een compact kastje. Afzonderlijk vind je die dingen wel elders, maar niet allemaal tegelijkertijd.

[Reactie gewijzigd door Arrigi op 22 juli 2024 15:31]

Al bij al is de combinatie net het speciale: én geweldig HDR-scherm én stil én leidende CPU- en GPU-performance én software die op de hardware afgestemd is én dit alles in een compact kastje. Afzonderlijk vind je die dingen wel elders, maar niet allemaal tegelijkertijd.
Niemand heeft er überhaupt nog mee gegamed he? Dus vind dit wel een bijzondere uitspraak. Wacht eerst maar op de benchmarks.
Klopt, maar de M1 was al redelijk capabel en Apple heeft al jaren de reputatie om correcte cijfers te tonen. Ze hebben zeer capabele chips gebouwd, zijn er trots op en tonen dat.

Kijk naar de M1 van vorig jaar. Doe dat x4.

[Reactie gewijzigd door Arrigi op 22 juli 2024 15:31]

Kijk naar de M1 van vorig jaar. Doe dat x4.
Zo werkt het niet helaas, ik blijf sceptisch totdat ik representatieve benchmarks heb gezien. Ik ga nu vooral vergelijken met de laatste generatie AMD mobile CPU's, die zijn ook zeer efficiënt.
Ik ben ook wel terughoudend maar zeer benieuwd. Vooral de 400GB/s memory interface die ook voor de CPU geld betekent een factor tig snelle memory interface voor rekenwerk. Dat is 2x zo snel als een dikke epyc bak met een sloot geheugen kanalen. Als je nagaat dat een game als factorio gelimiteerd is in de omvang van je fabriek door de geheugenbus op een intel of ryzen game CPU (die doen tot 50GB/s dus een factor 8 verschil) en een moderne CPU veel cycles verspilt met wachten op het geheugen (vandaar dat de dikke L3 cache op Ryzen 3 zo helpt) zou dit voor alles wat ik doe op een computer helpen: software compileren, grote datasets bewerken etc. Die GPU kan me gestolen worden maar een CPU die een dergelijke bandbreedte naar het geheugen heeft is ongehoord.
Ik zou alleen wel een vaste PC willen met zo'n dikke CPU: een laptop hiervoor inzetten is ook zo zonde. Tijd voor een Mac Mini M1 Max?
Niks op tegen, maar nogmaals: Apple heeft de tendens om correcte cijfers te tonen. Zij claimen x4 en ik wil dat geloven.
dat niet helemaal, voor de M1 grafieken waren ze zelfs zeer conservatief, en bleek de chip bij alle youtubers zo'n 20-30% meer capabel dan apple aangaf, dus wellicht nu ook weer.
GPUs zijn niet alleen om mee te gamen he? Er zijn genoeg Macs met grafische kaarten die bedoeld zijn voor zakelijke applicaties, niet videospelletjes. De vorige Mac Pro had de AMD FirePro in dual setup hangen.
GPUs zijn niet alleen om mee te gamen he?
Waar zeg ik dat? En de originele post van @Replic ging over gamen, vandaar mijn reactie.
Verbindingsdieet, wat een leuk woord zeg.
Maar deze chips zijn zuiniger en hebben als de marketing klopt een pak betere gpu. Qua chips rijkt er niemand aan Apples voeten actueel... Helaas, want de macbooks zijn niets voor mij door gebrek aan Linux support, gesloten hw/sw platform, slechte upgradebility en repareerbaarheid,...
Ja, jammer is dat he? Als het nou lekker openSUSE zou draaien dan kocht ik zeker een MacBook air. Maar ik ben niet echt bereid met OSx te gaan kutten, sorry, ik wil een os wat zich aan mij aanpast, niet andersom.
Linux draait nu toch ook native op de m1? Alleen de gpu wordt nog niet goed ondersteund
En ook makkelijk installeerbaar? Of met hacks?
Volgens mij zonder hacks. Zie de aankondiging van Linus:

https://lore.kernel.org/l...=54Rg@mail.gmail.com/T/#u

Ik heb het zelf nog niet kunnen testen, dus ik spreek niet uit ervaring.

[Reactie gewijzigd door Ganymedus op 22 juli 2024 15:31]

Hoe bedoel je "het dubbele"? Kan ik een losse M1 kopen om in mijn computer te steken?
Nee, dat is niet mogelijk
Dat weet ik, dat was retorisch. OP boven mij maakte een vergelijking tussen 2 chips, verzint vervolgens een prijs voor de tweede en claimt dat de een duurder is dan de ander.
Excuus dat had ik niet gezien.
Ik snap die vergelijking niet.

Voor 999 euro heb je een MacBook Air met M1 erin, voor 500 euro heb je een chip.

Welke laptop heb je die voor dezelfde prijs vergelijkbare prestaties levert? Inclusief GPU en goede afwerking die de MacBook Air heeft?

[Reactie gewijzigd door Shunt9 op 22 juli 2024 15:31]

Zijn een aantal prima laptops met een AMD Ryzen 5800m APU te vinden.
Vergelijkbare prestaties was de vraag. Niet half zo snel en half de batterijduur, dat is niet vergelijkbaar, dat is een grap.
https://www.cpu-monkey.co...vs-amd_ryzen_7_5800u-1763 hoezo Superstoned? 5800u is iets langzamer singlecore, véél sneller multicore en heeft een vergelijkbaar verbruik.
En goedkoper : serie: ZenBook 13 OLED UM325UA
Ik geef toe, ik kende de ZenBook 13 OLED niet, dat is erg mooie hardware voor het geld. De macbook air is maar iets van 20% sneller in singlecore en vergelijkbaar in multicore of gelijk in singlecore en een stuk langzamer in multicore, afhankelijk van de benchmark. De GPU is natuurlijk wel een stuk sneller dan die van de AMD, maar ja de 5000U series heeft ook een vrij oude GPU.
De zenbook heeft ook maar een procentje of 20 minder batterij duur dan de vergelijkbaar geprijsde Air dus laten we het vergelijkbaar noemen.

Dan heb je wel een kleiner 16:9 scherm met lagere resolutie en een vergelijkbare helderheid, maar het is wel oled, dus da's een mooie concurrent. Met ook wat meer poortjes enzo.

Ok, I stand corrected, er is redelijk vergelijkbare hardware voor vergelijkbaar geld. Feit blijft dat de Macbook Air met M1 absoluut geen slechte deal is voor 't geld.
Dat scheelt dan best een hoop!
Ik wou ook nog de inruil van een oud model toevoegen, maar ik heb net die van mij erin gezet (2016 Macbook Pro)... €100 waard, omdat het scherm niet goed meer is (ribbon kabel ofzo). Zonder dat hebben ze er nog €540 voor over.
Als je een 13" MacBook Pro uit 2016 hebt dan heb je kans dat Apple het gratis repareert:
https://support.apple.com...display-backlight-service

en eventueel ook het toetsenbord
https://support.apple.com...program-for-mac-notebooks

De display issues van mijn 15" MacBook Pro 2016 zijn ooit gratis door Apple gerepareerd, dus ook dan raad ik je aan contact op te nemen met Apple en te informeren naar het service programma.

€440 verschil is de moeite, en (mits gerepareerd) via Marktplaats is je MacBook Pro misschien nog wel meer dan €540 waard, afhankelijk van de specs.
Ik wist niet dat het onderwijs resellers waren, no pun intended
Helemaal gelijk in, zeker voor de “on the go” power, als ondernemer al helemaal aantrekkelijk.
Wat doe je als ondernemer dat je zoveel rekenkracht nodig hebt? :) Ik als iOS developer overweeg juist m'n huidige macbook pro voor een air M1 in te wisselen

[Reactie gewijzigd door Menesis op 22 juli 2024 15:31]

Wacht even, als iOS developer kan het niet anders dan dat je af en toe Xcode moet gebruiken. Dan wordt je zeer gelukkig van alle performance die je kunt krijgen.

Maar je hebt zeker een punt als je nu een Intel-based MBP hebt. Dan wordt je alleen al van de M1 erg gelukkig.
Ja precies, dat laatste ;)
Maar toegegeven, deze nieuwe MBP modellen zijn ook erg aantrekkelijk..

[Reactie gewijzigd door Menesis op 22 juli 2024 15:31]

Fotobewerking, videobewerking...

Werkt al heel goed met de M1, maar ik mis nu toch nog net even dat beetje extra..
Ook een poging tot coderen geprobeerd, werkt wel goed op de M1, dus ja, als ik dan de Max moet vergelijken met deze normale M1, die dan 3 tot 4x zo snel is, ben ik verkocht, zeker als ik het daarnaast voor prive voor allerlei andere dingen kan gebruiken :)
Kan toch een bewuste keuze zijn.

Ik koop pas een nieuwe Mac als ik echt niet meer lekker kan werken met mijn oude.

Onderdeel van mijn strategie om weinig uit te hoeven geven aan toch heel goede computers / ervaring is: Niet het goedkoopste maar juist de wat betere uitvoering nemen.

Mijn MacBook Pro 15’ retina 16 GB, met de optionele gpu was in 2013 best overkill en best wel wat duurder dan nodig was. Daar staat tegenover dat hij ook nu nog méér dan prima mee kan, voor wat ik er mee doe.

Hij zal iets van 2000 euro ex btw gekost hebben, dus zo’n € 0,70 per dag tot nu toe.

Ik heb uiteindelijk liever eens in de 8 jaar een grotere / luxere laptop, dan elke 4 jaar een kleinere, soberdere uitvoering.
Ik ben zelf een ICT-er die niet per se meer performance nodig heeft. Ik had al veel eerder een M1 air of pro gekocht als die dingen 2 externe schermen ondersteunde zonder met DisplayLink te werken.

Hoewel best duur zijn de upgrades op gebied van I/O, schermdiagonaal (14 inch) en snelladen best een leuke toevoeging.

Daarnaast is het ook een beetje future proofing. Wie weet welke doorbraak er over 2 jaar op CPU gebied gemaakt wordt. Het zou best kunnen dat meer partijen nu met ARM gaan experimenteren en dat het ineens erg hard gaat. Zelfs al zou de progressie op gebied van processing power hetzelfde blijven, dan zal een M1 Max langer capabel genoeg zijn dan een M1 Pro, evenals een M1 Pro langer capabel zal blijven dan een M1.

Edit: zie net dat er tussen de M1 Pro en de M1 Max geen verschil zit op CPU-gebied. Wellicht hogere kloksnelheden, maar dat is niet bekend gemaakt. Uiteraard wel een hogere geheugen bandbreedte.

[Reactie gewijzigd door Qlimaxxx op 22 juli 2024 15:31]

Als je de keynote ziet, dan mikken ze natuurlijk duidelijk op de professionele gebruiker in de video- en fotobewerking. En als het een tool is voor je bedrijf, dan valt een investering van pak m beet 3K best mee. Bovendien is er weinig vergelijkbaars op de markt volgens mij, als je een laptop zoekt met deze performance (ook op accu) en met 64GB geheugen.

De Macbook Pro is duideijk niet voor de luie-bank facebooklezer. Dan koop maar een Air :)
Ik hoop dan wel dat er binnenkort een prijselijke MacBook uitkomt mét magsafe, hdmi,… want dat is toch echt niet iets waar enkel de high-end pro users baat bij hebben.

Die extraatjes deden me vroeger altijd naar de pro grijpen ondanks dat ik geen enorme power nodig heb.
Ja, kwestie van wachten tot ze de 13 inch updaten, denk ik. Of... ik gebruik zelf nu een 2015 Pro, maar ik denk er serieus over om een M1 Air te kopen. Dat gaat volgens mij snel zat zijn, voor mijn dagelijkse taken.
Het lastige hierin is denk ik de eis van de EU omtrent laden via USB-C, de Magsafe is dus echt een extra toevoeging waarvan het mij niet zou verbazen als die niet op de goedkoopste series komt.

[Reactie gewijzigd door Groningerkoek op 22 juli 2024 15:31]

Die komt daar op den duur ook wel op denk ik. Maar het mooie is dan ook dat je ook via de TB4 poorten kunt laden.
Plus je kan het ook via usb C opladen geloof ik
Ja, dat kan al sinds de 2016. De MacBook is daarmee in menig bedrijf ook veelal de enige die zich houdt aan een universele standaard, want op veel Dell-modellen mag je nog mooi aan die eigen lader van ze.
Haha, ja dan moet je inderdaad zeker de air nemen en daar kom je al flink mee onderweg, gebruik deze momenteel zelf met foto bewerken, maar wil zeker upgraden naar de max om dan een beetje future proof te zijn, al is het dan wel voor prive en zaak, dus dan kan je maar de helft aan btw terug vragen..
Helemaal in de huidige GPU markt. Ben benieuwd naar de benchmarks maar Apple claimed zelf iets van 3060ti (desktop) performance bij 50W..... 8)7

https://images.anandtech....2021-10-18%2019_23_50.jpg
3080 mobile, dus +-3060ti desktop
Nog steeds sick performance als het zo is, we gaan het over een weekje zien denk ik :)
Staat toch high end pc laptop graphics. Ze vergelijken hem zelf met een mobile rtx 3080 en die zit ook in de prijs klasse 3-4k
Dan maar hopen dat die crypte-jongens niet massaal macs gaan kopen...
"Relative performance" en dus een neitszeggende schaal, waarbij ze volgens hun eigen marketting-grafiek dus onder die andere laptop zitten, welke overigens een mobiele 30xx chip gebruikt, waarvan je in de praktijk nooit weet hoe de performance echt is omdat er duizend powerprofiles zijn en je zelf aan de settings kan sleutelen zoveel je wilt en zo de performance helemaal naar de tering kan helpen.

Ik twijfel er niet aan dat de chips goed zijn, maar afgaan op deze grafgieken om jezelf wijs te maken dat Apple plotseling uit het niets een desktop kan evenaren, dat is in sprookjes geloven.

Daarnaast blijft er het feit dat Apple een walgelijk platform is om op[ te ontwikkelen voor gaming devs: behalve dan als je lootbox crap wilt is er geen enkele goede game op MacOS te vinden.
Apple full spec computers zijn altijd al belachelijk geprijsd geweest. Je hebt vast wel eens een Mac pro uitgemaxed op de website. Het gaat er om wat denk je nodig te hebben de oude 8 core M1 is al geweldig
Als ik de Apple promotie plaatjes moet geloven is het De GPU is waar het voornamelijk in zit wil je de performance van een 3050ti of een 3080
En we weten dat de cpu chips performance moeten verwachten van 1,5 tot 4 keer een 5950x
Dan is het eigenlijk een koopje.

[Reactie gewijzigd door j1b2c3 op 22 juli 2024 15:31]

verkoop eens een Windows laptop of een MacBook na 4 jaar of zo... MacBooks blijven meer waardevast....
Wat raar is want windows laptops blijven ondersteund worden.
Een 2e hand MacBook van 4 jaar oud krijg je nog enorm veel geld voor. Gaat niet over support OS of zo, de restwaarde is gewoon erg hoog.
Tja dat is net als met auto’s. Leuk die restwaarde maar het gaat om de afschrijving.

Als ik er in het begin 1K meer voor betaal is het niet gek dat die laptop na een jaar 500 meer waard is dan de laptop die bij aanschaf 1K goedkoper was, maar hij heeft dan uiteindelijk toch 500 euro meer gekost.

Heb je wel een fijnere laptop gehad natuurlijk, dat mag ook wat kosten.
absoluut, maar mensen kijken vaak *alleen* naar de aanschaf, je moet altijd naar de Total Cost Of Ownership kijken. Dus de macbbook kost misschien 1k meer, je doet er 1 jaar langer mee en de rest waarde is na dat extra jaar alsnog hoger, dan kan het best zijn de de TCO (nagenoeg) gelijk is. Het kan ook zo zijn dat de macbook even lang meegaat, en de restwaarde dan 500 euro hoger is, in welk geval de TCO van de macbook 500 hoger is.
Ja maar vervolgens zit je met een verouderd niet ondersteund apparaat.
Ik snap werkelijk waar niet waarom je dat zou kopen.
Er zijn nauwelijks Windows laptops, afzijdig van de Surface-lijn. Er zijn laptops waar je Windows op kunt zetten. Groot verschil. Dat is ook geen "ondersteuning" want als jouw Xiaomi, Dell of Lenovo met Windows erop niet functioneert omdat een update of driver botst met het OS, kun je niet bij MS terecht. Wellicht krijg je een patch middels update of een fix op het forum, maar wellicht ook niet.

Iets mogen/kunnen installeren != ondersteuning.
Behalve in Windows 11 natuurlijk
De MacBooks zijn goedkoper dan bij de introductie van de 16”. Well done, Apple!
Gaming is voor mij nu dé reden om niet naar een Mac over te stappen. Maar ik moet de GPU performance toch nog even zien in de praktijk voor gaming voordat ik het geloof. Als ze daadwerkelijk zo snel zijn dan wordt het ook wat interessanter om goeie Vulkan support te hebben in games.
Eigenlijk is de M1 Macbook Air van 999,- de instapper.
Voor vrijwel iedereen is die meer dan snel genoeg. Deze laat al vrijwel alle windows machines ver achter zich. Het gaat hier om de Pro variant. Als je het zo ziet, dan valt 1999,- ontzettend mee.
Ik houd me zelf veel bezig met video editing en vind dat op iedere normale M1 al een verademing vergeleken met al het andere dat ik ooit geprobeerd heb. Kun je nagaan wat die M1Pro doet.
De HDMI poort is slechts HDMI 2.0, dus 4k@60hz. Niet bedoeld als gaming rig.
Daarvoor kan je de thunderbolt poort gebruiken met een tb3-displayport kabel.
Klopt, maar hogere FPS en/of resolutie zijn volgens mij wel mogelijk via de Thunderboltpoorten.
Het interne scherm is 120hz dus wel voor gaming geschikt.
nou nee. de discussie is nu juist altijd dat je bij een equivelente PC build minder geld kwijt bent dan bij apple.

daarom altijd maar weer die prijs.
Kom maar op met de equivalente PC builds in dit geval. Ik heb ondertussen zoveel scheve vergelijkingen al met de M1 gezien.

“Ja maar deze PC is 70% van de prijs en even goed”. Erm, nou nee…
In het geval van de M1 vind ik dit moeilijk. Aangezien dat ding geen games draait vind ik "performance" alweer een gehandicapte vergelijkingstool. Maar alle generaties daarvoor was het echt appeltje eitje om voor 50% van de prijs een PC dat equivalent aan een willekeurige intel Mac was samen te stellen.

[Reactie gewijzigd door Epsix op 22 juli 2024 15:31]

Hoe bedoel je geen games draait ? Alle iOS games werken toch gewoon...
Het wordt denk ik steeds moeilijker om de vergelijking te maken. Zelfs als mensen hun favoriete benchmark tools erbij halen.

Los van de absurde prestaties van de M1 chipsets, gebruiken ze ook nog eens maar 30% van de energie in vergelijking met Intel chipsets. Wat voor waarde kennen we daar aan toe? Ook, bij deze laptops zakken de prestaties niet naar 10% terug als je hem op zijn batterij draait. Dan hebben we nog heftige optimalisaties voor video encoding / decoding en een enorme boost voor ML.

Het is ondertussen zo’n appels en peren vergelijking. Denk wel dat als je de laptop niet primair voor gaming gebruikt, je nu wel erg goed moet nadenken waarom je niet voor een Mac zou gaan. De prijs/prestatie/kwaliteit is wel erg interessant op dit moment.
Ik heb twee jaar geleden nog een PC gebouwd, maar dan lukt echt niet voor 50% van de prijs van een vergelijkbare Mac. En al helemáál niet als je een ‘betere’ videokaart er bij wil.

Overigens zijn er games genoeg voor de Mac. Sowieso is de groep die hardcore gpu first person shooters speelt en daar een € 300+ videokaart voor koopt een niche, ook op de pc.

Maar goed, deze discussies worden vooral gevoerd op basis van emotie: Meeste haters en fans zijn nauwelijks echt bekend met ‘het andere kamp’.
oh, ik heb weinig emotie bij deze discussies. ik berust me veelal op feiten.

ik bouw ook regelmatig PCs. Eerder dit jaar moest ik 3 video edit computers regelen voor wat nieuwe starters. Ik kon ze pre made van de online Apple Store krijgen. Prachtige machines can $10k, $20k, en zelfs een van $30k. Uiteindelijk toch maar een build online gevolgd die een $30k equivalent met $12k voor elkaar kreeg. Met misschien een harddriveje hier en daar minder.

Net zoals dat sommige deze vergelijking er bij de haren bijtrekken moe zijn, ben ik het intentioneel misinformeren ervan moe. De performance/prijs discussie is voor heel veel mensen een valide discussie. Voor heel veel mensen ook niet. Je hoeft er niet op te reageren.
Je zit met Apple toch 'vast' aan gesoldeerd geheugen, want ik vind de max van 32/64 wel karig anno 2021. Waarbij de M1 MacBook pro nog wordt verkocht met 8gb geheugen

[Reactie gewijzigd door mooieboot op 22 juli 2024 15:31]

64GB karig 8)7
Die 64GB is ook nog eens beschikbaar voor de GPU. Vind maar eens een laptop met een GPU die 64GB dedicated heeft.
Het geheugen is dan wel weer langzamer dan standaard gddr6 vram met de bandwidth welke je op moderne gpu's vind. Dus 64gb ja is nice maar het is wel relatief langzaam voor gpu gebruik.
Ja maar als je dan weer een deel van je data transfers kunt skippen omdat de cpu en gpu t geheugen delen dan is het even afwachten wat efficienter/sneller is.
Daarom is er nu DirectIO ebschikbaar met DirectX 12. Waarbij jij dus direct van je SSD naar GPU data kan transferen. Dat is specifiek in het leven geroepen om de CPU te ontladen van deze taak.
Daarom is er nu DirectIO ebschikbaar met DirectX 12. Waarbij jij dus direct van je SSD naar GPU data kan transferen. Dat is specifiek in het leven geroepen om de CPU te ontladen van deze taak.
Het voordeel van unified RAM is dat je geen data heen en weer hoeft te kopiëren tussen CPU en GPU, zodat je taken efficient kunt opsplitsen zonder enorme latency te introduceren. Dat is nu vaak een bottleneck van hybride taken waarvan een deel beter op de CPU past, en een andere deel beter op de GPU. Statische data zoals textures naar VRAM streamen vanaf een SSD is leuk, maar daar heb je buiten gaming verder niet veel aan.

[Reactie gewijzigd door johnbetonschaar op 22 juli 2024 15:31]

Het voordeel van unified RAM is dat je geen data heen en weer hoeft te kopiëren tussen CPU en GPU, zodat je taken efficient kunt opsplitsen zonder enorme latency te introduceren.
Als DIrectIO bypassed de CPU volledig, oftewel de GPU trekt het rechtstreeks van je storage en verwerklt het op de GPU. Sneller dan dit kan niet. De CPU is alleen hierbij een factor bij moderne GPU berekeningen. Dus die hele unified memory pool is dan ook alleen in deze casus nuttig. Statische texture data is het enige waar nu de CPU bij komt kijken wanneer er geen gebruik gemaakt wordt van DIrectIO.
Ik weet hoe DirectIO werkt ;-)

DirectIO heb je niks aan als je berekeningen wil uitvoeren op dezelfde data die zowel door CPU als GPU wordt benaderd. Bijvoorbeeld simulaties, live video bewerking, image processing, etc, bewerkingen die continu ping-pongen tussen de CPU en de GPU. Dit soort hybride taken zijn nu eigenlijk alleen maar efficient uit te voeren als je zoveel data per keer beschikbaar hebt dat je compute time veel hoger is dan de tijd die het kost om de data via PCIe van systeem RAM naar VRAM te kopiëren en dan de resultaten weer terug, en/of als je de transfer latency kan verbergen door te pipelinen zoals bij bijvoorbeeld video coding waar alle invoer data op voorhand beschikbaar is. Unified RAM heeft ook nadelen (tradeoff tussen bandbreedte en latency, dus GDDR vs DDR bijvoorbeeld, en contention tussen GPU en CPU taken), maar het feit dat je 'gratis' taken over GPU en CPU kunt verdelen is een voordeel...

[Reactie gewijzigd door johnbetonschaar op 22 juli 2024 15:31]

live video bewerking, image processing, etc, bewerkingen die continu ping-pongen tussen de CPU en de GPU.
Alleen pingponged deze data niet in moderne toepassingen. Zodra jij in bijvoorbeeld Premiere of After Effects daadwerkelijk je GPU renderer aanzet dan worden deze taken waar een GPU codepath voor geschreven is echt puur daarop gedaan. Daarom is Cuda zo enorm belangrijk en veelgebruikt in de productie industrie. Simulaties kan ik niet voor spreken, dat doe ik onvoldoende om daar iets over te kunnen zeggen. Maar 3D rendering is ook weer puur GPU geacceleerd als je de juiste hardware hebt. Daar doet mijn CPU echt helemaal niets.
Alleen pingponged deze data niet in moderne toepassingen.
[...]
Zodra jij in bijvoorbeeld Premiere of After Effects daadwerkelijk je GPU renderer aanzet dan worden deze taken waar een GPU codepath voor geschreven is echt puur daarop gedaan.
En waarom denk jij dat dat zo is? Omdat het op een systeem met een traditionele RAM/VRAM split totaal niet efficient is om korte/kleine taken te verdelen over CPU en GPU, de compute tijd valt in het niet bij de transfer tijd. Geen enkele 'professionele' workstation met discrete GPU gebruikt unified RAM, dus alle software wordt zo geschreven dat dat taken ofwel 100% CPU ofwel 100% GPU zijn. De hele range van Apple hardware gaat nu over op Apple Silicon met unified RAM, en dat opent dus de mogelijkheid om bepaalde taken die nu niet efficiënt (deels) kunnen worden uitbesteed aan de GPU, dat nu op MacOS & iOS dus wel mogelijk is.

Om maar een voorbeeldje uit de graphics industrie te noemen: physically based rendering (PBR) is momenteel nog grotendeels een CPU taak, deels raytracen (wat prima op een GPU kan) maar ook grotendeels doorlopen van acceleratiestructuren, berekenen van reflectie functies die voor elk deel van je model anders zijn etc. En dat dan iteratief, over modellen van GB's groot die vaak niet eens in 1x in VRAM passen op een high-end laptop. Grote jongens als Pixar gebruiken nu nog steeds voornamelijk CPU-based rendering voor dit soort dingen (uiteraard voor de productie renders, dat gaat op enorme render farms) maar ook tijdens het productie proces op clients, omdat alles op de GPU doen praktisch niet haalbaar en niet flexibel genoeg is. Dit soort taken kan veel voordeel hebben op een snel UMA systeem met degelijke CPU en GPU.

[Reactie gewijzigd door johnbetonschaar op 22 juli 2024 15:31]

En waarom denk jij dat dat zo is? Omdat het op een systeem met een traditionele RAM/VRAM split totaal niet efficient is om korte/kleine taken te verdelen over CPU en GPU,
Dat en dat een general use CPU gewoon bar slecht is voro harde compute berekeningen waarbij een GPU gewoon extreem veel sneller is.
Geen enkele 'professionele' workstation met discrete GPU gebruikt unified RAM, dus alle software wordt zo geschreven dat dat taken ofwel 100% CPU ofwel 100% GPU zijn. De hele range van Apple hardware gaat nu over op Apple Silicon met unified RAM, en dat opent dus de mogelijkheid om bepaalde taken die nu niet efficiënt (deels) kunnen worden uitbesteed aan de GPU, dat nu op MacOS & iOS dus wel mogelijk is.
Dit klopt, er zijn geen systemen die snelle unified ram hebben, de enige systemen die dit hebben zijn systemen met iGPU's en dan met standaard DDR geheugen. Maar dat deze push er buiten console land er niet is geweest zegt ook wel iets. Het klopt dat Apple dingen kan doen emt izjn OS welke perfect aansluiten op de systemen. Maar dat is niet zozeer de CPU welke van snel geheugen gebruik kan maken naar mijn inziens, maar alle comput eunits welke Apple erbij plakt voor super specifieke taken hieromheen. Bijvoorbeeld 1 compute unit specifiek voor het verwerken van videostreams voor de webcam etc. Dat is echt de kracht van Apple.
Maar dat deze push er buiten console land er niet is geweest zegt ook wel iets.
Leuk voorbeeld: de snelste supercomputer van het moment is gebaseerd op Fujitsu A64FX die net als de M1 een unified memory architectuur heeft. De A64FX doet 1TB/s geheugenbandbreedte met 32GB HBM-geheugen. Het lijkt me evident dat unified memory en heterogeneous computing (een systeem met allerlei efficiënte accelerators) de toekomst zijn. Apple loopt er in voorop.
Dat is een super computer welke zeer specialistische taken uitvoert. Deze is een heel stuk minder snel wanneer het iets doet waar het niet voor gemaakt is.
Wat niet wegneemt dat het aangeeft dat het concept van unified memory en heterogeneous computing heeft bewezen hoeveel sneller het kan zijn dan meer "traditionele" systemen. Geef het een paar jaar en de planken bij de mediamarkt liggen vol met systemen gebaseerd op dezelfde principes als de M1
Als die render bewegend beeld is, dan moet de CPU toch steeds weer de GPU van nieuwe modellen voorzien.
Dat zijn geen instructies welke van het ram naar vram wordt gekopieerd. Dat zijn instructies rechtstreeks van de CPU naar de GPU.
M1 Max = 400GB/s
RTX3080 Laptop GPU = 448GB/s
Dus zo'n groot verschil is het niet.
Dit is up to bij het allersnelste model wanneer er 32 kanalen worden gebruikt. Dit zal vermoedelijk (Geen data over) alleen zij bij de meest high end varianten met de benodigde aantal geheugen chips. Het lijkt er op dat elke GPU core zijn eigen kanaal (en dus bottlenecks ook krijgt) omdat deze allen als een enkele memory controller gaan werken. Denk dat ook daarom Apple heel hard zegt "up tp 400GB/s). BIj Een RTX3080 laptop is dat geen up to. Dat is het gewoon, niet meer en niet minder.
De RTX3080 is ook de snelste die je kunt krijgen van het Intel/NVidia kamp, dus de vergelijking is niet zo vreemd.
Alleen betreft dat een 2500~3000 euro laptop. De 64gb Macbook pro 16 2021 gaat hier flink overheen natuurlijk. De 64gb variant is meer dan 4000 euro. MInder geheugen bij de M1 Max op dit moment betekent dus ok minder bandwidth lijkt het.

De RTX3080 is overigens ook weer een jaar oud. Dus dat loopt niet helemaal synchroon.
Niet vergeten dat je een flink stuk minder energie verbruikt en de laptop nog steeds vrij mobiel is. Zeker met de nieuwe koeling zal het geheel denk ik wel een stuk efficiënter werken, dat is imho ook wel wat waard.
Ik kan je al garanderen dat de M1 Max niet in de buurt komt qua prestaties op 3D gebied dan wat deze Mac gaat doen. GPU's zijn geen X86 versus ARM verhaal. Dus dat stukje kan je al wegstrepen. Qua CPU performance liet de M1 zien dat deze vergelijbaar presteerde aan de X86 evenbeelden met soortgelijk verbruik. https://imgur.com/a/ghG5fnK

De laptops waarmee ik het vergelijk zijn net zo dun/groot als een Macbook pro 15/16. Dus dat valt mee.

Het is wel goed om te zien dat Apple nu eindelijk koeling eens serieus neemt, Als zij dit al deze met de Intel Macbooks waren daar de prestaties ook hoger. Want koeling was echt dramatisch.
MInder geheugen bij de M1 Max op dit moment betekent dus ok minder bandwidth lijkt het.
Nee, bandbreedte komt door het aantal geheugenchips, niet de grootte van de chips. De Pro heeft 2 RAM chips, de Max heeft er 4.
Haha ja en die kost ook maar zo 2000 euro voor een losse gpu :P krijg je er bij Apple tenminste een “gratis” laptop bij.
Alle laptops met Intel HD graphics en 64GB RAM ;).
Maar die hebben geen 10 TFLOP en 400GB/s bandwidth... :D
Noem een PC laptop met 64GB, en omdat M1 SOC "unified memory" hebben zijn deze CPU's wat efficiënter. Mensen hebben geen idee wat efficiëntie doet bij CPU design.

Dit is geen X86 maar ARM architectuur..

[Reactie gewijzigd door obimk1 op 22 juli 2024 15:31]

Sterker nog, het RAM zit in de SOC gebakken. En dat biedt enorme performance voordelen.
Fout. Het RAM zit niet in de SOC, de nieuwe Apples hebben unified memory wat wil zeggen dat de M1-chip via een enkele bus het RAM-geheugen aanspreekt ipv dat de CPU en GPU elk hun eigen RAM-geheugen hebben zoals dat op PCs normaal is. Zie screenshots van het moederbord op https://www.ifixit.com/Ne...mething-old-something-new
Je hebt gelijk 'ingebakken' was niet de juiste bewoording. Maar mijn reactie ging over de ram chips geïntegreerd in hetzelfde package als de m1, tegenover het op het mobo 'gesoldeerde' geheugen van de intel macs. Waardoor het met M1 sowieso al niet meer kwestie van een dimm-slotje toevoegen zou zijn, om zelf te kunnen upgraden (als ze dat al zouden willen).

[Reactie gewijzigd door edwingr op 22 juli 2024 15:31]

Het zit niet in de SoC 'gebakken', wel zitten de ram chips 'on-package' bij de SoC, maar het zijn nog steeds losse chips die apart 'gebakken' worden.
Je hebt gelijk, maar ze zitten niet apart elders op het moederboard gesoldeerd, zoals bij de huidige intel macs het geval is.
Apple gebruikt in haar M1 SOC twee DDR4 RAM chips van Hynix Niet gemaakt door TSMC maar later op de SOC gesoldeerd. We zullen snel weten wie de RAM chip leverancier is.
Heb je dat echt nodig met macOS? iPhone kan ook met minder geheugen toe dan de Android toestellen omdat Apple iOS extreem kan optimaliseren voor de hardware.
Voor de huis- tuin- en keukengebruiker heb je misschien gelijk. Maar die waren eigenlijk al voorzien met de M1 met 8 of 16GB werkgeheugen. Voor de power users geldt dit over het algemeen niet. Als die in Windows meer dan 32GB werkgeheugen vol krijgen, hebben ze dat op een Mac ook nodig. Denk bijv. aan foto- of videobewerking. Data wordt niet opeens magisch kleiner op een Mac. Een afbeelding of filmpje is een bepaald aantal bytes groot, afhankelijk van zaken als resolutie en kleurdiepte. Die hoeveelheid bytes verandert niet op basis van besturingssysteem of processorontwerp. Als je op Windows 64GB werkgeheugen nodig hebt om 4K-filmpjes fijn te bewerken, ga je met dezelfde software op een Mac dus echt niet zomaar met minder werkgeheugen uitkomen. Idem voor gaming, software-ontwikkeling, 3D ontwerp, en dergelijke.
Ik monteer 4K video maar heb met FCPX nog nooit gezien dat het geheugen flink belast wordt. Ben het dus niet met je eens. Weet niet hoe dat is bij Adobe, die poep gebruik ik niet. Leuk verhaal, maar je scoort geen punt.
Misschien dat 4K video monteren in Windows of Linux ook wel met 16GB geheugen kan, ik gebruikte het alleen als voorbeeld. Dat maakt mijn punt niet minder valide. Een concreet voorbeeld van wat ik bedoel: stel ik heb een 100 Megapixel foto met RGB-pixels met 8 bits per kleurkanaal. Een megapixel is een miljoen pixels, dus je hebt in totaal 100.000.000 pixels. Elke pixel heeft een 8-bits waarde voor rood, blauw en groen, dus in totaal 24 bits. Dan heb je dus 2.400.000.000 bits, oftewel 300MB (~286MiB). Zelfs al programmeren de adonissen bij de software-afdeling van Apple nog zo goed, die afbeelding gaat altijd 300MB groot zijn. Bij eigenlijk alle gebruikers die veel werkgeheugen nodig hebben, gaat het om dit soort data die het werkgeheugen vult. Je kunt daar prima een Mac voor gebruiken (ik vind het zelf ook erg fijne apparaten), maar er zit geen magie in dat apparaat waardoor het werkgeheugen opeens groter lijkt dan het is.
Misschien dat 4K video monteren in Windows of Linux ook wel met 16GB geheugen kan, ik gebruikte het alleen als voorbeeld. Dat maakt mijn punt niet minder valide. Een concreet voorbeeld van wat ik bedoel: stel ik heb een 100 Megapixel foto met RGB-pixels met 8 bits per kleurkanaal. Een megapixel is een miljoen pixels, dus je hebt in totaal 100.000.000 pixels. Elke pixel heeft een 8-bits waarde voor rood, blauw en groen, dus in totaal 24 bits. Dan heb je dus 2.400.000.000 bits, oftewel 300MB (~286MiB). Zelfs al programmeren de adonissen bij de software-afdeling van Apple nog zo goed, die afbeelding gaat altijd 300MB groot zijn. Bij eigenlijk alle gebruikers die veel werkgeheugen nodig hebben, gaat het om dit soort data die het werkgeheugen vult. Je kunt daar prima een Mac voor gebruiken (ik vind het zelf ook erg fijne apparaten), maar er zit geen magie in dat apparaat waardoor het werkgeheugen opeens groter lijkt dan het is.
En hoe is dan 64GB niet genoeg?
Mijn oorspronkelijke reactie waar jij op inhaakte was een reactie op iemand die suggereerde dat meer werkgeheugen op Macs misschien niet nodig is omdat macOS/iOS efficienter met werkgeheugen omgaat. Ik ben het daar maar zeer beperkt mee eens, met name bij mensen die veel werkgeheugen nodig hebben is het verschil tussen besturingssystemen te verwaarlozen. Dat heb ik geprobeerd te verhelderen met wat voorbeelden. Wat jij verder in mijn reacties denkt te lezen is mij een raadsel :)
Het klopt dat MacOS zeer efficiënt omgaat met geheugen, beter dan windows 10, ik merk dat dagelijks met mijn 1 jaar oude Lenovo laptop als ik veel applicaties open heb, dan is mijn MacBook Pro met een veel langzamer processor en net zoveel geheugen gewoon veel sneller.
Misschien dat 4K video monteren in Windows of Linux ook wel met 16GB geheugen kan
Zo kun je wel even door gaan. Een Photoshop bestand met niet te veel lagen kan ook prima met 16GB. Er is niet één power user, dat is een heel spectrum. Het blindstaren op hoeveelheid RAM heeft nog nooit echt iemand vooruit geholpen.
Ik zou zeggen: koop hem, doe je ding en bekijk het voor jezelf. Ben je niet tevreden, stuur je hem terug.
Adobe moet je wel gebruiken zodra je aan grotere producties werkt waar ook zaken als animatie etc bij komen kjiken. Het is nou eenmaal 1 van de meest gebruikte ecosystemen binnen de productie wereld. Apple heeft geen tegenhanger gemaakt van bijvoorbeeld After Effects. Dus je kan eigenlijk maar tot zekere hoogte met Final Cut werken en dan heb je weer andere zaken nodig welke Apple zelf niet biedt.

Het geheugen hangt vooral af van wat jij produceerd. Een simpele video versus een super complete video met greenscreening, tracking etc is een heel ander verhaal. Dan nog niet gesproken over kleurendieptes, rendering precisie en nog tientallen nadere zaken.
True, maar die producties worden op renderfarms en workstations gemaakt, niet op een laptop
Ik werk (en mijn team) veel op locatie. Dan moeten we wel. Gelukkig kan mobiele hardware dat deze dagen meer dan prima. Er staat geen enkele desktop bij ons op kantoor meer. Thuis maak ik wel gebruik van een desktop.
Heb je dat echt nodig met macOS?
Zonder extra context is deze vraag niet te beantwoorden. Het is wel zo dat veel native "volgens Apple filosofie" geprogrammeerde apps minder RAM nodig hebben (door onder meer reference counting in tegenstelling tot garbage collection), maar dat geld natuurlijk niet voor alle software.

Hoeveel RAM je nodig hebt hangt in ieder geval van de specifieke workflow af. Nu moet ik zeggen dat ik nu al een half jaar op een 8GB M1 apps compileer met Xcode, en dat dit prima werkt. Je loopt wel tegen de limiet aan als je meerdere simulators wil doen.
Oud gezegde van een computer wetenschapper:

'Who is serious about Software, develops and makes his own Hardware"

Relevant voor Apple, maar helaas niet voor MS.
Microsoft maakt toch ook zijn eigen hardware. Maar ze zijn niet zo gesloten dat ze hun software alleen op hun eigen hardware willen hebben draaien.
Sterker nog, MS is hard bezig haar eigen ARM SoC te ontwikkelen.
Met Boot Camp kon je Windows draaien op Intel Macs. MS heeft misschien nu wat laptops "gemaakt" (ontwerpen ze ook hun eigen Chips?), maar er is een verschil tussen als je 40 jaar alle eigen Hardware maakt of pas een paar jaar dat "erbij" doet. Verder heeft Apple verschillende devices die afgeleid zijn van Mac OS (UNIX), een ouder en stabieler OS dan welke versie van Windows.

Dus als 4 jarige wist je meer dan als 40 jarige?

Niet gesloten? Windows is totaal closed source, bepaalde gedeelten van Mac OS zijn open source (BSD), sommige Mac UI en Mac programma's zijn closed source (bescherming van IP), maar alles van Windows is closed source.
Nou is die 1e M1 nou ook niet echt gemaakt voor dat soort taken.
Daarom heeft ie ook maar 8GB.
Maar met 32 of 64 GB is het een heel ander verhaal.
Als je 7 8K videostreams tegelijk wilt bewerken, dan is het wellicht handig. In de keynote gaven ze aan, dat dit kon :)
Omdat het niet gaan om de programmatuur (OS, apps…) maar om de mogelijkheid om veel data in je RAM te bewerken.
Hoeveel geheugen heb je zelf (heb je / heb je nodig)?

Ik bedoel, 8GB is tegenwoordig kiele kiele, maar 16GB is prima (heb ik ook) en 32GB is luxe. En dat is met een hand vol van die web/Electron apps die geheugen opslurpen, native apps zijn in vergelijking super efficiënt met geheugen.
Waarschijnlijk doet het Mac publiek geen virtualisatie om mee te beginnen, hoeft ook niet als je dat via de cloud doet. Zelfde geldt voor data analyse op een of meerdere sets. Ik heb in m'n werk laptop 32gb en die krijg ik makkelijk op 80% benut, misschien nog wel hoger als ik geen aparte nvram zou hebben (rtx). Op mijn huis tuin en keuken laptop (die vergelijk ik dan maar even met de huidige generatie mbp/mba) zit 16gb upgradable geheugen, samen met een 512gb nvme SSD en een ryzen 7 5700u met het dubbele aan threads en een hogere passmark dan de M1, vergeet ook het prijskaartje niet van 599,- maargoed, als je vast zit aan een ecosysteem als Apple is de keuze nou eenmaal niet reuze.
Aan je opmerking te lezen gebruik je geen Mac, want dan zou je weten dat Docker en VMware heel veel gebruikte tools zijn op de Mac. Het is per slot van rekening voor heel veel developers het platform waar ze op ontwikkelen.
Ik gebruik sinds 3 jaar geen Apple meer, daarvoor een trouwe gebruiker geweest vanaf de G3 reeks en altijd early adaptor (bijv iPhone, iPad, iWatch) en helemaal fanboy. Laatste jaren wel enige irritatie m.b.t de staingate op m'n werk MacBook Pro en toetsenbord problemen op m'n prive MacBook (12"), door een switch van werkgever weer volledig over op Windows & Android. Wel nog even getwijfeld toen de 16" uitkwam en misschien ooit in de toekomst weer, maar niet met de in mijn optiek karige specs (buiten de processor om) van nu.
Welke laptop ondersteunt er meer dan 64GB?
Goede vraag is ook: waarom zou je in godsnaam zoveel geheugen (128 GB) in een laptop op dit moment willen hebben?

Omdat iets kan, betekent niet perse dat het echt nuttig of handig is. We kunnen ook vast 27-inch laptops maken. Of er schijven in stoppen van 16TB, maar waarom?
Ik denk dat je te beperkt naar de markt kijkt, dat er in het consumenten segment niet heel veel nut voor is klopt uiteraard zeker. Behoudens studenten die opleidingen volgen in specifieke (wetenschappelijke) richtingen, zie ik inderdaad in het consumenten segment weinig workloads die er baar bij hebben.

Echter in het zakelijke segment, in het mobile workstation segment meer specifiek, is er best vraag naar, daar bepaalde workloads enorm kunnen profiteren van meer ram. Gezien de prijzen van deze Macbooks lijken deze niet gericht op het consumenten segment, maar op het high end zakelijke segment en laat daar nu juist zo'n beetje de hele doelgroep zitten die mogelijk wel baat heeft bij 128GB.

[Reactie gewijzigd door Dennism op 22 juli 2024 15:31]

Laten we het eens aan het publiek vragen :)

Kom er maar in, zakelijke gebruikers die een laptop hebben met 128 GB en daar daadwerkelijk een toepassing voor hebben!


[krekelgeluiden]


Maar serieus. Behalve servers van hostingproviders en een handjevol wetenschappelijke toepassingen zit niemand daar om verlegen.
Het is inderdaad een niche segment, maar ik denk wel dat je er een redelijk beperkte kijk op hebt, als je denk dat alleen hosting providers en wat wetenschappelijke toepassingen meer dat 128GB vereisen.

Qua servers verkopen wij eigenlijk niets meer met <128GB en wij verkopen echt niet alleen aan hostingproviders, sterker nog, wij verkopen vrij weinig aan hosting providers.

Maar goed, dit gaat over laptops niet over servers. En nee, het marktaandeel laptops dat met 128GB uitgerust kan worden is niet heel groot, maar het gaat wel een stuk verder dan enkel wetenschappelijke toepassingen. Dat niemand erom verlegen zit is dan ook de grootste onzin. Als ik kijk naar de omzet (en uiteraard ook marge, immers zijn de marges in deze segmenten vanwege het lage volume vaak ook aanzienlijk) die wij gedraaid hebben op machines met deze mogelijkheid alleen al het laatste jaar dan kun je daar toch aardig wat leuks van doen ;)

[Reactie gewijzigd door Dennism op 22 juli 2024 15:31]

Genoeg Intel Mobile Sku's die 128GB ondersteunen, zowel in het i5, i7, i9 en Xeon segment, ook genoeg (zakelijke) Latops die deze optie bieden met deze cpu's, maar ook bepaalde gaming modellen hebben de optie.

Zie o.a. (dit zijn niet alle Sku's, slechts enkele voorbeelden).

11th gen
https://ark.intel.com/con...cache-up-to-5-00-ghz.html
https://ark.intel.com/con...cache-up-to-4-80-ghz.html
https://ark.intel.com/con...cache-up-to-4-60-ghz.html
https://ark.intel.com/con...cache-up-to-4-60-ghz.html

9th gen:
https://ark.intel.com/con...cache-up-to-5-00-ghz.html
https://ark.intel.com/con...cache-up-to-4-60-ghz.html

Xeon:

https://ark.intel.com/con...r-16m-cache-2-40-ghz.html
https://ark.intel.com/con...r-12m-cache-2-80-ghz.html

[Reactie gewijzigd door Dennism op 22 juli 2024 15:31]

Van een paar workstations en Xeon uiteraard had ik weet.
Een i5 laptop echter. Handig voor een NUC 8-)
De max is 64gb, maar die moet je bijkopen (flink prijskaartje weer echter).

[Reactie gewijzigd door Markiewong op 22 juli 2024 15:31]

64GB is het maximum, niet 32GB
Hoeveel mensen breiden nu daadwerkelijk hun RAM uit op een laptop? Applicaties en OS ontwikkelen zich echt niet meer zo snel als 15 jaar geleden toen je na een jaar meer RAM nodig had. Nieuwe applicaties draaien ook nog soepel op 10 jaar oude Mac's met 8 of 16GB RAM.
Hoeveel mensen breiden nu daadwerkelijk hun RAM uit op een laptop?
Nouja tegenwoordig niet meer want 't zit allemaal vast gesoldeerd maar vroeger toen 't nog SO-DIMMs waren zeker wel hoor.
Ik kies altijd laptops waar je ram en liefst ook de HDD kan upgraden.
Zo geef je het toestel makkelijk nog een jaartje of 2 extra leven
Mocht je het nog niet al gedaan hebben, probeer dan ook eens een Mac laptop, iMac of Mac mini.

Persoonlijk heb ik zonder upgraden altijd al zeker 2, maar soms wel 4 tot 5 jaar extra leven uit weten te halen.

Of het hem nou in Windows zit, of gewoon de hardware zelf. De gebruiks-levensduur van Apple producten is hoger. De noodzaak tot het apparaat zelf updaten is er eigenlijk niet. Zelfs dan kun je nog beter inruil overwegen, omdat het beter zijn waarde vasthoudt.
ik heb hier een stuk of 3 mac mini's die elk een upgrade kregen over de jaren dat ze in gebruik waren.
werkt er nog steeds eentje van 2012... toen kon dat nog
Hoe is 64GB karig?
32/64GB karig anno 2021? Ik heb sinds maart 2014 16GB RAM en nog nooit vol gekregen.
64GB karig 8)7 Heb je wel verstand van pc's en Macs? |:(
Het is karig afhankelijk van welke taken je uitvoert. Dit is uiteindelijk je geheugen delen tussen je cpu en gpu (ja ze zitten in dezelfde package). Maar wanneer je veel paralelle berekeningen wilt uitvoeren, iets waar deze CPU/GPU sterk in is, dan is 64 GB in bepaalde situaties krap. Zelf trek ik regelmatig mijn geheugen vol in Excel met grotere data sets. Maar bijvoorbeeld meerdere VMs wederom wil je dat niet doen.
Daar zit je met een Microsoft Surface ook aan vast.
Indrukwekkende performance ...
Prima terugkeer van die ports, zoals het hoort !

Design valt me tegen, heel ouderwets. Zeker met het 'saaie' magic keyboard (wat is er magic aan ?)
En de notch snap ik niks van, voegt helemaal niks toe.

Ergste is de prijs, want ik was voornemens 1 te kopen maar 2249 euro voor de instapper is heel wat anders dan de vorige Macbook Pro.
Erg opgewonden voor de release maar ben nu een beetje genezen.

Zal denk ik een 2022 MBA worden of mischien toch maar een 'oude' M1 MBP met de mooie Touchbar.
Laatste 15" die ik kocht begin 2019 was ~3900 euro (32gb, i9 8 core, 512gb ssd) dus ik vind 3900 voor M1 max, 32gb, 32core GPU, 10 core CPU, 1TB SSD, uitstekende vooruitgang voor hetzelfde geld.
Heb je wel eens gekeken wat de intel gebaseerde MacBook pro vorige week nog kosten met een dedicated GPU?
Jazeker en die zou vele malen slechter presteren dan deze laptops.

Dedicated GPU klinkt wellicht heel sexy, maar je moet niet aan Intel HD graphics hier denken ofzo. Ook op GPU vlak zijn deze M1 chips een beest.
Dat bedoel ik, mensen die deze nieuwe laptops erg duur vinden weten klaarblijkelijk niet wat de voorgangers gekost hebben.
Dat je meer krijgt voor de instapprijs staat vast. Maar er zijn voldoende mensen die 1899 (de vorige prijs) nog net te doen vonden en 2249 niet te doen vinden. Bij iedere Mac update kreeg je voor hetzelfde geld meer computer. De pricerange bleeft vergelijkbaar. Net als een paar jaar geleden met de iPhone, kiest Apple er bewust voor om een deel van de klanten kwijt te raken.
Macbook pro begint bij € 1.449,10

Over duur gesproken:
Apple zegt dat het dubbele aantal CPU cores 70% meer performance bied, dan komt de Geekbench multicore performance ongeveer op 13.000
Dat is sneller dan een Mac Pro (Late 2019) Intel Xeon W-3235 @ 3.3 GHz (12 cores) en iets langzamer dan een iMac Pro (Late 2017) Intel Xeon W-2191B @ 2.3 GHz (18 cores).
Indrukwekkend.
Over de GPU zegt men, dubbel cores, 2 keer de performance
GPU
14 Core - Metal score wordt dan 37.800, ongeveer een AMD Radeon Pro WX 7100
16 Core - Metal score wordt dan 43.200 ongeveer een AMD Radeon RX 480
32 Core - Metal score wordt dan 86.400, dat is tussen een AMD Radeon Pro W5700XT en een AMD Radeon Pro VII
Daarbij komt bv hardware matige Prores encoding en decoding, en een veel grotere geheugenbandbreedte.
Real World gaat dit erg snel zijn bij video editing. Alleen om Prores decoding snel te krijg kocht je een Afterburnerkaart van een slordige 2000 Euro.

Als ik nu dus een MacPro samenstel met de 12 Core Xeon, de AMD Radeon Pro W5700XT, 32GB geheugen, 1TB SSD en een afterburner kaart kom ik op 11.099 Euro
De Macbook pro 16" met M1Max met 32GB geheugen, 1 TB SSD kost 3849 Euro
De laatste is niet alleen sneller (snellere CPU, GPU, SSD, Geheugen bandbreedte) maar heeft itt de afterburnerkaart de en encoding van ProRES en ProRES RAW, heeft ook een geweldig goed 16" scherm en voor het prijsverschil kan ik daar dan een Pro Display XDR en een heel mooie 8K TV naast zetten.
Dan heb je ook nog het voordeel dat je hem gemakkelijk mee kan nemen. Ik heb dan ook nog geld over om de Macbook met 64GB te bestellen ipv 32.
Ik ben heel erg benieuwd wat er volgend jaar in de MacPro komt te zitten. 4*M2Max?
De MacBook Pro van 1449,10 heeft slechts 2 Thunderbolt poorten, allebei links. Eén van de belangrijkste pluspunten van de 4 Thunderbolt poorten is dat de poorten zowel links als rechts zitten. Dat is voor veel mensen slechts een detail, maar voor anderen is dat een wereld van verschil.

De extra performance is geweldig .... voor mensen die die performance gebruiken. Veel mensen die het oude instapmodel kochten (met een i5) hebben die performance niet nodig. Die mensen moeten nu 350 euro meer betalen voor performance die ze niet gebruiken.

Ik ben ook heel benieuwd naar wat er aan de bovenkant bijkomt in de MacPro. Die is wel voor een andere klasse gebruikers dan de instapmodellen ;-).
Als je de performance niet nodig hebt, voor € 1.039,00 heb je een air.
Het gaat om de Thunderbolt poorten. Op een Air en op de goedkoopste Pro heb je alleen Thunderbolt poorten aan de linkerkant. Op de vorige Pro van 1899 euro had je Thunderbolt poorten aan beide kanten. De reden dat dat ideaal is, is dat je onder veel meer omstandigheden kan opladen en tegelijk je laptop kan gebruiken.

Edit: ik vergat nog wat. De Air (en ook de goedkopere Pro) kunnen maar 1 extern scherm aansturen. De Pro van 1899 kan wel 2 externe schermen aansturen. Met dit nieuwe model valt er prijstechnisch een gat tussen de goedkopere Pro en de nieuwe 14" Pro. Er vallen best veel mensen in dit gat.

[Reactie gewijzigd door jmvdkolk op 22 juli 2024 15:31]

Ik denk niet dat er veel mensen zijn die erover vallen dat ze maar 1 extern scherm kunnen aansluiten ipv 2 omdat ze niet 400 Euro meer willen besteden aan een veel krachtiger laptop. Sterker nog, ik denk dat je een van de weinigen bent.
Dat kan, dat ik één van de weinigen ben die de goedkopere Pro niet wil vanwege 2 dingen:
- Geen Thunderboltpoort rechts
- Geen mogelijkheid twee externe schermen aan te sluiten

Ik ken in ieder geval een aantal mensen die tot deze weinigen behoren, die nu het model van 1899 hebben en twee externe schermen aansluiten. Ik kan niet beoordelen hoeveel mensen dit zijn. Ik kan wel beoordelen dat deze mensen gaan rondkijken tegen de tijd dat hun Intel Mac niet meer gesupport is.
Het basismodel start nu wel met 512 GB SSD. Daar betaalde je eerst ook zo’n €300 voor. En bij de M1 Max upgrade ga je ook meteen naar 32 GB RAM. Bij mijn gewenste configuratie met M1 Max, 32 GB RAM en 1 TB SSD betaal ik evenveel als in 2017 voor een i7, 16GB RAM en 512 GB SSD volgens mij.

Blijft duur natuurlijk.
Vergeleken met destijds mischien een goede deal maar zoals je zegt blijft het flink wat geld.

Had denk ik een totaal verkeerd beeld.
Ben ik januari in de USA en mischien dat ik hem daar koop.
Toch nog een trapje duurder helaas. Ik heb denk ik dezelfde configuratie als jij (2,9GHz Core i7 - 16GB RAM - 512GB SSD - AMD 560 Pro), en dat was toen ±3.300,-. Nu zit de startende max configuratie op 3.849,-. Da's toch wel een aantal duiten meer (je krijgt ook wel wat voor terug, maar het is toch wel een serieuze brug verder).

[Reactie gewijzigd door juniordiscart op 22 juli 2024 15:31]

Nog steeds goedkoper dan de eerste Macintosh :P Launch prijs van $2500 is inflatie gecorrigeerd $6500+
Qua prijs maak je toch echt een fout.

Je moet natuurlijk wel de High End intel versie nemen ter vergelijking met de 4 USB-C poorten.

Die was bij introductie 2129,- dus die 120,- verhoging valt wat mij betreft echt wel mee als je kijkt wat je er allemaal voor terugkrijgt.

nieuws: Apple brengt MacBook Pro 13" met verbeterd toetsenbord uit voor 1499 ...
En je hebt geen dongles meer nodig ;)
Als je een generatie terug gaat. Zeg maar de 2015 versies had je al deze porten en voor veel minder. Nu zoek je specifiek het model uit met de 4 thunderbolt porten welke weer een klasse hoger zit. Het is wel degelijk prijziger geworden.
Ja ok, op die manier heb je wel gelijk.
Ik was in de veronderstelling dat ze goedkoper waren.
Het goedkoopste 13" model met Intel was tot vorige week volgens mij 1899 euro. Dat model is nu vervangen door de 14" met een instapprijs van 2249. Dat is toch een mooie prijsverhoging voor het instapmodel.
Beide modellen hebben 16 GB geheugen en 512 GB SSD opslag. Het nieuwe model is natuurlijk op allerlei fronten een vooruitgang, maar te duur voor sommigen. Mijn vrouw heeft bijvoorbeeld de MacBook Pro van 2018 voor (toen) 1899 euro. Als we die laptop over een paar jaar vervangen dan is 2249 euro simpelweg te duur. Maar de mogelijkheid van opladen aan beide kanten (via de Thunderbolt poorten) is een vereiste bij de vervanging. Hopelijk komt er een model dat beter past in de komende 2 jaar.
Het goedkoopste 13" model met Intel was tot vorige week volgens mij 1899 euro
Dat is natuurlijk logisch, op dat moment was hij al 15 maanden oud!

Tegen die tijd verwacht ik dat het base model met de nieuwe chip ook wel voor 1999 of lager verkocht wordt.
Apple verlaagt nooit de prijzen. Bij andere partijen gaat de prijs soms naar beneden, maar niet bij Apple. Over 15 maanden betaal je dus nog steeds 2249 euro voor het instapmodel.
Ik dacht toen ik die notch zag; dat zal vast ook voor Face ID zijn, als tegenhanger voor de camera unlock met Windows Hello, maar nee, enkel alleen een normaal webcam oogje in de notch.
Yup, heel teleurstellend.
Mij boeit de kwaliteit van een webcam niet zo. Natuurlijk zal deze best goed zijn maar ik vind de 'prijs' van de Notch te hoog voor wat je verliest.
Wat verlies je dan precies? Alternatief was een hogere bezel en dus minder schermruimte.

Overigens was ik ook niet onder de indruk van de notch, maar dat ding zit eigenlijk altijd in de menubalk op een plek die (bij mij) altijd leeg is.
Een punchhole was een optie geweest en gewoon altijd die extra display ruimte hebben.
Wat je verliest is met name de looks ....
Apple was ooit van innovatie dus vind een oplossing.
Mee eens, er had vast een beter compromis gevonden kunnen worden. En het is inderdaad op een laptop niet erg fraai, ik heb niet gezien of de hoeken scherp of afgerond zijn, dat zou ook vrij nutteloos zijn.

Belangrijkst is dat de software rekening houdt met die notch. Ik verwacht dat Apple daar wel rekening mee heeft gehouden in Monterey, maar het kan betekenen dat bepaalde software zoals bijvoorbeeld Bartender daar aanpassingen voor moet doorvoeren.
Het is gewoon zo dat je er tijden last van gaat hebben want je software, apps, etc nooit allemaal wijzigingen doorvoeren.
Op een iPhone zag je dat ook, en zelfs na jaren een Notch te hebben zag je dat onlangs weer gebeuren bij de wat kleinere Notch.
Ik vind het een zwaktebod en gezien de prijs en kwaliteit van dit soort machines zit je er dan ook vele jaren aan vast.

Het kon anders, en dat hadden ze ook moeten doen.
Met een FaceId erin had ik het begrepen maar nu vind ik het een grote consessie voor een merk dat voorop liep met design.
Dat is nu al jaren niet meer zo.
Ik denk wel dat de impact bij software op de Mac minder is dan bij de iPhone. Ik ben wel benieuwd hoe het werkt met fullscreen apps.. ik vermoed dat die niet 'fullscreen' zijn, maar maximaliseren tot onder de notch.

Wat betreft design.. zo op het eerste gezicht vind ik de vormgeving van de afgeronde onderkant ook minder geslaagd. Ik ben benieuwd hoe het er in het echt uitziet.
Vind het chassis lijken op de oeroude witte MacBook.
Ik vond dat niet de meest fraaie machine en ben derhalve niet impressed.
Ook het futuristische touchbar element is weg en je hebt dus een keyboard en een trackpad, niks speciaals.

Koppel dat aan de oeroude standaard zilver en het spacegray (dat we ook wel gezien hebben) en het is voor mij een design onvoldoende.

Bij fullscreen zal je idd een kunstmatige bezel hebben.


Maar goed, enorm krachtig, verwacht veel van het miniled gebeuren, accuduur zal mega zijn en je kunt er jaren mee vooruit.

[Reactie gewijzigd door Bomberman71 op 22 juli 2024 15:31]

Wat heb je aan een punchhole? Er zit toch geen bruikbare schermruimte omheen? (Als in de ruimte die een notch inneemt versus punchholes)

Alles wat fullscreen gaat, zit blijkbaar onder de notch… Zal voor proffesionele toepassingen wel belangrijk zijn, aangezien je je werk niet met gaten erin wilt bekijken.
Sorry ?
Om een punch hole zit alleen maar bruikbare ruimte !
Je hebt dus fullscreen muv de kleine punchhole.
Nu heb je de grootste Notch ooit met ruimte eronder.
Bij fullscreen video wordt de hele Notch breedte van het scherm zwart teneinde hem te verstoppen.
De info links en rechts ervan boeit doorgaans niet.

Op de iPhone heb je niet eens een bruikbare accu percentage in het scherm.
Moet je eerst swipen omdat de nutteloze accu icoon niks toevoegt. Ipv van het icoon hadden ze makkelijk percentage kunnen plaatsen.
Dat er meer ruimte is, is niet helemaal waar, want naast een enkele punchhole, heb je nog twee extra punchholes ernaast nodig. En de spacing van die drie is door de internals best wel aanwezig. Dus in totaal drie punchholes naast elkaar.

Wat wil je daar tussen hebben? Tekst? Een incoontje en om dat klikbaar te maken je muis-cursor verliezen achter zo’n hole? Lijkt me usability hell.

[Reactie gewijzigd door Some12 op 22 juli 2024 15:31]

Wat zit daar dan allemaal volgens jou ?

Een mic hoeft daar niet te zitten, kan prima in een echte bezel.
Het is niet zo dat er LIDAR en een Dot projector zitten.
Er zit nog een TrueTone sensor (is dit niet ambient light?) en inderdaad een micofoon op dat eiland.

EDIT: De mics zitten al in de behuizing. Dus waar die derde sensor voor is, weet ik niet. (Zag de module uit een leak)

[Reactie gewijzigd door Some12 op 22 juli 2024 15:31]

Laten we wel wezen, je hebt een Notch voor een camera.
Een ambient light sensor kan overal in de echte bezel geplaatst worden en mics ook.
Anno 2022 (daar praat je bijna over) is het echt niet zo dat je niet anders dan een Notch kan.
Begrijp je niet verkeerd, eindelijk een mega mooi scherm en minimale bezels, het werd ook echt tijd want andere merken hebben dat al echt jaren.
En dan krijg je een Notch zonder, in mijn ogen, echt een valide reden.
FaceId had ik de moeite waard gevonden want dan is het de klep open doen en klaar ben je.
TouchID kon mooi samenwerken voor het geval je met een masker zit.

Dat is Pro waardig.
Het is gewoon jammer want de rest is gewoon top !
De notch voegt marketing-technisch zeker iets toe voor Apple. Iedereen herkent straks namelijk een MacBook Pro in de laptop. Functioneel valt de notch in (meestal) lege ruimte in de menubalk en dus hou je wat meer schermruimte in de hoogte over. Dat lijkt me best fijn.

[Reactie gewijzigd door Fox Hound op 22 juli 2024 15:31]

Notch, zodat bezels omhoog getrokken kunnen worden. Geeft ruimte aan een 1080p camera met grote sensor.

Ook voor computationele fotografie / video.
Denk dat de meeste mensen geen notch willen. Ook als dat betekend dat de webcam minder goed is. De XPS15 heeft een smallere bezel, met een webcam erin mét Windows Hello.
Denk dat de “meeste” mensen nu over de notch piepen en dat je er over 6 maanden niemand meer over hoort.

Plus Apple kan mooi volgend jaar of het jaar er op zeggen. Kijk nu kunnen we dit en dat zelfs zonder notch!
Dat was mijn punt helemaal niet, maar dit durf ik wel te stellen, indien deze webcam wordt vergeleken een Windows webcam deze waarschijnlijk beter is.

Windows Hello voor de gek gehouden met een foto?

https://winbuzzer.com/202...ake-camera-images-xcxwbn/
Ik denk inderdaad dat de meeste mensen geen notch willen. Maar bij mij op het werk heeft iedereen inmiddels een soort van notch door de externe camera die we verplicht gesteld hebben omdat de ingebouwde camera's niet voldoende beeldkwaliteit leveren voor prettig vergaderen. Daar klaagt iedereen een paar dagen over, en dan is het klaar.
Zou alleen werken als het OS, de software en de apps er allemaal rekening mee houden.
FaceID had ik wel fijn gevonden en zeer nuttig.

Denk dat je gelijk hebt met een soort van marketing truc.
Ik denk dat de modules voor FaceID nog niet zo klein te maken zijn.
Meen je dat nou ???
En je denkt dat de notch van een iphone groter is ?
Ja op die manier ....
Zou kunnen. Maar snap echt niet waarom ze dan een Notch plaatsen.
Een webcam (ook 1080p) kan makkelijk in de bezel die je altijd hebt.
De bezels zijn dun hoor maar niet mega dun zoals op smartphones zodat een camera niet meer kan.
Volledig nieuw design en het "saaie" keyboard is gewoon volledig nieuw. Is hetzelfde keyboard die bij de nieuwe iMac geleverd worden.
Ja dus ? Is gewoon een ouderwets toetsenbord dat nu wel werkt.
En ja, Touch ID maar dat is nu niks bijzonders meer.
Jammer van de Touchbar maar niet iedereen is daar een fan van.
Ik was wel fan van die touchbar. Maar dit toetsenbord is volledig nieuw ontworpen voor de iMac en die hebben ze nu verwerkt in de Macbook. Ik zou niet weten wat je anders had verwacht als toetsenbord. Deze schijnt erg goed te zijn en geen last te hebben van mankementen.
Helemaal mee eens. Ik verwachtte in iedere mac een werkend toetsenbord. Dat er een compleet nieuw design nodig was is natuurlijk een grote failure. Ik heb op mijn MacBook Pro van 2017 veel last van ghost touches op de touchbar. Ik vind de touchbar desondanks echt geweldig en ga die zeker missen.

Helemaal eens dat het heel jammer is dat FaceID ontbreekt. Ik gebruik Windows Hello op mijn werklaptop, heel handig, en FaceID op mijn iPhone. Unlock met gezicht is net weer handiger (voor mij) dan unlock met vinger. Gelukkig zal ik er bij mijn toekomstige MacBook zelf geen last van hebben omdat die unlocked met mijn Apple Watch. Maar de meeste mensen hebben dat niet.
En de notch snap ik niks van, voegt helemaal niks toe.
Dat is ook een compromis, geen feature (ondanks wat andere telefoonfabrikanten probeerden te verkopen nadat Apple eerst met een 'notch' in hun telefoons kwam).
Apple kwam niet als eerste met een Notch.
De Essential phone was duidelijk eerder.
Apple was wel de eerste met zo'n grote Notch.
Ik ben niet zo een enorme geek of tweaker, maar ik doe mijn best haha. Ik heb het gevoel dat Apple een enorme troef in handen heeft met hun eigen processors gebasseerd op ARM.

Ze laten toch overduidelijk zien dat ze heel veel performance halen uit hun cpu en gpu met een handje vol watt en koeling.

Dat moet toch knagen in het hok van de X86 wereld? Mijn computer draait nu iddle 110 watt zonder mijn monitoren mee te rekenen. Beetje Mac mini draait 30 watt als hij op zijn tenen wordt getrapt.

Gaan intel en Amd hier op antwoorden met ARM soortgenoten? Of is er in de wereld van x86 ook verandering op komst?
Het is geen handjevol wat, de M1 in de vorige generatie trok gemakkelijk 25watt wanneer je deze liet stressen. Dat is in lijn met de rest van de industrie.

De kracht bij Apple is de integratie. Door de integratie van een gpu en andere compute units op het soc in combinatie met software integratie kan apple deze performance goed inzetten. Maar de gpu zelf evenals de cpu zelf zijn niet mega spannend. De geheugen integratie is dat wel. Dat is vergelijkbaar met wat je in videogame consoles ziet. Ook dit is weer mogelijk dankzij de software integratie.
Dat moet toch knagen in het hok van de X86 wereld? Mijn computer draait nu iddle 110 watt zonder mijn monitoren mee te rekenen. Beetje Mac mini draait 30 watt als hij op zijn tenen wordt getrapt.
Check je settings, mijn 5800x tikt nog geen 35 watt aan wanneer idle voor het gehele desktop systeem. Selecteer de balance power profile anders klokt je ryzen niet terug wanneer deze de performance niet nodig heeft. Laat je fans uit gaan wanneer je cpu onder de 60c zit etc.

[Reactie gewijzigd door Sn0wblind op 22 juli 2024 15:31]

35 watt idle is weliswaar heel iets anders dan 30 watt onder load bij de M1.
Dat is power/performance wise een enorm verschil en doet zeer veel voor de batterijduur van de M1.
Ik vergelijk het nu letterlijk met mijn desktop PC, daar wordt gesproken over dat zijn PC idle 110watt verstookt. Mijn Gaming laptop doet nog geen 8 watt wanneer idle uiteraard.

Benchmarks op notebookcheck laten zien dat de M1 vergelijkbaar presteerd qua performance per watt als zijn x86 evenbeelden.

Zie hier bijvoorbeeld in Cinebench, welke native draait op de M1. Op di tlijstje staan meerdere 15watt x86 CPU's https://imgur.com/a/XVD9GpP

IK snap eigenlijk nooit zo goed waarom mensen het marketing riedeltje herhalen maar niet daadwerkelijk benchmarks checken (en dan niet alleen Geekbench welke erg veel de ARM architectuur prefereerd).
Het is toch helemaal niet raar ik dit naar de desktop refereer. Deze M1 chips zitten ook in de desktop verianten zoals de Mac mini en iMacs. Ik ga ervan uit dat deze pro en max serie daar ook heen zullen gaan. Een Mac mini die deze zeer snelle CPU aan boord en 35 watt verbruikt... volgens mij is dat toch wel een dingetje.
Is niet raar inderdaad, het was puur een reactie op EAngeli.

Het stroom verbruik verbruik is op dit moment onbekend voor de M1 Max. Dus daar ga ik geen uitspraken over doen. Maar de M1 versus andere CPU's welke gelijktijdig uitkwamen valt de performance/watt ratio wel enorm mee. Maar de integratie maakt het verschil. Apple opereerd als 1 terwijl bijvoorbeeld AMD en Microsoft echt 2 hele losse partijen zijn en eigenlijk zo performance op tafel laten liggen.
Je bekijkt de extremen van het spectrum. Wat je bij de A14, M1 en ook deze ziet dat er een enorme performancewinst is in het 10-20W gebied (30-40%).

Dat betekent dat de cores efficiënter zijn op lagere clocks en tegelijkertijd minder verbruiken.
Dat geld voor vrijwel elke stukje sillicon op de huidige markt. Kijk naar bijvoorbeeld de Geforce 3080RTX. 320 watt met de default voltages waar deze mee geleverd wordt. Undervolt deze naar 0.825v en je verliest maar een aantal % performance maar je verbruikt dan ook in 1 klap 80 watt minder. Dat is niet ongewoon dus. De curve van verbruik versus performance is niet linear en voor die laatste 10% moet je relatief meer stroom er in drukken.
Dat zijn geen marketing riedeltjes de superieure performance/watt is in real workloads al duidelijk aangetoond.

Heb zelf een M1 Air en met een 3D CAD programma Fusion 360, notabene op Rosetta 2!, krijg je de batterij niet of nauwelijks op zijn knieën daar kan je gerust 8 uur mobiel in werken zonder dat de laptop warm wordt waar menig Intel laptop vol zijn fans blaast en de 4 uur niet haalt.

Zo zijn er nog meer voorbeelden zoals een Webkit compile:
https://techcrunch.com/20...e-that-will-blow-you-away
Dat zijn geen marketing riedeltjes de superieure performance/watt is in real workloads al duidelijk aangetoond.
Heb al benchmarks gepost meerdere keren binnen dit topic vandaag. Geekbench is erg pro ARM qua opzet. Benchmarks zoals Cinebench laten toch een heel ander plaatje zien. Daarom is het een marketing riedeltje.
Heb zelf een M1 Air en met een 3D CAD programma Fusion 360, notabene op Rosetta 2!, krijg je de batterij niet of nauwelijks op zijn knieën daar kan je gerust 8 uur mobiel in werken zonder dat de laptop warm wordt waar menig Intel laptop vol zijn fans blaast en de 4 uur niet haalt.
Dat is niet de ervaring die ik met je deel als voornamelijk Windows user.

Mensen refereren snel naar Rosetta 2 alsof het emulatie is, maar het is een recompiler, het herschrijft de app zodat het wel werk. De performance loss is vrij klein.
Leuk die benchmarks van peak performance, punt is die Apple M1 krijgt veel meer gedaan met een gelimiteerde hoeveelheid energie(batterij).

But the big deal here is really this second chart. After a single build of WebKit, the M1 MacBook Pro had a massive 91% of its battery left. I tried multiple tests here and I could have easily run a full build of WebKit 8-9 times on one charge of the M1 MacBook’s battery. In comparison, I could have gotten through about 3 on the 16” and the 13” 2020 model only had one go in it

Als de Intel/AMD laptop aan de voeding moeten gaat de M1 nog vrolijk door. Niet gek ook, Apple M1 wordt op TSMC N5 gebakken waar de concurrenten op ouder procédé zitten.

[Reactie gewijzigd door AlphaBlack_NL op 22 juli 2024 15:31]

Leuk die benchmarks van peak performance, punt is die Apple M1 krijgt veel meer gedaan met een gelimiteerde hoeveelheid energie(batterij).
Zodra je een M1 pushed, gaa thet energie verbruik ook omhoog. JIj haalt alleen een hele specifieke benchmark aan welke niet geacceleerd wordt op de oude macs maar wel op de nieuwe en is daarom sneller. Dat zegt niet veel over de CPU zelf. Dat is als een Adobe Premiere render moedwillig op de CPU laten doen op systeem A en op systeem B wel door de GPU.

De jump van 7nm naar 5nm is relatief klein en niet mega spannend.
Hoe wordt code-compilatie specifiek "geaccelereerd"? Beide systemen moeten met dezelfde compiler op hetzelfde OS dezelfde code omzetten van mens-leesbaar naar binaire machine-instructies. Hoe is dat geaccelereerd? Zit er een fixed-function Webkit-compilatie-block in een M1? Werkt dat dan ook voor een andere versie van webkit?

Onzin natuurlijk. Niks geaccelereerd. Apple heeft gewoon een heel zuinige A14 uit een iphone genomen en die opgeschaald zodat die meekan met naar beneden geschaalde desktop-CPUs. En ja, die van hun draait op 5nm.
Maar het resultaat blijkt te zijn dat hun chip een stuk zuiniger is.
Je kan comput eunits voor compiling inzetten.

Waar blijkt uit dat de chip een stuk zuiniger is? Full blast tikt de M1 tussen de 25 a 30watt weg.
Als dat al kan en überhaupt lekker werkt voor code-compilatie, dan kan Intel ook compute units van hun Intel Xe inzetten voor compilatie. Da's geen pro/con.

Die maat komt trouwens uit geleverd werk per Joule. Alphablack refereert naar dit artikel: https://techcrunch.com/20...-that-will-blow-you-away/

Nogmaals: zelfde OS, zelfde compiler, zelfde code.
M1 heeft een 58.2Wh batterij. Een 2019 16" intel MBP heeft een 100Wh batterij.
Desondanks heeft de M1 na hetzelfde werk uit te voeren maar 9% opgebruikt en dat model van 2019 39%. Omgerekend 5,2Wh en 39Wh.

Die "25 a 30W" is inclusief scherm en voluit draaiende GPU. De CPU alleen haalt zo'n waardes niet. Een i9-9980HK heeft volgens Intel een TDP van 45W, wat de systeembouwer (Apple) natuurlijk naar wens kan reguleren. Zo'n Intel TDP is trouwens niet helemaal vergelijkbaar.
Het is een chip gebaseerd op stokoude architectuur en proces (14nm++++) die door AMD evengoed keihard wordt geplet. In nagenoeg elke benchmark is de Ryzen even snel of sneller. Alleen in verbruik toont de 10980HK dat hij 80 tot 120% méér verbruikt.
Ja, het ding kán zuiniger lopen, maar dan is ie ook veel trager. Snelheid of laag verbruik: pick one.

Ik weet werkelijk niet wat je probeert te argumenteren. Vorig jaar is de M1 al genoeg van alle kanten bekeken: het ding is snel en efficiënt. Zijn Intels latere processoren al beter dan zo'n 9980HK? Zeker, maar die zitten niet in de macbook waar mee vergeleken wordt.

Maar goed, het zal allemaal wel een complot tegen jou zijn. Mensen die claimen dat ze twee hele werkdagen op een M1 macbook doortikken liegen eigenlijk en pluggen het ding 's nachts tóch in om jou te jennen. Dat moet het zijn. En iedereen liegt zo hard, dat zelfs mensen met kennis van zaken publiekelijk zeggen dat het een verrassend goede chip is.

Zélfs Intel CEO Pat Gelsinger speelt het spelletje mee:
"Apple decided they could do a better chip themselves than we could," Gelsinger said during an interview for "Axios on HBO."
"And, you know, they did a pretty good job. So what I have to do is create a better chip than they can do themselves. I would hope to win back this piece of their business, as well as many other pieces of business, over time."
Misschien, heel misschien, als de CEO van de voormalige leverancier van het hart van Apple laptops- en desktops (goed voor een paar miljard inkomsten per jaar voor Intel) toegeeft dat Apple een sterke chip heeft ontwikkeld, is er wel iets van aan.

Of we zitten allemaal samen in een complot tegen jou. Kan ook.

[Reactie gewijzigd door Arrigi op 22 juli 2024 15:31]

Als dat al kan en überhaupt lekker werkt voor code-compilatie, dan kan Intel ook compute units van hun Intel Xe inzetten voor compilatie. Da's geen pro/con.
Daarom zeg ik altijd dat de kracht niet de hardware is, maar de software integratie van Apple. Iets wa tje ook in consoles ziet. Voor bijvoorbeeld de Tempest audio engine van Sony, gebruikt Sony een enkele GPU compute unit van AMD puur om dit te realiseren. Die compute unit is niet zo speciaal natuurlijk. Maar dat er een comput eunit gereserveerd wordt puur om ruimte audio te acceleren maakt het sneller dan puur met software. Maar je moet hier wel software voor schrijven voor deze specifieke compute unit om dit te realiseren. Dit kan Apple uitstekend doen omdat zij beide de hardware EN software onder 1 dak hebben.
Die maat komt trouwens uit geleverd werk per Joule. Alphablack refereert naar dit artikel: https://techcrunch.com/20...-that-will-blow-you-away/

Nogmaals: zelfde OS, zelfde compiler, zelfde code.
M1 heeft een 58.2Wh batterij. Een 2019 16" intel MBP heeft een 100Wh batterij.
Desondanks heeft de M1 na hetzelfde werk uit te voeren maar 9% opgebruikt en dat model van 2019 39%. Omgerekend 5,2Wh en 39Wh.
Dat Alphablack heirnaar refereerd is mij wel duidelijk aangezien hij zelf de link heeft gepost...... Daar heb ik al op gereageerd. Nogmaals dit wordt wel degelijk met de M1 hardware matig geacceleerd terwijl Apple hier niks speciaals voor doet op Intel based hardware. Zelfde OS maar hetzelfde OS behandelt niet beide CPU's hetzelfde.
Die "25 a 30W" is inclusief scherm en voluit draaiende GPU. De CPU alleen haalt zo'n waardes niet. Een i9-9980HK heeft volgens Intel een TDP van 45W, wat de systeembouwer (Apple) natuurlijk naar wens kan reguleren. Zo'n Intel TDP is trouwens niet helemaal vergelijkbaar.
Het is een chip gebaseerd op stokoude architectuur en proces (14nm++++) die door AMD evengoed keihard wordt geplet. In nagenoeg elke benchmark is de Ryzen even snel of sneller. Alleen in verbruik toont de 10980HK dat hij 80 tot 120% méér verbruikt.
Ja, het ding kán zuiniger lopen, maar dan is ie ook veel trager. Snelheid of laag verbruik: pick one.
Tot die 30 watt is puur het SOC zelf als je deze volledig belast, dus CPU & GPU. De rest buiten beschouwing gelaten.

Intel's architectuur is oud. Maar liep wel heel lang voor. De 14nm van Intel is niet hetzelfde als bijvoorbeeld de 14nm van TSMC. Daar wordt wel mee gerommeld waar zij dit mee onderbouwen. Al is de 5nm wel beter dan de 14nm van Intel of de 10nm nu. Maar het ligt dichter bij elkaar dan jij denkt. Intel's chip architectuur is gewoon erg oud aan het worden. Dat heeft AMD wel laten zien.
Ik weet werkelijk niet wat je probeert te argumenteren. Vorig jaar is de M1 al genoeg van alle kanten bekeken: het ding is snel en efficiënt. Zijn Intels latere processoren al beter dan zo'n 9980HK? Zeker, maar die zitten niet in de macbook waar mee vergeleken wordt.
En toch herhalen mensen onzin welke al ontkracht is of willen het niet 1 op 1 vergelijken in benchmarks waar een architectuur niet in voorgetrokken wordt. Hoe Apple met Intel hardware omging was sowieso al niet denderend. Slechte koeling (de nieuwste 16inch heeft gewoon betere koeling dan wat zij bouwen voor Intel). De Macbook Air bijvoorbeeld had een heatsink welke niet geconnect was door middel van een heatpipe met een radiator en fan. De heatplate zelf maakte niet eens contact met de chip die. Dat soort zaken trok de prestaties gigantisch omlaag. Je zou bijna denken dat Apple dit bewust gedaan heeft om de vergelijking sterker te maken.
Maar goed, het zal allemaal wel een complot tegen jou zijn. Mensen die claimen dat ze twee hele werkdagen op een M1 macbook doortikken liegen eigenlijk en pluggen het ding 's nachts tóch in om jou te jennen. Dat moet het zijn. En iedereen liegt zo hard, dat zelfs mensen met kennis van zaken publiekelijk zeggen dat het een verrassend goede chip is.
Wat maak je het persoonlijk zeg 8)7

Ik heb hier een drie tal laptops waaronder een MBP13 M1 op mijn bureau liggen. Ik weet prima wat ik heb liggen. Ik heb bronnen gepost van de performance in vergelijking met andere CPU's met een soortgelijk TDP. Probeer die maar te ontkrachtigen eerst voordat je gewoon een soort van verbale slugfest van wilt maken.
Misschien, heel misschien, als de CEO van de voormalige leverancier van het hart van Apple laptops- en desktops (goed voor een paar miljard inkomsten per jaar voor Intel) toegeeft dat Apple een sterke chip heeft ontwikkeld, is er wel iets van aan.
Ik heb nergens geclaimed dat het een slechte chip is, ik heb gezegd dat de chip neit zo voorloopt als dat sommige proberen te claimen. Begrijpend lezen.
Ik vind geen enkele bron dat een GPU gebruikt kan worden om C-code (efficiënt) te compileren. Een GPU is hier gewoon niet voor geschikt. Als jij iets anders vindt: toon maar.

Nogmaals: Hoe zou Apple code-compilatie "accelereren"? Acceleratie verwijst naar fixed-function hardware die een héél specifieke operatie héél goed kan uitvoeren. Code compileren is dat niet. Nogmaals: bron? Bewijs?
Als je niet tegen "vage" dingen of "onzin" kan, wees dan de betere man. Waar komt dit vandaan?

Ik heb net een bron getoond waarin je kan zien dat een hele Mac Mini in een énkel geval 31W haalt. Alle andere gevallen zijn <30W. De schrijver van dat artikel schat zelf het piekverbruik van de SoC alleen op ~20-24W in. Jij spreekt dat tegen. Bron?

Het ligt helemaal niet dichter bij elkaar dan ik denk. 5nm TSMC is onweerlegbaar beter dan 7nm TSMC wat onweerlegbaar beter is dan 8nm Samsung wat onweerlegbaar beter is dan 14nm Intel. Net zoals het daarvoor ging. "En toch herhalen mensen onzin welke al ontkracht is"
Architectuur is óók een ding, en ook daar is Apple sterk bezig. Neem het niet van mij aan, geloof Pat Gelsinger of Jim Keller maar.

Was de 2019 16" MBP niet voorzien op een CPU die pieken van >80W doet en sustained graag tussen 50-60W danst (metingen door een Intel® supplied stukje software weergegeven)? Nee, klopt. Wel op een chip van 25W ofzo.
Die koeling doet er trouwens weinig toe in de efficiëntie-vergelijking. Als één chip voor een hoeveelheid werk 20W vraagt en een andere moet throttlen aan 60W om even snel te zijn, dan is de eerste alsnog efficiënter. Koeling voorzien voor 120W helpt de vergelijking niet.

Ik ben hier degene die de hele tijd bronnen aanvoert. Jij zegt de hele tijd dat Apple niet zo'n goed product in de handen heeft en komt de hele tijd af met gejammer over "claims" en "onzin" en "voorgetrokken worden" en een gebrek aan harde feiten.
Ik vind twee
Ik heb bronnen gepost van de performance in vergelijking met andere CPU's met een soortgelijk TDP. Probeer die maar te ontkrachtigen eerst voordat je gewoon een soort van verbale slugfest van wilt maken.
Ik vind tussen de huidige 339 reacties twee reacties van jou met een linkje. Dat is één uniek linkje: https://imgur.com/a/XVD9GpP . Het toont een lijst van CPUs zonder hun TDP.
Van een 1195G7 vind ik geen cijfers, maar van een 1185G7 bvb wel dit:
We did, however, check the system power consumption at the wall using a Kill-A-Watt meter. Desktop idle varies from 7.5W-8.2W, and peak consumption (as measured during the first several seconds of a Cinebench R20 run) is about 66W-68W.
Of dit: https://www.anandtech.com...deep-dive-core-11th-gen/6
In all three power modes, the turbo mode power limit (PL2) is approximately the same at around 52 watts. As the system continues with turbo mode, the power consumed is decreased until the power budget is used up, and the 28 W mode has just over double the power budget of the 15 W mode.

Adaptix clearly works best like this, and although it initially follows the same downward trend as the regular 28 W mode, it levels out without hitting much of a ‘base’ frequency at all. Around about the 150 second mark (120 seconds into the test), there is a big enough drop followed by a flat-line which would probably indicate a thermally-derived sustained power mode, which occurs at 33 watts.
Dit is enkel CPU package trouwens. Niet het hele systeem.
De rest van het artikel is ook interessant trouwens. Het noemt ook héél specifiek dingen als aantal Joules voor een berekening. Relevant, want je vroeg hoe iemand dat in godsnaam kon bepalen. Zo dus.
15 W Renoir: 2842 seconds for 62660 joules
15 W Ice Lake: 4733 seconds for 82344 joules
15 W Tiger Lake: 4311 seconds for 64854 joules
Dus in welke modus is de benchmark gedraaid? Mogen we verbruikte energie tegen snelheid afzetten? Want er zit immers ook een 11980HK met "Intel TDP" van 65W tussen.

Ik zeg ook niet dat ze de concurrentie keihard voor zijn, zeker de procesnode in acht nemend (want ja, dat maakt uit). Wel dat het het een opzienbarend goed product is voor een soort-van complete nieuwkomer op de laptop-CPU-markt.

[Reactie gewijzigd door Arrigi op 22 juli 2024 15:31]

Ik vind geen enkele bron dat een GPU gebruikt kan worden om C-code (efficiënt) te compileren. Een GPU is hier gewoon niet voor geschikt. Als jij iets anders vindt: toon maar.
Ik zeg niet dat het een GPU unit zelf is, ik zeg dat zij compute units hebben in gebouwd om taken te offloaden. Dit hebben zij mooi gedemonstreerd met Logic en een shit load aan mixkanalen aan te maken.

Ziie Apple's eigen documentatie wat zij kunnen accelereren https://developer.apple.com/documentation/accelerate

Dan nog zaken als de Neural engine welke zeer breed ingezet kunnen worden.

Hier nog een blog artikel over het SIMD verhaal wat ook hier invloed op heeft.
https://eclecticlight.co/...-an-introduction-to-simd/
Ik heb net een bron getoond waarin je kan zien dat een hele Mac Mini in een énkel geval 31W haalt. Alle andere gevallen zijn <30W. De schrijver van dat artikel schat zelf het piekverbruik van de SoC alleen op ~20-24W in. Jij spreekt dat tegen. Bron?
Aldus Toms hardware
https://imgur.com/uFyOuxI
Het ligt helemaal niet dichter bij elkaar dan ik denk. 5nm TSMC is onweerlegbaar beter dan 7nm TSMC wat onweerlegbaar beter is dan 8nm Samsung wat onweerlegbaar beter is dan 14nm Intel. Net zoals het daarvoor ging. "En toch herhalen mensen onzin welke al ontkracht is"
Architectuur is óók een ding, en ook daar is Apple sterk bezig. Neem het niet van mij aan, geloof Pat Gelsinger of Jim Keller maar.
Ik zeg niet dat het niet beter is, Begrijpend lezen knul, ik zeg dat het verschil niet zo enorm is als jij doet blijken.

TSMC's 7nm is bijvoorbeeld niet 2x kleiner (ondanks dat TSMC ons dit wilt laten geloven) dan bijvoorbeeld Intels 14nm. HIer een hele mooie video serie hierover https://www.youtube.com/watch?v=uEMDkbF3hu0

Hier kant en klare images
https://hexus.net/tech/ne...ansistors-micro-compared/

Hier een mooie discussie hierover https://www.reddit.com/r/...nd_7nm_are_all_marketing/

Overigens zit Intel nu naar eigen zeggen op 10nm. Maargoed, details.
Ik vind tussen de huidige 339 reacties twee reacties van jou met een linkje. Dat is één uniek linkje: https://imgur.com/a/XVD9GpP . Het toont een lijst van CPUs zonder hun TDP.
Van een 1195G7 vind ik geen cijfers, maar van een 1185G7 bvb wel dit:
Dan klik je door op de bron welke ik refereerde, namelijke Notebookcheck. Daar kan je de gehele CPU lijst vergelijken.

Maar om het jou makkelijk te maken

1195G7: 28watt
1185G7 : 15watt
5600u : 15watt

Wat het lijstje toont is dat al die CPU's erg dicht bij elkaar zitten qua prestaties waarvan meerdere qua TDP vergelijkbaar zijn met de Apple M1. Zo moeilijk is het niet toch?
Ik zeg ook niet dat ze de concurrentie keihard voor zijn, zeker de procesnode in acht nemend (want ja, dat maakt uit). Wel dat het het een opzienbarend goed product is voor een soort-van complete nieuwkomer op de laptop-CPU-markt.
En mijn posts zeggen dus dat Apple niet zo baanbrekend voor ligt als velen in dit draadje claimen maar dat het verdomt dicht bij elkaar ligt. Apple zou ik niet als nieuwkomer bestempelen. Zij zijn hier al mee bezig sinds hun eerste custom ARM chips. Dat maakt het niet een minder goed product. Ik zeg alleen dat Apple de concurrentie niet heeft weggeblazen ondanks dat hun marketing ons anders wilt doen laten geloven.
Dus je hele claim over hoe code compileren geaccelereerd wordt op een Apple-chip is gebaseerd op totaal ongerelateerde dingen. OK. Dat doet er dus niet toe. Code compileren is niet fixed-function. Het originele feit blijft: bij code compileren is een M1 domweg pakken efficiënter dan een 9980HK. Niks te maken met acceleratie.

Dan je energiecijfers: ik maak specifiek de distrinctie tussen systeem en package/SoC bij specifieke loads. Jij wuift die in de wind. Ja, een geheel M1 systeem in een stresstest mét GPU-belasting zal best wel zo hoog uitkomen.
Als we de package power van een M1 vergelijken met die van de specifiek genoemde Intel CPUs, is de vergelijking gewoon heel anders. Waar de M1 tussen 20-24W hangt voor een CPU-only load, vliegt Intel richting de 80W.

Ik zie ook dat je meerdere malen een Intel TDP voor waar aanneemt. Ik heb dat specifiek ook al aangehaald: Intel TDP slaagt nergens op. Zie de Anandtech link waar dit ook specifiek benoemd wordt. Een 45W chip doet veel meer dan dat. Een 28W chip vliegt naar 40W. Puur package power, niet system power.

Ik zeg nergens dat de fysieke grootte van een 7nm chip letterlijk 2x kleiner is dan een 14nm chip, "knul". (Wie had het hier over persoonlijk doen?)
Dus laat de woorden maar in je eigen mond, leg ze niet in de mijne. Ik weet best wat ik bedoel. TSMC wil "ons" dit ook niet laten geloven. Er zijn al kilometers tekst geschreven over nanometer-benamingen.

Dan "klik" ik door op de bron? Ik mocht zelf al op zoek gaan naar die "talloze" (één) vergelijkingen van je, wat dan een screenshot was. Hoezo klikken naar de bron? Wat moet ik dan met die bron? Een intel TDP is niks waard. Zie boven. Je hebt metingen nodig.

Ik kijk de reviews tegemoet. Begrijp nog steeds niet waar je je druk in maakt. Apple, AMD, Intel, Nvidia, Samsung, ARM, RISCV... en zovele andere bedrijven maken mooie producten. Soms is de ene beter dan de andere. Accepteer dat gewoon en wees blij dat er concurrentie is, ook al is jouw favoriete kamp niet op alle momenten leidend.
En deze chip is toch énkel in Apple-producten verkrijgbaar. Als er iets specifiek gedaan moet worden dat niet past in het plaatje zoals Apple het ziet, dan moet je wel elders kijken.
Dus je hele claim over hoe code compileren geaccelereerd wordt op een Apple-chip is gebaseerd op totaal ongerelateerde dingen. OK. Dat doet er dus niet toe. Code compileren is niet fixed-function. Het originele feit blijft: bij code compileren is een M1 domweg pakken efficiënter dan een 9980HK. Niks te maken met acceleratie.
Nee, het is juist een breder plaatje, Appl eheeft het bij de oorspronkelijke M1 presentatie gepresenteerd hoe dit alles samen komt met een Logic Pro demo. Wat overigens ook geen fixed function aangezien elke mixer channel andere taken kan uitvoeren afhankelijk van welke plugins jij hier in laad. Heeft alles te maken met acceleratie
Dan je energiecijfers: ik maak specifiek de distrinctie tussen systeem en package/SoC bij specifieke loads. Jij wuift die in de wind. Ja, een geheel M1 systeem in een stresstest mét GPU-belasting zal best wel zo hoog uitkomen.
Als we de package power van een M1 vergelijken met die van de specifiek genoemde Intel CPUs, is de vergelijking gewoon heel anders. Waar de M1 tussen 20-24W hangt voor een CPU-only load, vliegt Intel richting de 80W.
.
Nee hoor. een iGPU op een AMD soc bijvoorbeeld maakt ook gebruik van het gehele TDP budget en valt hier niet buiten. Het geheugen wordt niet meegenomen bij de M1 soc qua TDP dus dat deze mee gepackaged zit op de soc maakt niets uit. Een 15 watt Intel CPU vliegt niet richting de 80watt. Dat doen alleen de 45watt Intel CPU"s waarbij boost settings niet stock zijn.
Ik zie ook dat je meerdere malen een Intel TDP voor waar aanneemt. Ik heb dat specifiek ook al aangehaald: Intel TDP slaagt nergens op. Zie de Anandtech link waar dit ook specifiek benoemd wordt. Een 45W chip doet veel meer dan dat. Een 28W chip vliegt naar 40W. Puur package power, niet system power.
Kortstondig doet vrijwel elke CPU nu op de markt meer dan het gemiddelde TDP, evenals de M1. Maar daadwerkelijk verbruik is bij NBC ook gewoon in te zien aangezien zij dit benchmarken. Succes. Er zijn systemen welke een niet stock boost gedrag hebben. Dat neemt niet weg dat stock deze CPU's binnen het TDP budget moeten liggen welke vastgelegd zijn door Intel en dit ook doen. Al mijn laptops blijven biijvoorbeeld hiet netjes binnen. Mijn oude Alienware welke 45watt TDP zou moeten zijn kan de 90watt aan tikken omdat er niet standaard waardes in het bios gebruikt worden.
Ik zeg nergens dat de fysieke grootte van een 7nm chip letterlijk 2x kleiner is dan een 14nm chip, "knul". (Wie had het hier over persoonlijk doen?)
Dus laat de woorden maar in je eigen mond, leg ze niet in de mijne. Ik weet best wat ik bedoel. TSMC wil "ons" dit ook niet laten geloven. Er zijn al kilometers tekst geschreven over nanometer-benamingen.
Begrijpend lezen, ik zeg neit dat jij dit zegt, dat is wat TSMC ons daadwerkelijk wel wilt laten geloven. Niet zozeer chip oppvervlak, want dit is onderhevig aan het design. Maar de transistoren zelf.
Dan "klik" ik door op de bron? Ik mocht zelf al op zoek gaan naar die "talloze" (één) vergelijkingen van je, wat dan een screenshot was. Hoezo klikken naar de bron? Wat moet ik dan met die bron? Een intel TDP is niks waard. Zie boven. Je hebt metingen nodig.
ZIe hier boven dat NBC dat netjes test per laptop en er zelfs gemiddeldes van neemt. Het is een mooie database om doorheen te gaan. Wat jier hiermee doet is mijn zaak niet. Jij gaat de discussie aan, en ik steek er niet meer moeite in dan dat jij in jouw eigen posts steekt. Het is allemaal prietpraat zonder enige funderingen, 0 bronnen. Op dat gebied ben je niet zo'n geschikte discussie partner.
Ik kijk de reviews tegemoet. Begrijp nog steeds niet waar je je druk in maakt. Apple, AMD, Intel, Nvidia, Samsung, ARM, RISCV... en zovele andere bedrijven maken mooie producten. Soms is de ene beter dan de andere. Accepteer dat gewoon en wees blij dat er concurrentie is, ook al is jouw favoriete kamp niet op alle momenten leidend.
En deze chip is toch énkel in Apple-producten verkrijgbaar. Als er iets specifiek gedaan moet worden dat niet past in het plaatje zoals Apple het ziet, dan moet je wel elders kijken.
Ik maak mijn nergens druk om, ik maak een cosntatering dat mensen blind in marketing praatjes lopen en dit als weer neerleggen als "feiten" binnen een betoog.Jij weet neit wat mijn favoriete kamp is. Nogmaals ik heb beide platformen in huis. Een hoop aannames, verder weinig voer.
Vermakelijke discussie maar het is duidelijk dat je niet al te diep in de materie zit. Je combinatie van simpele TDP nummertjes en Peak performance nummers, is een erg versimpelde weergave. Dat je niet doorhebt dat de realiteit complexer is en je een analyse van Joules of Wh benodigd voor een bepaalde workload moet hebben om hier echt uitspraken over te doen gaat blijkbaar totaal aan je voorbij. En dan ook nog die onzin over zogenaamde accelerators voor gcc of clang… zonder enige bron

[Reactie gewijzigd door AlphaBlack_NL op 22 juli 2024 15:31]

Meerdere bronnen zijn gepost, als je die al niet ziet. Maakt de discussie weinig uit. Bewust van dat tdp theoretisch is. Daarom raad ik NBC als bron aan welke het per laptop model checken. Er is een gehele database per chip model en geteste laptops met deze cpu's beschikbaar. By default houdt intel en amd zich aan de genoemde tdp waardes en in de huidige generaties staat dat vrijwel gelijk aan verbruik (al wordt power draw ook getest).

Zo moeilijk is het niet.

Maar van mij hoef je het niet aan te nemen, anandtech misschien? https://www.anandtech.com...PU%20draws%20under%20load.

[Reactie gewijzigd door Sn0wblind op 22 juli 2024 15:31]

Hier heb je wat leesvoer om bij te spijkeren: https://www.extremetech.c...ict-cpu-power-consumption

Btw als je bron van de accelerator die SIMD artikelen zijn, dan ben ik not impressed. Dat is zo oud als de weg naar Rome. Dat doet iedereen, ook Intel.

[Reactie gewijzigd door AlphaBlack_NL op 22 juli 2024 15:31]

Een artikel wat herhaald wat ik al eerder zei, moederbord manufacturers passen deze waardes aan en hebben invloed op het boost behaviour.
OEMs Control Motherboard Turbo Values
Intel doesn’t dictate Turbo frequencies to the various motherboard companies. Instead, it encourages them to over-engineer their boards and define their own values for short-term maximum power draw (defined as PL2) and other, overclocking-related variables. This is one way Intel gives OEMs the opportunity to differentiate their products. If Asus, Gigabyte, or MSI want to over-engineer a motherboard to appeal to the hardest of the hardcore overclocking set, they’re allowed to do it. If that board can run a given CPU at a higher frequency for longer, Intel says it’s fine to let it do so.
Alleen is de desktop space niet hetzelfde als de laptop space. Een Razer Blade 15 bijvoorbeeld zal nooit over de 45watt verbruik klokken. Nooit, niet met een PSU connected, niet door met Throttlestop de waardes te veranderen, gewoon nooit. De prestaties welke jij in de benchmarks voor bijvoorbeeld deze laptop ziet zijn binnen het budget van de 45watt. Een Dell XPS 13 zonder high performance mode aan te zetten in het bios, precies hetzelfde verhaal, Alienware M15 series, hetzelfde verhaal.

Misschien niet alleen de headlines lezen, maar ook zaken als laptop reviews lezen. Nogmals Notebookcheck heeft een hele mooie database welke jij hier kan zien en alle laptops per CPU model https://www.notebookcheck...enchmark-List.2436.0.html
Dat gaan we in de toekomst zien. Wellicht is een nieuwe intel of amd architectuur dadelijk weer beter. Of het duurt nog wat jaren.

Ben overigens wel benieuwd naar wat meer praktijk benchmarks. De Apple marketing machine was weer op volle toeren tijdens de keynote 😂😂
Ik weet niet hoe lang het duurt om een CPU te maken, (van ontwerp naar gebakken hebben) maar ik denk dat als het Intel/AMD kamp hierop wilt antwoorden ze eerst ARM moeten licenseren en dan vervolgens alles zo moeten doorontwikkelen tot ze uberhaupt bij dat performance level willen komen… Die lopen jaren achter.

Dus ik denk dat de enige manier om relevant te blijven ze x86 door moeten ontwikkelen en dat steeds energie-efficienter moeten doen. Maar het probleem van x86 is dat de architectuur performance (door complexiteit) over efficientie (versimpeld) heeft verkozen.

Dus misschien gaan ze beide doen? (x86 voor performance relevantie en ARM, of zelfs RISC-V, voor efficientie)

Ik zou mij zorgen maken als ik Intel/AMD was.
Mijn computer draait nu iddle 110 watt zonder mijn monitoren mee te rekenen. Beetje Mac mini draait 30 watt als hij op zijn tenen wordt getrapt.
Uw PC is een NUC?
Want mijn NUC draait ook maar 30 Watt en daar kan ik 2SSD's + RAM naar keuze insteken. 8-)
Wat moet AMD hierop antwoorden? Als ik hun grafiek mag geloven is de M1 Pro zo snel als een 5960HS voor eenzelfde stroom verbruik (gezien die give or take ergens 70% sneller is dan de M1). Uiteraard is de niet genoemde laptop CPU in de Apple grafiek een cherry picked ouder model.

Het is een nette prestatie van Apple om een vergelijkbare low power CPU op de markt te zetten echter daar stopt het ook voor Apple, dat is hun high end verhaal.

Als je bij AMD hun high end verhaal vraagt zit je met een Epyc 7763 in dual socket met een R23 score van 113 516 punten. Een 5960HS zit op 7830 punten (waar de M1 pro vermoedelijk on par mee zal zijn). Uiteraard verbruikt die Epyc 7763 serieus wat meer maar in performance per watt gaat de M1 pro niet winnen, al helemaal niet als je het aantal moederborden en hun verbruik moet meerekenen om aan een vergelijkbare score te komen. De volgende Epyc generatie zet waarschijnlijk dezelfde score neer met slechts 1 socket.

Epyc zit uiteraard in het server segment terwijl Apple het bij enthousiast low power end users het voor bekeken houd. Echter Apple kan mee met X86 in low power segment, dat is en blijft een grote prestratie, maar dat is het ook, het is niet dat ze erover gaan. Ik zie de M1 Pro dus alles behalve X86 doen knagen in zijn hok en waar de M1 Pro het model is voor Apple is, daar moeten ze het wel van hebben, voor AMD is een laptop CPU maar iets waar ze weinig marge op hebben in een aanbod dat véél verder gaat dan enkel low power laptop cpu's.

Uiteraard is de M1 Pro fantastisch nieuws voor diegene die met Apple software aan de slag gaat maar dan hebben we het over software en niet hardware.
In het serversegment zijn dan ook Ampere Computing en Amazon concurrenten van AMD met respectievelijk Altra (Max) en Graviton 2. Volgend jaar komen beide bedrijven ook weer met nieuwe chips, dus het is even afwachten hoe ze dan staan tegenover AMD's Genua processors. Je kunt Apple moeilijk kwalijk nemen dat het bedrijf zich niet richt op servers, maar op prosumer hardware.
Wat ik zo interessant vind aan deze M1 chips is dat ze in laptops passen, maar ook in hun tablets en desktops. Ook in de desktops verbruiken ze weinig energie, maar presteren flink.

Ik heb al een boel reviewers gezien die met hun Mac mini met 16gb gewoon al het zware werk wegwerken. En dat zonder geluid van fannetjes en in een doosje dat niet veel groter is dan een boek.

En dan was dit pas de eerste versie van de ARM chips in Apple zijn plan. Ik zit dan in gedachten af te vragen waarom iemand NIET voor een Mac mini zou gaan als hij zijn volgende desktop uit moet kiezen. Want 'duur' is het niet niet vergelijken de performance. En over het OS is ook weinig te klagen.

De verstokte Windows gebruiker die niets moet hebben van Apple want..... ja dat hoort zo toch. haha. Ik werk nu jaren op beiden en vind het verschil in OS niet zo groot. Maar deze M1 reeksen laten mijn staartje wel kwispelen. Ik had alleen gehoopt dat ze ook iets zouden laten zien dat ze dit in een mini hadden geprikt.

Eerst maar even benchmarks afwachten natuurlijk. Het blijven nu Apple praatjes
Ik had ook graag een Mini gezien met zo'n krachtige CPU/ GPU. Die komt vast nog wel, maar dat zal pas volgend jaar zijn denk ik.
Allereerst: Op zich zit Apple niet zo erg in het vaarwater van AMD. Apple verkoopt enkel hun eigen chips in hun eigen gesloten systeem. Als je voor eender welke reden Windows wil of iets dat niet op MacOS draait of wat dan ook, dan gebruik je geen Apple-chip.

Voor thuisgebruikers die een efficiënte chip willen: AMD gaat ook gewoon naar 5nm gaan. Op dit moment zal zo'n M1 zuiniger zijn in het algemeen, maar voor pure performance blijft AMD gewoon hard concurreren met Intel en Nvidia. Binnenkort komen er Zen3 chips met extra stacked cache uit. Daarna komt Zen4, al dan niet ook varianten met stacked cache. Ze hebben een roadmap en bouwen nu ook al aan Zen5 en opvolgers. Elke keer met architecturale verbeteringen.
De groei is er niet uit. Intel is ook weer aan het innoveren geslaan.
Ze leveren er nu een 140watt voeding erbij. Beetje meer performance en CPU en GPU cores komt toch wel met dezelfde issues als heat als bij Intel en AMD.
Da's wel heftig ja, maar denk dat dit eerder met de fast charging temaken heeft dat ze aankondigden
Wat X86 volgens mij de das om gaat draaien is het duopolie. Bedrijven als Nvidia en Samsung staan te popelen om laptop chips te maken, en met X86 kan dat niet.
Apple laat vooral zien dat het kan.
X86 is nog lang niet weg. AMD toont dat het makkelijk meekan op X86 met ARM. Neem de AMD Ryzen 5800U, ook een 15W processor, die sneller is in multiscore dan de Apple M1. Dus ook met lange accutijden.

De enige die ARM chips levert voor laptops en desktops is Qualcomm en die niet echt succesvol. Zelfs de Microsoft SQ1 en SQ2 ARM processoren zijn met Qualcomm gemaakt. Apple verkoopt geen ARM processoren aan hardware bedrijven. Samsung en Nvidia mag dan wel willen, hardware fabrikanten als Dell en HP en Lenovo zijn nog niet overtuigd én Microsoft moet helpen om Windows 11 er goed op te laten draaien. Denk dat Samsung eerst moet laten zien dat ze eerst superieure ARM chips voor hun mobiele devices kunnen maken en daarvoor mogen ze nog wel een tandje bijzetten.

De eerste ARM chips zijn er al sinds 1987 (prototypes al sinds 1995 en de ontwikkeling al in 1983). ARM ltd, is in 1990 opgericht door Acorn, Apple en VSLI (nu onderdeel NXP). Al in 1991 verschenen de eerste ARM chips van ARM ltd en ook Apple gebruikte ARM processoren in de Apple Newton (PDA) al in 1992. Eigenlijk overwoog in de Apple Lisa al ARM chips te gebruiken (in 1998) maar heeft dat uiteindelijk niet gedaan. Kortom, ARM is ook niet zo jong.

Apple Silicon is zeker een masterpiece. Alleen is het aandeel nog heel klein. Iets van 8-9% zijn Macs (degene nog in gebruik), maar als je alleen naar de M1 kijkt dan is het aandeel nog een stuk kleiner.

Tik dit op een Macbook Pro, zeg het er maar even bij.

[Reactie gewijzigd door xavalon op 22 juli 2024 15:31]

Het gaat erom dat er meer concurrentie gaat ontstaan. Er zijn grote kansen voor Nvidia op deze markt.
Kan iemand me vertellen of het zin heeft om de M1 Max te kopen als je je alleen Ableton Live gebruikt? Is er nog performance winst te halen t.o.v. de M1 Pro?
Dat hangt vooral af van hoe multithreaded het geschreven is. Sowieso is SSD write op de M1 Pro sneller, evenals geheugen bandbreedte, dus dat levert sowieso snelheidswinst op.

Als Ableton veel dingen parallel kan doen, dan zou het een enorme winst opleveren, want dan is meer cores gewoonweg meer beter.
Je schrijft meer cores is beter, maar voor zover ik weet heeft de M1 Max alleen meer GPU cores, en voor zover ik weet gebruikt Ableton geen GPU. Ik heb er niet veel verstand van, maar GPU wordt toch alleen gebruikt voor 3D renders?
GPU's worden al enkele jaren gebruikt om bij te dragen aan andere taken. Maar dat kan enkel als het programma daar ondersteuning voor heeft. Bij Apple gebruiken ze Metal als protocol, wat de samenwerking tussen CPU en GPU een pak gemakkelijker maakt.
Voor Ableton, Logic, FL Studio, Cubase etc maakt de GPU he-le-maal niets uit. Ook niet op MacOS. In dat opzicht zijn de meeste DAW's sowieso erg ouderwets. Logic maakt wel gebruik van extra comput eunits binnen de M1.
Oke, dus de GPU maakt niets uit, maar de andere voordelen van de M1 Max (bijvoorbeeld 64 ipv 32gb geheugen) wel?
Naar mijn ervaring qua muziek productie niet zo heel erg veel. Multithreading is met veel plugins vaak ook meh. Maar als je veel gebruik maakt van samples of zaken als NI Kontakt met een hoop libraries dan is 64gb zeker erg prettig. Daar gooi je het geheugen zo vol mee.
Er zijn M1 met 8 of 10 CPU cores te koop.
Ligt er aan of Ableton of je plug-ins gpu acceleratie gebruiken.
De max heeft meer transistors dus ik denk dat je meer vsti's kan laden en draaien tegelijk. Echter weet ik niet of het nuttig is. Als de pro bv 30 simultaan kan draaien heb je volgens mij wel genoeg in een nummer.
De CPU’s zijn identiek. De enige winst van de Max is meer geheugen bandbreedte en meer GPU kracht.

[Reactie gewijzigd door SirSpuitElf op 22 juli 2024 15:31]

Is er uberhaupt nu nog een mac pro nodig?
De dikste m1 max zou alles moeten kunnen dat je kan bedenken?
Qua snelheid ja, maar capaciteit nee. Als je 1.5TB Ram nodig hebt, dan kan er geen laptop tegen op :)

Maar ik denk niet dat de M chipjes dat ondersteunen, denk het nog een jaar of twee wachten voordat ze een desktop chip neerzetten.

[Reactie gewijzigd door jerkitout op 22 juli 2024 15:31]

Vaak tonen benchmarks tests die relatief kort zijn. Bijvoorbeeld een 10min render. Maar stel dat je met een uur aan materiaal zit. Dan kan bijv. een halve minuut sneller al gauw 3 minuten sneller zijn. Als je dat dan uitstrekt over tientallen sessies in een maand over meerdere personen dan kan het gauw schelen.

Ook kunnen er nog steeds veel complexere workloads nodig zijn waardoor meer compute handig is.

Voorbeeld. 400% enlarge met photo zoom duurt zo'n 200 seconden met een m1. Vermoedelijk alles goed schaal zo'n 100 seconden met m1 Pro. Als je dan 100 foto's per maand aan het upscalen bent is het al bijna 3u sneller. Dan met allerlei andere dingen...

Ook voor multi-tasken is het handig. Verschillende berekeningen op de achtergrond laten uitvoeren terwijl je nog steeds genoeg kracht hebt om creatief bezig te zijn.

[Reactie gewijzigd door Elazz op 22 juli 2024 15:31]

Ik ben benieuwd naar de benchmarks. Ik heb nu nog een zware gaming laptop, misschien vervang ik hem wel met deze
Het vervelende is dat je amper iets kunt spelen op de mac door die structuur (of hoe het ook benoemd moet worden). Zoveel power en dan niet wat simpele games kunnen spelen zonder een virtuele machine.... jammer.

Hopelijk is dat straks wel mogelijk
Klopt, dat zou wle beter worden denk ik. 😊 Maar ik game nu ook niet meer zoveel, een extern beeldscherm gebruiken vind ik wel fijn.
Het zal nog wel even duren voor het gamen op de Mac eindelijk op hetzelfde niveau is t.o.v. Windows! Maar wie weet over een paar jaar, dat het heel normaal is. Speelt natuurlijk ook mee dat de Pro en de Max veel gebruikt zullen worden voor echt zwaar werk. Normaal werk ik op mijn iMac 27inch en mijn Macbook M1 er naast. Voor mijn werkzaamheden met Photoshop, Illustrator, Indesign heb ik geen M1 Pro of Max nodig. De meeste mensen zullen dan ook een MacBook Air of Macbook M1 kopen en zal de gaming markt niet zo geïnteresseerd zijn om voor de Mac alles om te bouwen.
Ook wel prettig om te gamen op mijn PC zodat alles gescheiden blijft.

[Reactie gewijzigd door Maverick2001 op 22 juli 2024 15:31]

Apple zou dan echt met grote ontwikkelaars moeten gaan samenwerken, en dat hebben ze tot nu toe niet laten zien.
Er zijn maar twee bedrijven die echt fatsoenlijk games naar Mac kunnen porten, Aspyr en Feral Interactive. Als ontwikkelaars het zelf gaan doen zoals Valve krijg je troep. Dat moet anders.
Super dat er weer meer poorten beschikbaar zijn!
Er hangt nog steeds een vervelende hub aan mijn Macbook Pro M1 2020 :+

Wel jammer dat de touch bar helemaal weg is, had gehoopt dat dit nog wel een optie zou zijn. :/
Gebruik de touch bar icm BetterTouchTool en heb het zo gepersonaliseerd dat het ontzettend fijn werkt met verschillende programma's..
Er zijn heel veel negatieve reacties op de Touch Bar en ook ik mis de Functietoetsen wel eens.. maar over het algemeen erg prettig met video en audio. De keuze was idd leuk geweest.
Ja precies, de functionaliteit met Adobe premiere / photoshop / logic pro / emoticons, wil daar helemaal geen afscheid van nemen :X
Apple zou gewoon een draadloze externe touchbar moeten maken die je met je Mac kan gebruiken met dezelfde functies.
Zouden deze varianten ook komen naar de iMac 24 en de Mac mini? Als optie. Dat zou wel interessant zijn.

Overigs zag ik weer een 3.5mm Jack op de pro modellen. Naast de MagSafe

[Reactie gewijzigd door redslow op 22 juli 2024 15:31]

3.5mm is nooit van een Mac af geweest.
Alleen van de Iphones al jaren en ipads de laatste jaren (muv de goedkope instapper).
Gelukkig is hij er nog.

Is ook de ENIGE manier om echt HiFi geluid te kunnen beluisteren wat Apple Music nu aanbied.
Wireless gaat dat simpelweg niet.
Onzin, als je echt HiFi geluid wilt luisteren, Lossless, op Apple Music dan gebruik je gewoon de USB poort, om er een DAC en versterker aan te hangen.
Ja, en daar gaan mensen niet mee rond lopen.
Jij kan prima lossless luisteren met een goede headset met kabel, zeker als de device een prima DAC heeft.
En ja, natuurlijk kan je dat ondervangen met een dongle/adapter/interface.
Dus niet de ENIGE manier.
Je kan ook gewoon draadloos naar lossless luisteren, of je er alles uithaalt, nee. Maar met enkel een 3.5 doe je dat ook niet.
3.5mm is altijd beter dan welke BT wireless dan ook.
Dat zeg ik je haalt niet alles er uit, net zoals dat je niet alles er uit haalt wanneer je een willekeurige nette koptelefoon in de 3.5 steekt. Edit nou maar gewoon je bericht van 20:25, dan kunnen we deze 5 reacties ook weghalen.
Edit helemaal niks. Mensen kunnen lezen wat er staat en leren er ook van. Discussie levert vaak meer op dan een enkele post.
Bedankt voor de toevoeging.
Geluidskwaliteit is voor 99% van de gebruikers genoeg, maar waar wireless het echt af laat weten is de latency. Juist op een pro apparaat wat gebruikt wordt voor het bewerken van geluid zou het ontbreken van die poort voor veel mensen een probleem zijn.
Mensen die Professioneel Audio producen werken stuk voor stuk met Audio interfaces !
Niemand die serieus met geluid bezig is heeft genoeg aan alleen een 3.5 audio poort.

Je zit met je Audio out, audio In, Microphone phantom power en zo zijn er meer zaken.
In de studio wel, maar onderweg even afluisteren kan ook best met een direct ingeplugde koptelefoon. Maar zeker niet draadloos vanwege de lag.
Klopt.
Maar afluisteren heeft niks te maken met latency, want alles in de track heeft dezelfde latency.
Latency is een issue en zelfs een killer als je muziek moet INspelen en je dus de beat zelf erin loopt te tikken (midi notes) of mee tracht te spelen met een instrument.
Ik heb toch verschillende dingen die ik in usb-c-poorten kan stoppen waar ik ook lossless audio mee kan afspelen op een MacBook. Ik zal de discussie over compressie en 'echt hifi' maar niet beginnen ;)
Maar de ingebouwde 3.5mm is en blijft wel erg handig, en straks gewoon weer een hdmi-poort ook.
Ja, maar daar heb je het weer, een dongle, adaptor, interface, etc etc.
Het feit dat er heel wat poorten terug zijn geeft aan dat velen toch ongelijk hadden bijna een decennium geleden.
Zelfs bij het keyboard is men terug gegaan naar de basis.
Eenne, ja ... de 3.5mm is geliefd en moet gewoon blijven.

Jammer dat de Ipad's hem bijna allemaal niet meer hebben.
Ik dacht dat die er ook af was. Oeps niet echt wakker dus 😂
10.4 TFLOPS voor de 32-core M1 Max is wel indrukwekkend, zeker als je dit vergelijkt met bijv een RTX2080 (10.1 TFLOPS)
TFLOPS alleen zeggen in principe niet zo heel veel.
In de PlayStation 5 haalt ook 10.28 TFLOPS en dit ook op een iGPU. Een XBOX Series X gaat daar met 12.1 TFLOPS overheen en is ook een iGPU. Maar oke, de TDP is een stuk hoger van deze custom build AMD-processors.

[Reactie gewijzigd door xavalon op 22 juli 2024 15:31]

Op dit item kan niet meer gereageerd worden.