Benchmarkresultaten van Intel Core i9-12900HK-laptopprocessor verschijnen online

Er is een screenshot met Geekbench-resultaten van een Intel Core i9-12900HK-laptopprocessor online verschenen. De cpu krijgt veertien cores en twintig threads en draait op een kloksnelheid van 2,9GHz. Het is niet bekend wanneer laptops met deze cpu uitkomen.

De screenshot is gepubliceerd door Wccftech. Daaruit blijkt dat de laptop-cpu een singlecore-score van 1851 en een multicore-score van 13.256 haalt in de Geekbench-benchmark. De processor presteert in dat benchmarkprogramma beter dan de Apple M1 Max, die volgens Wccftech single- en multicore-scores van respectievelijk 1785 en 12.753 haalt.

Intel Core i9-12900HK via WccftechIntel Core i9-12900HK via Wccftech

De Intel Core i9-12900HK-scores in Geekbench, vergeleken met andere chips van AMD, Apple en Intel. Bron: Wccftech

De komende Alder Lake-chip haalt ook hogere Geekbench-scores dan de huidige Intel Core i9-11980HK en de AMD Ryzen 9 5980HX, in ieder geval uitgaande van de standaard kloksnelheden, zonder handmatige overklok. VideoCardz schrijft dat deze Core i9-12900HK-scores echter ook hoger uitvallen dan de hoogste 11980HK- en 5980HX-scores in de complete Geekbench-database, inclusief eventuele overklok.

De screenshot toont verder dat de Intel Core i9-12900HK beschikt over veertien cores en twintig threads. Daarmee beschikt de processor over zes krachtige P-cores met hyperthreading en acht efficiënte E-cores zonder hyperthreading. Intel publiceerde eerder deze maand al een optimalisatiehandleiding voor ontwikkelaars, waarin het bevestigde dat dit het maximale aantal cores wordt voor Alder Lake-laptopprocessors. De screenshot noemt ook een base clock van 2,9GHz en een incorrecte turbofrequentie van '371MHz'. De cpu is getest op Windows 11 Pro.

De Core i9-12900HK-processor staat niet in de publieke database van Geekbench. De ontwikkelaar van deze benchmark kondigde recent aan dat resultaten van pre-release hardware niet meer gepubliceerd kunnen worden in de online database. Dergelijke hardware kan echter nog wel getest worden in Geekbench, en dus kunnen screenshots van Geekbench-resultaten nog wel uitlekken, zoals ook hier het geval is.

Volgens eerdere geruchten verschijnen de Alder Lake-laptop-cpu's in het eerste kwartaal van 2022. Intel brengt zijn eerste desktopvarianten naar verwachting op 4 november uit, maar laptopprocessors en lager gepositioneerde desktopchips zouden later pas volgen.

Geekbench-screenshot van Intel Core i9-12900HK. Bron: Wccftech

Door Daan van Monsjou

Nieuwsredacteur

24-10-2021 • 17:04

144

Reacties (144)

144
139
60
7
0
46
Wijzig sortering
Zolang er nog geen producten zijn waar deze chip in zit, vind ik het altijd nietszeggend. De MacBook is volgende week al te koop. Daarnaast moet nog blijken hoe zuinig deze chips zijn. Tegen de tijd dat deze chip de troon heeft overgenomen is er misschien al een M2 chip van Apple.

Maar concurrentie is altijd mooi. :)

[Reactie gewijzigd door honey op 22 juli 2024 15:38]

Probleem is dat het voor mijn gevoel niet echt directe concurrentie is, maar is de keuze tussen Intel/AMD en M1 het gevolg is van je laptopkeuze welke veelal op andere factoren gemaakt wordt.

Kun je macOS installeren op een niet-Apple laptop? Nee.
Gaat Apple de M1 beschikbaar maken voor andere fabrikanten? Vrijwel zeker van niet.
Kan M1 buiten emulatie de gigantisch backlog aan x86 applicaties draaien? Nee.

De keuze zal voor 99% toch gemaakt gaan worden op basis van binnen welk ecosysteem iemand nu al zit; en welke software hij/zij wil gebruiken. Ik zie vrijwel niemand ineens een MacBook aanschaffen omdat er wellicht een snellere chip in zit maar het OS helemaal niet fijn vind, of andersom natuurlijk :P

[Reactie gewijzigd door !mark op 22 juli 2024 15:38]

Je vergeet dat er best veel mensen zijn die prima meerdere ecosystemen naast elkaar kunnen gebruiken. Heel veel applicates draaien op beiden en bestanden deel je net zo simpel. Als ik een laptop uitzoek, dan kijk ik naar het gewicht, scherm, snelheid, accuduur etc. Vaak wint Apple als je alle factoren bij elkaar zet, maar het ecosysteem staat niet op de belangrijkste plek.

Hier gebruiken we een Intel Windows (game/editing) PC, een AMD game PC, een intel Windows laptop, een Apple MBA M1, Samsung telefoons en een iPhone en verschillende iPads. In welk ecosysteem zitten wij? ;)
Ik denk oprecht dat je daarmee tot die 1% behoort ja :)

Er zijn eigenlijk al 3 'filters' welke de Apple vs Windows keuze beslissen voordat je überhaupt echt naar de specs gaat kijken voor de meeste mensen.

- Welk besturingssysteem wil je draaien/gebruiken? Voor het gros van de mensen geld dat ze per definitie de voorkeur hebben voor hetgeen ze altijd gebruikt hebben; tenzij ze dat echt niet bevalt.

- Welke applicaties wil je draaien? Als je af en toe een game wilt spelen (en dan bedoel ik een wat grote PC/Console game, geen IOS app), veel bestaande x86 software hebt of helemaal gewend bent aan Apple's specifieke content creatie software dan is de keuze makkelijk.

- Hoeveel wil je uitgeven? Relevant in deze discussie omdat Apple's aanbod pas begint op €1129, als je een budget hebt van minder dan 1000 euro is de keuze dus per definitie al gemaakt.
Je 'van-alles-wat-situatie' lijkt me verre van representatief...
Meestal worden er wel keuzes gemaakt. ;)
Inderdaad. Als van-alles-wat zo ingeburgerd was geweest, dan had Windows een wat minder groot marktaandeel en Apple een wat minder klein marktaandeel (met macOS bedoel ik dan). Maar Windows heeft nog altijd een gigantisch marktaandeel en macOS een vrij klein marktaandeel met ChromeOS wat inmiddels flink op de hielen zit. Dus ja, er worden inderdaad keuzes gemaakt, en die is vaak toch Windows.

[Reactie gewijzigd door TheVivaldi op 22 juli 2024 15:38]

Ik denk dat de Windows keuze ook vaak een budget keuze is. Binnen mijn familie is er geen enkele Macbook, maar veelal laptops van 500-600 euro. Niet omdat ze geen Mac willen, wel omdat ze geen 50% meer willen betalen.

Dat de kwaliteit dan ook beter is boeit ze niet - als je er maar mee op Netflix, Facebook etc kan, een email kan versturen en een reis mee kan boeken. Af en toe een Google search doen. Je kent het wel.

Zo is bvb de 550 euro kostende touch screen laptop van een van de familieleden om van te huilen. Kwam met Windows 10, scherm is echt slecht (kijkhoek, resolutie), ding is niet vooruit te branden, geluid komt langs de onderkant dus je moet 'm 90º kantelen om iets te horen, wifi wil vaak niet verbinden (ook niet met een externe wifi dongle), batterij gaat 3 uur mee als je enkel film zit te kijken, etc etc. Maar het ding heeft een touchscreen, en dat was belangrijk blijkbaar. Oh en heb ik al gezegd dat ie maar 550 euro was?

[Reactie gewijzigd door b12e op 22 juli 2024 15:38]

Maar dat heeft niets te maken met windows of apple. Dat is gewoon op de eerste rij willen zitten voor een dubbeltje. Een medium smartphone gaat voor die prijs over de toonbank.
De conclusie was, een Macbook heb je niet voor een dubbeltje. Dus dat "op de eerste rij zitten" is helemaal niet wat ze willen, wel het dubbeltje uitgeven, en daar zijn ze dan ook tevreden mee.

Meerendeel heeft dan trouwens weer wel een iPhone, want daar willen ze dan weer wel goede kwaliteit. Maar ofwel een SE / oudere generatie nieuw gekocht, ofwel mijn afdankertjes 😊

[Reactie gewijzigd door b12e op 22 juli 2024 15:38]

ik zie nog een reden voor iPhone maar geen Mac: statussymbool. Ze willen buitenshuis kunnen uitpakken met een smartphone waarvan iedereen weet dat hij duur is. De laptop blijft toch meestal binnenshuis gebruikt door de meesten, dus boeit niet dat het goedkoop is.
Valide punt, maar gaat absoluut niet op voor mijn familie. Snap wel dat dat elders een punt kan zijn 😊

E.g. mijn ouders gebruiken hun smartphone voornamelijk waar ook de laptop staat: in het openbaar in hun horecazaak. Beide hebben een iPad en iPhone, maar geen Macbook. Ze hechten gewoon meer waarde aan een goede smartphone - daar kunnen ze immers meer mee dan een laptop. Hebben ze ook altijd bij zich, terwijl die laptop voor strikt noodzakelijke zaken gebruikt wordt (personeel doorgeven aan Dimona etc)

[Reactie gewijzigd door b12e op 22 juli 2024 15:38]

Het is echt onzin dat je hier apple=hoogste kwaliteit stelt. Er zijn menige windows laptops die op veel vlakken beter zijn dan de beste macbooks (het enige waar Apple altijd wint bij laptops is accuduur maar high-end windows laptops halen ook al jaren eenvoudig een hele dag) en iPhones zijn ook lang niet op elk vlak de gold standard voor smartphones.
Verstandige familie. :+
Inderdaad, het heeft gezien het gebruikersdoel geen zin om extra geld te betalen voor premium hardware. Ik heb hier ook een lappie van rond de 500 euro voor er bij. Die is qua prijs-prestatie verhouding beter dan al dat premium spul, eerlijk is eerlijk.
Hier ga ik toch even inspringen, want de prijs-prestatie verhouding van de instapper Macbook Air M1 is vrijwel zeker beter dan jouw 500 euro beestje. Accuduur van 15+ uur bovenop geweldige prestaties die niet onder doen aan een flinke i7 laptop. Daarnaast weet ik uit ervaring dat dit unibody spul ontzettend lang goed blijft. Er zijn heel veel (persoonlijke) redenen om een Macbook te ontwijken, maar sinds het uitbrengen van de M1 reeks is de prijs-prestatie verhouding ineens vlijmscherp.
Nou, vlijmscherp. De M1 begint bij 1000 euro voor het 8gb/256gb model. Daar staan 5800U laptops voor hetzelfde geld tegenover met 16gb/512gb. Zoals deze: pricewatch: Lenovo Yoga Slim 7 13ACN5 (82CY000VMH)
Of deze: pricewatch: HP Pavilion Aero 13-be0240nd

Als je 16gb/512gb op de Mac wilt kost het 1500 euro. 50% duurder is niet scherp.

De 5800U is wat langzamer in single thread en wat sneller in multi-thread. De igpu is wat langzamer: https://www.cpu-monkey.co...vs-amd_ryzen_7_5800u-1763
Maar nu laat je allerlei andere info achterwege: de mac heeft een enorm langere accuduur. Daarnaast ligt het maar net aan je usercase of je die 16gb en meer opslag nodig hebt. Zoals ik in mijn reactie al aangaf, er zijn een hoop persoonlijke redenen om niet voor een macbook te gaan. Een macbook is doorgaans überhaupt een vrij specialistische keuze. Denk aan grafisch ontwerpers, developers of andere creatievelingen. De gemiddelde officetikker of student kan inderdaad eenvoudig uit de voeten met een simpele laptop en die zal dus eveneens niet voor de Lenovo van 900 euro gaan, dat is ook overkill. In mijn ogen is een accuduur van 12-15 uur de meerprijs wel degelijk waard, ook al lever je dan in op opslag/ram, zeker als je lange dagen maakt waarop je dan niet op zoek hoeft te gaan naar een stopcontact.
Nou, "enorm lange accuduur", het is 14 uur tegen 11 uur. Dat is zo'n 20% langer. Lijkt me niet 50% meer geld waard. Bron: reviews: Lenovo Yoga Slim 7 en Slim 7 Pro - Rappe middenklassers met Ryzen 5000

Natuurlijk zijn er persoonlijke redenen om Mac of Windows te kiezen. Men kiest gewoon de laptop waarvan men het OS en de programma's kent. Niemand heeft zin om dat opnieuw te leren. Ook niet voor een 20% langere accuduur.
Vind het persoonlijk ook lastig vergelijken qua hardware gezien beide platforms anders met geheugen om gaat.

Geen exacte data, maar een 8gb macbook draait imo soepeler dan een 8gb windows laptop. Afhankelijk van wat je ermee doet.
Dat hoor ik (bijvoorbeeld vandaag nog op werk) eigenlijk altijd vooral van mensen die geen windows laptops gebruiken. Mijn zenbook UX32VD met samsung 830 en 10GB geheugen draait windows 10 echt prima. Werk op dit moment uitstekend voor een beetje skype, browsen en youtube. Het matte FHD scherm ziet er prima uit. Accuduur is nog maar 1,5~2uur, maar goed dat is dat ook wel te verwachten na bijna 1000~ laadcycli (als ik even 2 keer per week aanhoud). Lijkt me vrij redelijk toch?
Dat zou best kunnen. Echter kom ik van een reeks surface producten af (SP1, 2, 4, laptop2 en surface book 2). Werk bij een retailer met 600 man waarvan een hoop latops afgelopen jaar zijn voor aangeschaft. Het is nogal een mixed bag welke een voorkeur hebben. Content creators vaak mac en overige windows.

Zelf overgestapt van 16gb SB2 naar MBP16. Het hangt ook beetje af van wat voor applicaties je draait vind ik zelf. Waar ik zelf naar kijk is performance waarbij die niet als een tierelier begint te koelen. Daar merk je wel het verschil tussen die M1 MB’s tov de windows laptops betreft balance tussen battery life en performance. (Iets waar ik me wel aan irriteer bij mn mbp16)
Sterker nog. Ik deed 7 jaar met mijn macbook en hij brengt nu nog 600 euro op!
Ik ben bang dat ik mijn Macbook van 6 jaar geleden dusdanig mishandeld heb dat die het niet meer redt voor de tweedehands markt... Maar die resell waarde van macbooks is geen grapje inderdaad.
Wie heeft het over prijs-prestatie verhouding? Het gaat om de hogere aanschafprijs. Daar zitten veel mensen niet op te wachten. Onafhankelijk van de prestaties.
Als je de theoretische snelheden vergelijkt misschien wel, maar de praktische snelheden een stuk minder.

Iemand start eenmalig een browsertje op, dat gebeurt niet de hele dag. Als je intensieve taken uitvoert, ja dan wel, maar welk percentage van de gebruikers doet dat?

Dus iemand start een browser in 1,5 seconden in plaats van 1 seconde, daar ga je geen 500 extra voor neertellen.
Jij hebt het niet echt begrepen, die doelgroep wil geen 1000+ euro uitgeven. Bovendien zit je met het nadeel van het Apple ecosysteem. Apple spul is super duur. Wat heb je aan accuduur van 15 uur als je die laptop maar gemiddeld 1-2 uurtjes gebruikt? Prestatie is leuk maar men is ook tevreden met gemiddelde performance en dat voldoet voor gemiddeld publiek.

Ik bouw altijd mijn eigen systemen.. Ik heb ook een dure dell laptop maar ik merk dat ik die goedkope die ik eigenlijk voor iemand anders hier in huis had gekocht vaker pak en die voldoet.
hoezo verstandig? Mijn 2014! MBP 13", Core i7 16 GB was destijds een rip uit m'n lijf. Nu 7 jaar later werkt hij nog als een tierelier. Met Big Sur er op dat voorlopig nog ondersteund blijft is het mijn primaire privé laptop. Als het stuk gaat koop ik een nieuwe macbook en loopt alles binnen een paar minuten door as usual, al jaren zonder gezeur of geneuzel

Kijk ik een deur verder in de familie dan hoor ik veel gemopper over 'alweer' een nieuwe laptop nodig, omdat het takkeding uit de uitverkoop het alweer opgegeven heeft. Gevolg stapels e-waste en vooral veel gezeur "of die oom niet even kan helpen om de spullen over te zetten"

Van het werk kreeg ik een keuze, een MBA M1 of een budgetair vergelijkbare Lenovo. Voor de MBA zou er dan geen ondersteuning zijn vanuit ICT. Mijn keuze was super simpel, de M1, al was het maar vanwege de batterij. Tot nu toe bewijst het ding zich uitstekend.

Uiteindelijk is goedkoop heel vaak duurkoop

[Reactie gewijzigd door divvid op 22 juli 2024 15:38]

Ik zal niet ontkennen dat een MBP/MBA gewoon een prima apparaat is :)

Maar hetgeen jij verder beschrijft is echt niet uniek voor Apple hoor. Dat geldt voor eigenlijk ook wel voor zo'n beetje voor elke Windows laptop vanaf pak hem beet ~750-800 euro.

Mijn Windows laptop met vergelijkbare specs als jij noemt (i7-3632QM, 16GB Ram, 500GB SSD) voldoet ook nog prima voor alles behalve gaming; officiële ondersteuning van het besturingssysteem nog tot minimaal 2025. Dat apparaat is nog een jaartje ouder dan jouw MBP :+
"of die oom niet even kan helpen om de spullen over te zetten"
Ook dit is niet direct Apple of Windows specifiek, maar meer de werkwijze van de gebruikers. Jij hebt netjes voor elkaar zo te lezen, jouw oom niet. Maar wederom is het ook op Windows prima mogelijk het zou af te stellen dat je binnen een kwartiertje na ontvangst van een nieuwe laptop weer volledig operationeel bent.

[Reactie gewijzigd door !mark op 22 juli 2024 15:38]

Maar wederom is het ook op Windows prima mogelijk het zou af te stellen dat je binnen een kwartiertje na ontvangst van een nieuwe laptop weer volledig operationeel bent.
Je legt precies de vinger op de zere plek.
Het is prima in te stellen…door jou en mij, Niet door de gemiddelde gebruiker die laptop koopt van 400-500 euro. Ik pruts graag met linux oid, maar dit soort dingen moeten gewoon werken
En ik gebruik privé een Dell Latitude E6530 laptop met i7 en 16GB RAM die bijna 9 jaar oud is (release 2012!!).
Ik heb wel al eens de SSD vervangen, wat makkelijk is i.t.t. tot Apple apparaten, en werkt nog goed op de laatste Windows 10 build.

Conclusie: Als je bereid bent om genoeg te betalen voor een kwalitatief toestel dan heb je daar meestal lang genot van.

Maar bij sommige merken betaal je ook een premium voor het merk , het eco-systeem (en het daarbij horende gebruiksgemak).

[Reactie gewijzigd door GoBieN-Be op 22 juli 2024 15:38]

Anoniem: 159816 @divvid25 oktober 2021 08:51
Opmerkelijk gezien werkt mijn laptop uit 2014 ook nog prima. Wat kostte dat ding? 1300 ofzo? In ieder geval velen malen goedkoper dan een MBP.

Net als mijn desktop uit 2011 overigens.
Mijn 2014! Asus Asus Notebook N550LF (met SSD) kostte destijds ongeveer 1000 euro en nu 7 jaar later werkt hij nog als een tierelier met Windows 10 erop! Als het stuk gaat koop ik een nieuwe windows laptop en loopt alles binnen een paar minuten door as usual (Office 365 met o.a. Onedrive), al jaren zonder gezeur of geneuzel! ...
Mijn laptop, inmiddels al weer 7 jaar oud draait ook nog prima hoor en die was 650 ofzo

Toegegeven de laptops met de allergoedkoopste processoren hoeven van mij helemaal niet in de winkel te liggen.
Ik denk dat de Windows keuze ook vaak een budget keuze is.
Denk ik ook. Mensen die ik persoonlijk ken die 'casual' laptopgebruikers zijn willen geen MacBook om de prijs, of hebben een MacBook omdat ze de prijs er wel voor over hebben.
Als er een obstakel is, komt dat door dat ze een besturingssysteem gewend zijn. Maar de software boeit niet zo, die werkt toch wel.
Onder niet-casual gebruikers die ik ken is het wel een ander verhaal.
Mwah, ik denk toch ook gewoon dat Windows gewoon een goed systeem is waarbij er ondersteuning is voor zoveel verschillende hardware dat er voor ieder wat wils is.

Apple is zonder meer mooie hardware en software, maar je moet het maar wel doen met wat ze bieden. Wil je goedkoop? Pech! Groot? Pech! Langzame processor, maar veel schijfruimte? Pech!
ik ben een dag laat maar ik zit een beetje met verbazing door deze thread te lezen. Waarom?

1. We weten allemaal welk OS het nr 1 op de desktop is. dat is Windows. op afstand.
2. We weten ook allemaal wat al jaren de meest verkochte tablet is. Dat is de Ipad. dus IpadOS. (IOS)
3. En het meest verkochte smartphone platform? al jaren Android.

Deze simpele feiten zijn al jaren hetzelfde.
Een willekeurige site die je dit kan vertellen: https://netmarketshare.co...-system-market-share.aspx
(Let op bij tablets: IOS en ipadOS bij elkaar optellen! er zijn ook nog veel oude ipads schijnbaar)

Deze simpele feiten vertellen ons dus ook dat de "van-alles-wat" inderdaad ingeburgerd is en inderdaad de situatie is bij de meeste mensen thuis. Ik snap niet hoe jullie op een andere conclusie uit kunnen komen. Ik bedoel: de cijfers zijn heel erg duidelijk.

Android tablets zijn nu eenmaal vaak ruk en de absolute onderkant van de markt. Zeker sinds Huawei is weggepest. Samsung (en vroeger Huawei) telefoons zijn nu eenmaal een betere bang for the buck dan Iphones. En iedereen die ik ken die ooit voor langere tijd een chromebook moest gebruiken liep op een gegeven moment tegen de beperkingen aan en kocht weer een fatsoenlijke Macbook of Windows laptop. Zo ook mijn huidige directe collega die slim dacht te zijn en maar de helft van zijn laptop budget|(een chromebook van ca 800 euries) heeft uitgegeven aan een chromebook en de rest aan andere leuke spullen heeft besteed. en vervolgens bij thuiswerken permanent op zijn eigen oude pc zit te kloppen want dat werkt tenminste alles.
Mja, ik zie wat je zegt, maar denk vooral de keuze naar een typisch platform ook komt met gebruiksgemak.

Denk dat de keuze er wel degelijk is. Als gamer zie ik me totaal niet een Apple overwegen gewoon doordat de ondersteuning naar macOS volledig afhangt van de developer van het game wat nog steeds geen garantie is. We gaan hier niet discussiëren over mogelijke third-party oplossingen, want dan kom je uit op net datgene waar ik op doel, gebruikersgemak waarbij je niet alles zelf moet zitten te tweaken of aanpassen.

Vroeger zou ik voor productie (niet professioneel) wel een Apple hebben overwogen, maar het Windows platform en de hardware is een heel stuk volwassener geworden waardoor ook daar sterke verbeteringen gemaakt zijn. Ook al mag een Apple nog altijd elementen hebben dat in z'n voordeel spreekt toch hoef ik nu niet meer uit te kijken naar enkel dat, want op gebied van programmatuur zijn er nu meer dan capabele alternatieven voor PC waar dit in het verleden niet zo was.

Als professional ga ik deze discussie niet aan, want dan zijn net die eerder genoemde elementen wel meer doorslaggevend, maar ook hier wordt de marge kleiner dan ze in het verleden was.

Nee, voor mij is het de PC en die wisselwerking van platformen of ecosystemen gaat goed ongeacht op welke ecosysteem je ook zit net juist door de evolutie van PC's en hun software.
Persoonlijk heb ik een sterke voorkeur voor Windows. Daarom dat er hier ook Windows PC's staan. Het is alleen erg irritant dat Apple de beste laptops maakt, alles bij elkaar klopt bijna alles. Vooral nu het mini-led scherm is erg mooi. Een laptop is niet alleen de processor. Als je naar het geheel kijkt, dan kom ik steeds op MacBook uit. Waarschijnlijk gaan we ook een nieuwe MBP kopen, maar als er ooit een gelijkwaardige Windows laptop zou komen, dan zou ik altijd kiezen voor Windows.

Als gamer is voor mij een PC de enige optie.
Ik moet bekennen dat ik die Surface laptops toch wel een hoog Apple-gehalte vind hebben qua stevigheid en uitstraling... En prijs
Als ik een laptop uitzoek, dan kijk ik naar het gewicht, scherm, snelheid, accuduur etc. Vaak wint Apple als je alle factoren bij elkaar zet, maar het ecosysteem staat niet op de belangrijkste plek.
Ligt er bij mij aan. Als ik daar naar kijk dan wint Apple het nog steeds niet. Dit is natuurlijk wel een instinker. (Ik moet erbij zeggen dat gewicht niet meeneem)

[Reactie gewijzigd door Berlinetta op 22 juli 2024 15:38]

Kun je macOS installeren op een niet-Apple laptop? Nee.
Jawel
Nóg wel ja, maar dat is helaas ook een aflopende zaak natuurlijk.
Klopt. Maar in principe heb je wel gelijk
Kan M1 buiten emulatie de gigantisch backlog aan x86 applicaties draaien? Nee.
Nou met een emulator kan M1 (Rosetta 2) al sneller zijn dan een aantal Intel / PC apps natively:


https://www.imore.com/tes...intel-can-run-it-natively

misschien dat je wat beter geïnformeerd mag zijn.

Verder kun je op Intel Macs Windows via Boot camp draaien.

Oh en de "instap" M1,08 x DDR4 geheugen kanalen
M1Pro,16 x DDR5 geheugen kanalen
M1Max, 32 x DDR5 geheugen kanalen

[Reactie gewijzigd door obimk1 op 22 juli 2024 15:38]

Nou met een emulator kan M1 al sneller zijn dan een aantal Intel / PC apps natively:
De benchmarks die je laat zien zetten de M1 alleen af tegen andere Mac's... en de gebruikte benchmark is ook nog eens een native OSX applicatie, geen "PC" applicatie.
Rosetta 2 is om ALLE X86 64 Bits Apps op M1 Macs te draaien Rosetta 2 is geen "vertaalslag" Voor Intel Macs en M1 Macs. (had een betere link voor geven)
Rosetta 2 will let x86_64 apps run on Macs with ARM-based M1 chips
https://liliputing.com/20...h-arm-based-m1-chips.html


En er is ook een ARM Windows10;

https://support.microsoft...3b-f68f-31b0-06f5e4f8ebb5
Nee, Rosetta 2 is niet om alle x86-64 bits apps te laten draaien, het is om alle x86-64 OSX apps te laten draaien.
M1 SOC CPU is een heel ander soort "beest" dan X86 CPU's, het heeft bv een andere soort architectuur dan X86 (En deze architectuur werd beschouwd als langzamer dan de X86 architectuur)

[Reactie gewijzigd door obimk1 op 22 juli 2024 15:38]

De keuze zal voor 99% toch gemaakt gaan worden op basis van binnen welk ecosysteem iemand nu al zit; en welke software hij/zij wil gebruiken. Ik zie vrijwel niemand ineens een MacBook aanschaffen omdat er wellicht een snellere chip in zit maar het OS helemaal niet fijn vind, of andersom natuurlijk :P
Wat vind je van 'echt mobiel'? De M1-processoren hebben meer performance per watt.

Dát is de reden waarom ik een MacBook Pro heb gehaald. Krachtig (zowel cpu als gpu), én enorm goed batterijduur.
Kan M1 buiten emulatie de gigantisch backlog aan x86 applicaties draaien? Nee.
Rosetta 2 is niet een emulator maar een vertaler van x86_64 naar Apple Silicon instructies waardoor de performance impact (vermoed ik) ook minder is dan bij emulatie. https://developer.apple.c...a-translation-environment

Ik vraag me af welke gigantische backlog je bedoelt, want op een enkeling na zijn alle applicaties die ik gebruik Universal. Teams en OneDrive zijn de enige applicaties die nog niet Universal zijn. Ik weet dat Abobe nog een inhaalslag aan het maken is, maar ook daar zijn diverse applicaties al overgezet voor Apple Silicon. (plugins is wel een dingetje schijnbaar). Het kan goed dat er een set aan professionele applicaties die nog niet (volledig) zijn omgezet voor Apple Silicon.

[Reactie gewijzigd door wernervp op 22 juli 2024 15:38]

M1 kun je niet vergelijken met de performance van normale processoren.
Games en andere zware processen draaien sowieso beter in een volwaardige processor, de M1 is bedoelt voor een goede performance versus energie verbruik.
Maar dit is toch ook een zgn mobiele processor voor laptops? Dus is die vergelijking wel ok volgens mij.
Als je in een laptop met deze Intel ook nog eens een mobile 3060 van Nvidia draait, dan vraag ik mij af hoe het zit met stroomverbruik/accu en hitte op een laptop ivm de m1 max. Ik denk dat die m1max op prestaties zeer weinig onder zal doen voor die combo en op hitte en stroomverbruik denk ik dat die m1 Max het sowieso beter zal doen.(even reviews afwachten )

Daarnaast doet die m1 pro(niet de binned versie) hetzelfde op cpu gebied als de m1max(m1 Max heeft alleen dubbel aantal gpu cores en een 2de decoder voor Prores formaat)

[Reactie gewijzigd door Halo_Master op 22 juli 2024 15:38]

Sommige mensen zien hun laptop (zoals die van mij) als een Desktop vervanger.
De laptop die ik heb, is basically mijn desktop vervanger, dit omdat er een i9 met een RTX3080 in zit, die ik makkelijk mee kan nemen naar CampZone, VR ondersteund en meerdere schermen zonder problemen kan bedienen.
De M1 is bedoelt voor de mogelijke programmeur, of gebruiker die een goede performance vs stroom verbruik willen hebben. Vergelijken met een normale CPU is gewoon niet de bedoeling.

De M1 is gebaseerd op een ARM architectuur, welke bedoelt is niet voor performance, maar lage energie verbruik, en heeft een kleinere instructieset dan een gewoon CPU tot zijn beschikking heeft. Hierdoor wordt de M1 ook veel minder warm, maar is minder krachtig hierdoor voor bepaalde processen en handelingen. Aangezien dit wel bekend moet zijn bij Apple, hebben ze natuurlijk binaries gemaakt die specifiek alleen met die instructies functioneren, en hierdoor geen overhead veroorzaakt dat het instructies moet emuleren.
Anyhow, de M1 is best wel nice, maar voor mij overbodig, en ben sowieso geen Apple fan, maar ik kan me voorstellen dat de Apple gebruikers hier wel zeer blij mee zijn.

[Reactie gewijzigd door Power2All op 22 juli 2024 15:38]

De M1 is gebaseerd op een ARM architectuur, welke bedoelt is niet voor performance, maar lage energie verbruik, en heeft een kleinere instructieset dan een gewoon CPU tot zijn beschikking heeft. Hierdoor wordt de M1 ook veel minder warm, maar is minder krachtig hierdoor voor bepaalde processen en handelingen.
Klok, klepel.

Ten eerste slaat het 'reduced' in RISC niet op een kleinere instructieset, maar op eenvoudigere instructies. Dit wil echter niet zeggen dat de instructies op zich minder krachtig zijn. RISC processoren hebben een zogenaamde load-store-architecture, dit wil zeggen dat instructies zijn verdeeld in 2 groepen: instructies die data van het geheugen naar de CPU registers kopiëren (en vice versa), en instructies die bewerkingen uitvoeren op data in de registers. Een CISC processor zoals x86 heeft daarentegen een z.g.n. register-memory architectuur, waarbij instructies bewerkingen direct op het geheugen kunnen uitvoeren. Dit betekent overigens niet dat zo'n bewerking in een CISC processor sneller is, de processor moet nog steeds wachten op het RAM e.d., het betekent alleen dat zo'n bewerking in 1 instructie gecodeerd is in plaats van in meerdere. Het betekent wel dat alle bewerkingen in RISC processoren via registers moeten verlopen, maar dit wordt afgevangen doordat RISC processoren veel meer registers hebben dan CISC processoren. (x86-64 heeft b.v. 16 general purpose registers, ARMv8 heeft er 31)

Het nadeel van de CISC aanpak is dat instructies hierdoor veel complexer gecodeerd zijn en ook een variabele lengte hebben. Dit maakt de instructie decoders in x86 een stuk complexer en maakt het ook heel erg lastig om meerdere instructies parallel te decoderen (je moet vanwege de variabele lengte immers eerst weten hoe lang instructie n is voordat je weet waar instructie n+1 begint).

Doordat RISC een vaste instructiegrootte heeft en je deze dus makkelijk parallel kan decoderen is het makkelijker een grote reorder buffer te vullen (en de M1 heeft dan ook een joekel van een reorder buffer), hierdoor is het ook makkelijker om alle execution units in de CPU core bezig te houden. De M1 is dus vooral zo efficient doordat ie heel veel werk per kloktik kan verzetten.

Het is gewoon veel makkelijker om goede performance uit een RISC processor te halen dan uit een CISC processor. Toen Intel met x86 begon was CISC een goede keuze gezien de techniek van toen, maar nu is RISC duidelijk in het voordeel.
Aangezien dit wel bekend moet zijn bij Apple, hebben ze natuurlijk binaries gemaakt die specifiek alleen met die instructies functioneren, en hierdoor geen overhead veroorzaakt dat het instructies moet emuleren.
Zo werkt het dus totaal niet. Er wordt natuurlijk niets geëmuleerd, AArch64 is een hele eigen instructieset, het is niet alsof 't x86 moet emuleren.
Ten eerste slaat het 'reduced' in RISC niet op een kleinere instructieset
Zal ik even quoten van de RISC site:
A reduced instruction set computer, or RISC (/rɪsk/), is a computer with a small, highly optimized set of instructions, rather than the more specialized set often found in other types of architecture, such as in a complex instruction set computer (CISC).
Het heeft wel degelijk een kleinere instructie set, integendeel tot wat jij beweert, maar het is waar dat deze ook weer meer geoptimaliseerd is om minder clock cycles te maken. Je offert wel uiteindelijk performance op voor bepaalde instructies, aangezien die door een CISC CPU wel sneller behandeld wordt.
Zo werkt het dus totaal niet. Er wordt natuurlijk niets geëmuleerd, AArch64 is een hele eigen instructieset, het is niet alsof 't x86 moet emuleren.
Je snapt hem volgens mij ook niet helemaal.
Het emuleert een x86 CISC of 64bit CISC CPU, aangezien de ARM CPU iets meer instructies moet verwerken, om hetzelfde uit te kunnen voeren, waardoor de ARM trager is. Dat heeft emulatie opzich nodig, anders zal het niet draaien, aangezien een binary zo is compiled om op die architectuur te kunnen draaien. Misschien is emulatie een verkeerde bewoording, maar het komt neer dat het meer moet doen, om datzelfde uit te kunnen voeren wat vele malen sneller op een CISC CPU is.
Als je een ARM variant compiled, zullen dus een boel instructies anders compiled worden, om toch nog "efficient" uitgevoerd te kunnen worden, maar het is nog steeds trager, als een app is gemaakt met een x86 CISC of 64bit CISC processor als doel.

[Reactie gewijzigd door Power2All op 22 juli 2024 15:38]

Zal ik even quoten van de RISC site
(…)
Het heeft wel degelijk een kleinere instructie set, integendeel tot wat jij beweert,
Ik neem aan dat je met ‘de RISC site’ de wikipedia page bedoelt. Als je even verder kijkt op diezelfde pagina:
A common misunderstanding of the phrase "reduced instruction set computer" is that instructions are simply eliminated, resulting in a smaller set of instructions. In fact, over the years, RISC instruction sets have grown in size, and today many of them have a larger set of instructions than many CISC CPUs.
Verder zeg je
Je offert wel uiteindelijk performance op voor bepaalde instructies, aangezien die door een CISC CPU wel sneller behandeld wordt.
Ook dit klopt niet, net iets verder in hetzelfde artikel:
The term "reduced" in that phrase was intended to describe the fact that the amount of work any single instruction accomplishes is reduced—at most a single data memory cycle—compared to the "complex instructions" of CISC CPUs that may require dozens of data memory cycles in order to execute a single instruction.
‘Bepaalde instructies’ worden helemaal niet sneller behandeld in CISC. Het is puur de manier waarop instrucite encoded zijn.
Het emuleert een x86 CISC of 64bit CISC CPU, aangezien de ARM CPU iets meer instructies moet verwerken, om hetzelfde uit te kunnen voeren
Absoluut niet. Er is op geen enkele manier sprake van iets wat ook maar lijkt op emulatie. Een RISC processor probeert op geen enkele manier een CISC te zijn. Het is eerder omgekeerd: moderne superscalar CPUs decoderen hun instructes naar een serie micro-ops, dus intern zijn moderne CISC processoren eigenlijk een soort RISC processor (alhoewel de micro-ops van een nog lager/eenvoudiger niveau zijn dan typische RISC ops en ook RISC processoren decoderen naar micro-ops). In feite werken ze intern vrijwel hetzelfde, het enige grote verschil is de decoder front-end die instrucites naar een serie micro-ops vertaald. In RISC heb je meer instructie nodig om bepaalde bewerkingen te encoderen, maar uiteindelijk levert het een vergelijkbaar aantal micro-ops op als een enkele CISC instructies die eenzelfde bewerking encodeerd.
Als je een ARM variant compiled, zullen dus een boel instructies anders compiled worden, om toch nog "efficient" uitgevoerd te kunnen worden, maar het is nog steeds trager, als een app is gemaakt met een x86 CISC of 64bit CISC processor als doel.
Dat is absoluut niet waar. Uiteraard wordt er anders gecompileerd aangezien het een andere processor is met een andere instructieset, maar dat maakt het niet trager.

Een beetje kort door de bocht, maar waar het op neerkomt is dat je in CISC instructies simpelweg in grotere stappen beschrijft. Bijvoorbeeld: haal een 32-bit getal uit geheugenlocatie X, tel op bij de inhoud van register 5 en schrijf deze naar geheugenlokatie Y kan in x86 in 1 instructie. In RISC zou zoiets 3 instructies zijn: (1) Haal een 32-bit getal op uit geheugenlocatie X en sla deze op in register 1. (2) tel de inhoud van register 1 bij register 5 op en sla het resultaat op in register 1. (3) sla de inhoud van register 1 op in geheugenlocatie Y.

In beide gevallen decoderen deze instructies naar een vergelijkbaar aantal micro-ops en een vergelijkbare hoeveelheid werk voor de CPU. In het geval van ARM zijn deze 3 instructies altijd 12 bytes (4 bytes/instructie) in het geval van x86 is dit lastiger te zeggen, x86 instructies kunnen van 1 tot 15 bytes lang zijn afhankelijk van de instructie en adresseringsmode. In praktijk maar het tegenwoordig qua grootte van de code niet veel uit of het x86 is of ARM.
Anyway, om nog meer lappen met tekst te voorkomen.
Je hebt gedeeltelijk gelijk en ook weer niet.
Als je software schrijft met de gedachten om de minder complexe instructie sets van de ARM te gebruiken, zal de M1 van Apple dat prima behappen. Maar als je de complexe instructie sets van de 64bit processors van tegenwoordig gaat gebruiken, zal de M1 trager zijn, dat weet jij volgens mij ook dondersgoed.
De M1 en ARM CPU's zijn gemaakt door te kijken welke instructie sets bijna tot niet worden gebruikt, en deze zijn weg gehaald, om zo de CPU beter te kunnen laten presteren, of in dit geval, instructies te vereenvoudigen.
In iedere geval, je uitleg heeft mij wel meer laten zoeken naar hoe het zit, maar je hebt ook een gedeelte overgeslagen, emulatie is niet het juiste woord, maar ARM moet via meerdere handelingen datgene bewerkstelligen om een bepaalde instructie te kunnen uitvoeren, waardoor er een performance hit komt, dat is wat ik eigenlijk bedoel.
Als je software schrijft met de gedachten om de minder complexe instructie sets van de ARM te gebruiken, zal de M1 van Apple dat prima behappen
Zo werkt het schrijven van software totaal niet. (bron: ik ben software engineer). Als developer ben je helemaal niet bezig met de instructieset van de processor, dat doet de compiler voor je.
Maar als je de complexe instructie sets van de 64bit processors van tegenwoordig gaat gebruiken, zal de M1 trager zijn, dat weet jij volgens mij ook dondersgoed.
Again, zo werkt het absoluut niet. Je komt over als iemand die nog nooit 1 regel code geschreven heeft. Het enige verschil tussen RISC en CISC is dat RISC onderscheid maakt tussen instructies die data van/naar het geheugen schrijven en instructies die werken op die data. Dat is het enige. Een detail voor de compiler en niet zo zeer voor de developer.
ARM moet via meerdere handelingen datgene bewerkstelligen om een bepaalde instructie te kunnen uitvoeren, waardoor er een performance hit komt
ARM heeft meer instructies nodig om hetzelfde te doen, maar dat wil niet zeggen dat dit performance kost.

Om een analogie te gebruiken:
Jouw (x86) vrouw zegt tegen je: haal even een pak melk bij de Appie. (1 instructie). Of je (ARM) vrouw zegt tegen je: Rij naar de Appie. Haal een pak melk. Rij terug naar huis. (3 instructies). In welk geval duurt het langer om een pak melk te halen ? Het is precies hetzelfde, x86 instructies doen meer in 1 instructie, maar de instructies duren daardoor ook langer om uit te voeren.
voor gaming kan ik je volgen, maar als ik kijk naar de M1 performance vs de i9 workstations op het werk in real life workloads, dan zijn die laatste pas wat beter bij serieuze mulithreaded tasks of echt hele zware grafische dingen. Voor de meeste zaken maakt het bar weinig uit en is geheugen eigenlijk nog de grootste bottleneck
Snap ik, alleen maakt dat nog steeds niks uit.
Software moet worden compiled voor een ARM omgeving, die nog steeds een kleinere instructieset heeft.
Dat de M1 goed werkt, is leuk, maar threading en zwaardere technische berekeningen, zullen altijd nog beter en sneller gedaan worden door grotere instructieset CPU's.
Meeste zaken in de business en voor sommige mensen die geen gaming of zware processen behandelen, is de M1 een prima CPU, heb nooit gezegd dat dat niet zo is.
Alles wat überhaupt langer dan 5 min. nodig heeft knikkeren we op het cluster in een MP omgeving
Je zegt zelf dat het voor de meeste zaken bar weinig uitmaakt, het geheugen de grootste bottleneck is en je eigenlijk alles op een cluster laat renderen. Dan kan je evengoed een Windows laptop nemen van €1000 met 16GB ram ipv de M1 met 8GB. Ik zie bij jou eigenlijk geen use case voor Apple materiaal? De performance is niet nodig en waarschijnlijk ook geen speciale software.
Wow, wat een aanname. Wie zegt dat er maar 8GB in zit, de laatste keer dat ik keek zat er 16 GB in. Als we gaan rekenen doen we dat op 1TB nodes om de orde grootte aan te geven. Daarnaast, enkele apps die wij gebruiken/ontwikkelen zijn MacOS native, doet ‘t niet onder Windows. Gaat prima op een M1
Ik vraag me af op welke informatie je dit baseert. De performance van applicaties omgezet naar Apple Silicon is prima, zeker met de juiste optimalisaties. Ook zie ik niet in waarom ARM in Apple Silicon slechter zou presteren in games met de juiste optimalisaties voor Apple Silicon dan vergelijkbare Intel/ AMD hardware. Dat er weinig populaire games zijn die überhaupt op MacOS draaien ligt meer dat die games daar niet voor worden uitgebracht.
Ik snap dat je als gamer geen MacBook Pro gebruikt , maar ik vind jou erg kortzichtig mbt het stroomgebruik, je hangt het lagere stroomgebruik van de m1(Max/pro) veel teveel aan performance, die dan daardoor in sommige applicaties , volgens jou veel minder zal zijn.
Dat is te zwart wit. Feit is dat de m1 (Max/pro) op 5nm worden gemaakt en de alderlake van Intel op 10nm(al noemen ze dat zelf 7nm, maar blijft 10nm, check maar). En dat heeft ook een grote impact op stroomgebruik, en dit is eigenlijk Intel zijn probleem de hele tijd al, ze krijgen hun processoren niet op een lagere nm geproduceerd.
Ok, omdat we niet 1 op 1 performance kunnen vergelijken wordt dit een beetje een ja/nee verhaal. Dus heeft geen zin.We zullen het wel zien op de langere termijn. Ik denk dat Apple binnen 3 jaar flink gaat inzetten op high end gaming nl.
Je hebt waarschijnlijk wel een punt dat de instructieset uitgebreider kan zijn, maar mijn mening is dat dat uiteindelijk niet gaat opwegen tegen de snelheden en veel snellere architectuur + interconnects (alles in 1 chip+ geïntegreerde gpu en unified memory) in het stroomverbruik. Intel is nu alleen maar hardware tot het maximale aan het pushen met hoog stroomverbruik en hitte, om bij te blijven en dan is er nog een heel pittige mobile gpu nodig ook.
Wordt echt tijd voor een andere architectuur en aanpak van Intel. Binnen 3 jaar , als ze zo doorgaan, zijn ze op high end desktop en laptop helemaal niet meer relevant.

Stel je voor een soc van Apple die net zoveel stroom gebruikt als deze Intel cpu en een Nvidia 3070, dat is hetzelfde als 2,5 tot 3x een m1 max.
Niet helemaal correct, op bepaalde gebieden zijn M1 Pro en M1Max fundamenteel anders dan M1:


M1 => 8 x 16 Bits DDR4 memory lanes
M1Pro => 16 x 16 Bits DDR5 memory lanes
M1Max => 32 x 16 Bits DDR5 memory lanes
Die snap ik niet. de M1 draait prima, games. en wat zijn dan zware processen? Video editing wat de M1 met 2 vingers in de neus doet, en dan ook nog eens met maar 8GB? Het is gewoon een " volwaardige processor". Performance vergelijken is wel zinloos. andere platformen, optimalisaties etc etc.
Deze chip komt tussen eind van het jaar en eerste kwartaal 2022 uit. Dus 2 tot maximaal 5 maanden na de M1 Pro/Max. Ik verwacht dan nog geen M2.
Hier zat ik ook precies aan te denken. Het is goed dat Intel probeert bij te blijven, maar als deze chip pas in 2022 uit gaat komen dan zal die het af moeten leggen tegen de M2 chip. Kortom deze benchmarks zeggen bijzonder weinig.

Wel goed om te zien dat dit extra de concurrentie aanwakkert.
De M2 in 2022 zit in eerste instantie vooral in de Air, wanneer de Pro-varianten van de M2 Pro en Max komen moeten we nog maar zien. Niet dat ik denk dat deze chip daarmee persé een gouden toekomst heeft, maar 2022 is niet het jaar waarin alles waar M1 in zit niet meer actueel is.
Af moeten leggen? Hoe dan? macOS gebruikt geen Intel meer, of in ieder geval gaat Apple niet déze Intel-chip meer gebruiken, en andersom is de M2 niet beschikbaar op andere laptops. Een één-op-éénvergelijking is dus niet mogelijk en daarmee is er dus ook geen ‘aflegger’, want je weet niet hoe deze Intel-chip in een MacBook zou hebben gepresteerd en andersom niet hoe de M2 zou presteren in, zeg, een Asus-laptop.

[Reactie gewijzigd door TheVivaldi op 22 juli 2024 15:38]

Apple kan natuurlijk zijn eigen chips vele malen beter optimaliseren omdat ze ook zelf de software schrijven.

In 2023 laat Apple mogelijk de concurrentie volledig achter zich: https://bgr.com/tech/appl...nd-mac-chips-in-2023/amp/

Ja het is een beetje een appels en peren vergelijking. Maar zelfs dan kun je best voorspellen of een racewagen sneller gaat zijn dan een botsauto.
Kortom deze benchmarks zeggen bijzonder weinig.
De vergelijking met een M1/M2 zegt nog minder, iemand kijkt toch niet naar welke CPU hij wil om daar zijn ecosysteem op aan te passen? Nee je kijkt binnen het ecosysteem waar je in zit naar welke hardware er bij je (budget) past.

Mijn gamelaptop (en gamepc) gaan echt niet ineens draaien op een Apple CPU, de enige optie voor een Apple CPU bij mij heeft is als ik een nieuwe macbook nodig heb voor/van mijn werk. IMO concurreert de M2 dus op geen enkele manier met Intel en AMD. De vergelijking is leuk maar veranderd niks aan de opties die ik heb.

Alleen mensen die twijfelen tussen 2 ecosystemen en genoeg geld hebben hebben daadwerkelijk iets om te vergelijken om met die vergelijking ook daadwerkelijk een keuze te maken.

Ik vergelijk deze Intel dus met de AMD want dat zijn de enige kanshebbers in de strijd welke ik op een Windows gamelaptop ga gebruiken :)

[Reactie gewijzigd door watercoolertje op 22 juli 2024 15:38]

Ah dat is puur voor gaming. In die markt blijft de strijd echt voorlopig nog wel even gaan tussen Intel en AMD.

Voor andere doeleinden denk ik dat veel consumenten en bedrijven zich echt af moeten vragen waarom je een PC boven een M1 Mac zou verkiezen (zeker in 2022 als we ook hopelijk nieuwe iMac Pros, Mac Minis en Mac Pros krijgen). Wellicht als je een heel specifiek pakket nodig hebt dat niet op de Mac draait.
Wat de M1 uniek maakt is de dedicated blokken, encoding decoding H264 265 Pro Res tot 2x op de Max (Intel heeft quick sync maar lijkt niet zo performant) ISP voor al wat beeldverwerking is en een 16 core Neural engine, en Matrix multipliers … dat maakt dat de CPU cores enkel “CPU” werk moeten doen. Maar het ziet er wel naar uit dat ze bragging rights hebben van de snelste … Maar als je kijkt naar real world performance dan zie vooral in content creation heavy applicaties zoals DaVinci Resolve dat er geen vergelijk is … Nu voor gaming zal die Intel wel de king of the hill zijn, de hoge core performance is daar belangrijk (maar je hebt er geen 14 nodig want de meeste games schalen maar tot 4). Wat wel bizar is dat de Multi core score eigenlijk de M1 nauwelijks ontloopt, je zou verwachten dat met 14 cores het verschil veel groter zou zijn, te meer dat de M1 maar 8 high performance cores heeft.
Wat wel bizar is dat de Multi core score eigenlijk de M1 nauwelijks ontloopt, je zou verwachten dat met 14 cores het verschil veel groter zou zijn, te meer dat de M1 maar 8 high performance cores heeft.
Maar er staat toch ook dat de Intel maar 6 high performance cores heeft?
Daarmee beschikt de processor over zes krachtige P-cores met hyperthreading en acht efficiënte E-cores zonder hyperthreading.
Denk dat het aantal cores op deze manier Apples met peren vergelijken wordt.
had ik over gekeken 8)7
Die intel chip zuipt 2 a 3x zoveel stroom dan zon apple m1 max 10 core cpu is limited op 30w de cpu package.

Intel snapt er helemaal niks van. Zon chip wil je niet eens in je laptop. Blazen als een orkaan en throttlen.. ze maken m puur om stoer te doen.

[Reactie gewijzigd door BruceLee op 22 juli 2024 15:38]

Even voor de gowde orde, waar staat hoeveel een Macbook Pro met m1 max verbruikt onder load?
De voeding die erbij zit is 140watt, wat van een andere orde is dan de 30watt lader bij de macbook air met originele m1.
Dat samen met het feit dat Apple zelf zegt dat de SoC de prestaties weet te evenaren van een high end intel laptop cpu+Laptop gtx3080(dan hebben we het over 150watt+)alleen dan 40% zuiniger(natuurlijk heel knap) vertelt me dat de m1 max zeker zo tegen de 100watt zal gebruiken. Je 30watt claim lijkt me onwaarschijnlijk.
In de keynote hebben ze duidelijk getoond dat de CPU 30W max neemt en de GPU 60 watt Max … Beide zullen natuurlijk nooit 100% tegelijk nemen maar een piek vermogen van 75 watt lijkt aannemelijk, eind deze week zullen we het wel weten. Maar in dagelijks gebruik ga je dus waarschijnlijk daar op een fractie van zitten … mijn M1 zijn ventilator komt enkel en alleen op als ik heavy Java app’s gebruik, zelfs een heavy filter in PS laat de ventilator niet aangaan, of een hele dag teams op batterij … Mijn i7 en i9 kan ik dan al lang een eitje bakken.
Nu heb ik niet nagekeken of de feiten die YMarK en jij zeggen kloppen maar er is geen enkele reden voor Apple om er een voeding van 140W bij te steken als je maar een piek vermogen van 75W zou hebben.
je vergeet dat scherm en andere componenten ook wel wat verbruiken en de 140W is voornamelijk om het snelladen van 50% op 30 minuten te kunnen waarmaken.
Voor het gemak zelf maar eens opgezocht op de Apple site en bij verpakking zie ik het volgende staan:
USB‑C-lichtnet­adapter van 67 W (M1 Pro met 8‑core CPU) of USB‑C-lichtnet­adapter van 96 W (M1 Pro met 10‑core CPU of M1 Max).
Dus deze discussie heeft niet veel nut.
Toch wel de 67W laat geen snelladen toe (maar wel voldoende om de CPU + GPU te voeden, wat net mijn punt bewijst, waarvoor dank).
De 14 inch met 96W kan wel snelladen ... omdat het scherm kleiner is heeft die geen 140W nodig, vandaar dat de 16 inch 140w nodig heeft voor snelladen groter scherm en in veel gevallen ook meer ram/opslag heeft, die hebben ook power nodig.
Idem bij mijn werklaptop. Krachtig, maar zodra mijn Intel op standje turbo gaat wordt het ding gloeiend heet en gaat 'ie throttelen.

Dit is inderdaad waarom alle benchmarks nog helemaal niks zeggen over waar Intel op dit moment staat. Mooi dat ze goed lijken te presteren, maar AMD kan ook wel een processor maken die weer dik over de nieuwe i9's heen gaat: neem een 5950X en klok die gewoon fors over. Jammer dat je dan op een TDP van 300W zit maar je haalt wel een lekker hoge score in alle benchmarks...

Nog ruim een weekje wachten en dan zullen we complete reviews zien, dan weten we pas iets.

[Reactie gewijzigd door bwerg op 22 juli 2024 15:38]

Plus hij zal veel vaker en sneller gekoeld moeten worden. Dat komt ook niet ten goede van je batterij als de ventilator constant hard moet draaien.
:-)

[Reactie gewijzigd door pascalnederland op 22 juli 2024 15:38]

Het blijft zo een beetje wat we van Intel gewend zijn, op punten de snelste maar wel duur, heet en energieverslindend. De big-little snap ik ook niet, Intel deed het altijd prima wat betreft power management, dus als je laptop weinig te doen heeft, was Intel al zuinig genoeg IMO
Mooie prestaties maar toch blijven het slechts cpu en gpu benchmarks. Ik ben vooral benieuwd naar real World use cases. Apple Silicon is vooral snel door smart power niet door raw power. Veel voorkomende taken uit de generieke cpu en gpu te halen en in speciaal daarvoor ontworpen hardware in de SoC te zetten (bv ProRes de/encoding) en ook de enorm snelle geheugenbandbreedte.
Dit gaat niet in deze benchmarks naar voren komen. Zal de komende weken duidelijk worden wat deze architectuur verbeteringen brengen.
Verder is open cl geen relevante test, daar Apple op metal heeft ingezet. Een metal score van 41.370 voor 16 cores is dik dubbel zo snel als de 8core M1, een 32 core zou dan boven de 80.000 komen, duidelijk sneller dan de AMD Radeon Pro W5700XT die zelf duidelijk sneller is dan de AMD Radeon Pro W5700X die een 690 euro upgrade is in de MacPro.

Als Apple over een jaar de transitie naar Apple silicon heeft afgerond is het wellicht een markt voor hun deze zeer zuinige SoC in een server voor datacenter versie te gaan maken. Datacenters hebben als grote kostenpost stroom, voor iedere watt die een computer daar verbruikt kan je een watt aan koeling erbij rekenen. Kortom, een 200 watt besparen op een server is 400 watt besparen op een DC. Dat is 3500 Kilowattuur per jaar.
Dat scheelt niet alleen in de stroomkosten maar bij duizenden servers ook op de infrastructuur en de mogelijkheden. In Amsterdam zuidoost bv ken ik datacenters die niet al jaren niet kunnen uitbreiden omdat daar de maximale stroomcapaciteit is bereikt

[Reactie gewijzigd door Jan Onderwater op 22 juli 2024 15:38]

Kan je dat uitleggen?

Volgens mij zet een Cpu ongeveer 100% (afgerond) van de energie die hij verbruikt om in warmte.

Als je 200 watt meer gaat verbruiken waarom zou je dan 400 watt extra koeling nodig hebben? Ik ga er vanuit dat juist een DC heel sterk stuurt op efficiëntie van de voedingen die gebruikt worden, het lijkt me stug dat die maar op 50% efficiëntie werken en dus nog 200 watt extra aan af te voeren warmte genereren.

Worden koelingen in DCs altijd sterk overgedimensioneerd ofzo dat je dit zo stelt? Ik ben daar wel nieuwsgierig naar.
Ik was wellicht niet duidelijk genoeg
Ruwweg kan je zeggen:
Voor iedere Watt die de apparatuur in een DC verbruikt, komt een Watt aan stroomverbruik voor de koeling erbij.
Met 10 cores heb je weinig te zoeken in datacentra. Epyc zit op 64 cores en komt volgend jaar met 128 cores. Die huidige 64 core is trouwens 225 watt, wat wel mee lijkt te vallen.

[Reactie gewijzigd door lordawesome op 22 juli 2024 15:38]

Met 10 cores heb je weinig te zoeken in datacentra. Epyc zit op 64 cores en komt volgend jaar met 128 cores. Die huidige 64 core is trouwens 225 watt, wat wel mee lijkt te vallen.
Daarom zei ik "een server voor datacenter versie te gaan maken", ergo, eentje die op de eisen van servers is gericht, veel CPU cores, veel threads, veel I/O, veel geheugen, etc.
Zijn al meerdere bedrijven bezig met ARM voor DC.

[Reactie gewijzigd door Jan Onderwater op 22 juli 2024 15:38]

Als het openrisk initiatief zich ook focust op zo efficiënt mogelijk zijn zijn er twee technologische bedreigingen voor x86. Open source is erg mooi, maar lastig om een eenduidige focus te hebben.
Het kan lang duren maar het kan ook erg snel gaan.
Dus een 14 core / 20 threads Intel CPU is multi-threaded net wat beter dan een 10 core / 10 thread Arm CPU van Apple :X

Apple heeft best wel een prestatie neergezet dan.
Hyperthreading is geen factor voor Geekbench. Hoeveelheid cores zegt ook weinig. Een Ruzen 5600X 6 core is ook sneller dan een Ryzen 1700 8 core.

Uiteindelijk is dit maar een Geekbench score, een benchmark wat zeer sterk ARM prefereert vanwege alle algorithmische optimalisaties van dit platform.
Er zit ook wel een enorm IPC verschil in de 5600X en Ryzen 1700 ;)
Dat was dan ook mijn punt, threads zeggen niet zo heel veel zonder de IPC in gedachten te houden.
GHz*
threads boeien voor de single thread score nog minder ;)

[Reactie gewijzigd door JWL92 op 22 juli 2024 15:38]

IPC*
Instructions Per Cycle, GHz zegt namelijk helemaal niks aangezien dit per fabrikant verschilt hoe effectief dit is. AMD zijn GHz mag wel lager liggen dan Intel, die van AMD is effectiever en daarom reken je dat uit aan de hand van IPC.
In dit specifieke geval misschien, echter kan dat met de volgende generatie AMD ook weer anders zijn. Je kan dus beter IPC aanhouden.
Als ik je nu verkeerd begrijp is het misschien handiger om met iets meer onderbouwing te komen.
De Intel is sneller in zowel single als multi-thread. Vast met meer stroom, maar vast ook voor minder geld. De 10 core M1 begint immers bij 2750 euro.
dan zit er wel een laptop omheen
De Intel is sneller in zowel single als multi-thread. Vast met meer stroom, maar vast ook voor minder geld. De 10 core M1 begint immers bij 2750 euro.
Off topic: de 10 core M1 Pro begint bij 2479 euro. Je kan namelijk het basis model upgraden naar de 10 core variant. De variant van 2750 euro heeft namelijk ook meer GPU-cores en een grotere SSD.

[Reactie gewijzigd door Luuk2015 op 22 juli 2024 15:38]

Het ligt een stuk genuanceerder dan GeekBench kan laten zien.

Max tech heeft de nieuwe SOC’s helemaal ontleed en eigenlijk best goed uitgelegd waarom de M1 Max zo goed kan presteren.

https://youtu.be/Un4gNs8spls?t=688
En dan begint Max Tech een GPU benchmark te refereren welke totaal niet relevant is. Echt credible is het niet.
En hoe credible ben jij dan? Wat heb jij al bereikt in je leven waardoor we jouw moeten geloven?

Karma koning zijn op 3 Nvidia topics zeggen wel genoeg over jouw "credibility"

[Reactie gewijzigd door Snowfall op 22 juli 2024 15:38]

En hoe credible ben jij dan? Wat heb jij al bereikt in je leven waardoor we jouw moeten geloven?
Haha wow, dit triggered jou ofzo? Dat ik een benchmark in twijfel breng?

De reden waarom deze tests niks zeggen, het zijn mobile benchmarks welke op een laptop draaien. De M1 varianten zijn dan wel daadwerkelijk mobile based SOC's met de bijbehorende API's. De laptop welke hiertegenover met een Geforce worden gezet zijn dat niet. Denk aan til ebased rendering optimized GPU's cores omdat deze efficientie voor mobile meer gewenst zijn dan gewoon pure grunt. Maar dan komt er hier dan ook het probleem naar voren. De framerates zijn zo hoog, dat van alles, van werkgeheugen tot CPU tot software ergens een bottleneck zal zijn. Beetje als Counter Strike op een Geforce 3090 draaien, honderden FPS maar de GPU is nogsteeds niet volledig benut omdat er ergens een bottleneck aanwezig is wat in het geval van CS GO meestal de CPU is. Dit gebeurt ook als je de genoemde benchmark op een PC based apparaat draait welke er totaal niet voor geoptimaliseerd is.

Een meer representatieve benchmark zou zijn waarbij er een realstisch stukje software gedraaid zou worden op beide systemen welke daar ook daadwerkelijk voor gemaakt zijn. Of nog beter, gewoon een game bijvoorbeeld welke voor beide platformen is uitgekomen en daadwerkelijk de GPU's stressed in plaats van tot duizend frames uitpoept.

edit: En Dave2D heeft het al een beetje over de performance. 3060RTX mobile levels. ZEker niet 3080 mobile levels (welke overigens relatief langzaam is versus de desktop variant)
https://youtu.be/IhqCC70ZfDM?t=379

[Reactie gewijzigd door Sn0wblind op 22 juli 2024 15:38]

Vergeleken met de i9-10910 uit 2020 ja... oftewel niet relevant voor dit artikel
Natuurlijk getest op Windows 11 Pro waardoor op dit moment geen eerlijke vergelijking gemaakt kan worden t.o.v. AMD. Het L3-Cache probleem is nog steeds aanwezig. Eerlijkheidshalve had dit even wat grondiger geweest op het Windows 10 Pro-platform.

In mijn bescheiden mening, hoewel sneller van zichzelf, is de test zo een beetje scheef.

[Reactie gewijzigd door SkyStreaker op 22 juli 2024 15:38]

De L3 cache bug is op 21-10 opgelost. Je moet hiervoor de de laatste AMD chipset drivers installeren en Windows update draaien. Dan zijn alle AMD problemen verholpen.
Klopt niet helemaal. De Windows-update lost op zichzelf staand het L3-probleem op. De chipset-driver lost op zichzelf staand het preferred-core-probleem op.

[Reactie gewijzigd door Aardedraadje op 22 juli 2024 15:38]

Ik zeg in de laatste zin "Dan zijn alle AMD problemen verholpen" Het staat er wellicht wat ongelukkig.
Tja, maar die update wordt niet zomaar vanzelf geinstaleerd (tot nu toe) en er is dus zeker geen garantie dat deze benchmarks met deze patch zijn uitgevoerd. Ik moest hem handmatig downloaden en installeren.
Dacht even dat ik op het Tweakers forum zat. :?
Nog niet helemaal opgelost op een meer algemeen toegankelijk punt. Dat maakt het, in mijn mening, nog niet helemaal "opgelost" op het punt waar het zou moeten. En dan nog is het naar mijn idee niet absoluut genoeg als ik de berichtgeving mag geloven.
Dit is onderhand gepatched?
Probleem met laptops, koeling en throttling van de cpu. Ik had ook zo'n mooie Dell XPS 17 met een I9, als de cpu aan de bak moest, hitte, throttling van de cpu en ik had beter een goedkopere uitvoering kunnen kopen. Ik hoop dat dat in de toekomst door laptop bouwers meer aandacht krijgt.
Met een dikke Gpu idem ! laptop is niet gemaakt voor power punt :-)
Een extra dunne mooie laptop als een xps in elk geval niet, volgens mij zijn er wel lompe gaming bakstenen die eea we goed kunnen koelen.
Eindelijk na 2 jaar komt er een Intel processor die mogelijk beter presteert dan de M1 of een Ryzen, ben benieuwd naar het een tweetje van Apple of AMD hierop volgend.
De eerste Ryzen was al competitief. Vooral de 8-core. Dat is bijna 5 jaar geleden.
Absoluut, refereerde naar de M1 uit november 2020
Je bedoelt eindelijk naar 30 jaar zijn ze 2 jaartjes iets beter op sommige vlakken

;-)
30 jaar? Hoe kom je daar nou bij. Pas sinds +- 2006 heeft intel de leiding overgenomem. Daarvoor waren AMD cpus weer beter. Is het al 2036?
Wat je wel kan zeggen is dat de laatste 2 jaar, AMD Intel alle hoeken van de kamer laat zien.
Voor de battle tussen de M1 Max en deze 12900HK: De Intel is een 14-core CPU en de M1 Max heeft er maar 10. Dus performance per core ligt de Apple M1 Max wel beter. Nog niet eens gesproken over het stroomverbruik..
Single core score van de 12900HK is ook hoger zoals je aan de benchmark kunt zien. Zal waarschijnlijk door een hogere boostclock komen.
Dat ziet er veel belovend uit, ik ben benieuwd naar het energieverbruik van dit mobiele beest.
Veel meer da de Apple Soc ;)
We moeten het allemaal nog zien, er zijn zoveel geruchten over de performance van Intel’s aankomende Big-Little design welke all over the place zijn.

Gewoon lekker onafhankelijke benchmarks afwachten.

Hopelijk draaien velen zowel Windows 10 als Windows 11 benchmarks.

[Reactie gewijzigd door Jonathan-458 op 22 juli 2024 15:38]

Op dit item kan niet meer gereageerd worden.