Cookies op Tweakers

Tweakers is onderdeel van DPG Media en maakt gebruik van cookies, JavaScript en vergelijkbare technologie om je onder andere een optimale gebruikerservaring te bieden. Ook kan Tweakers hierdoor het gedrag van bezoekers vastleggen en analyseren. Door gebruik te maken van deze website, of door op 'Cookies accepteren' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt? Bekijk dan ons cookiebeleid.

Meer informatie

Benchmarkresultaten van Intel Core i7-12700H verschijnen in Geekbench-database

Er zijn details en benchmarkresultaten van een Intel Core i7-12700H-laptop-cpu verschenen in de Geekbench-database. Deze processor beschikt over 14 cores en 20 threads. Intels Alder Lake-processors voor laptops verschijnen naar verwachting begin volgend jaar.

De onaangekondigde Intel Core i7-12700H is opgedoken in een Gigabyte Aero 5 XD-notebook, merkte Twitter-gebruiker BenchLeaks op. VideoCardz trof eerder ook een HP Omen-laptop met deze processor aan op Geekbench. De processor beschikt over zes snelle P-cores met hyperthreading, en acht energiezuinige E-cores zonder hyperthreading. Daarmee valt het totaal op veertien cores en twintig threads.

De cpu beschikt daarnaast een baseclock tussen de 2,45 en 2,69GHz. De maximale turbofrequentie bedroeg op de Gigabyte-laptop ongeveer 4,59GHz. De cpu haalde een kloksnelheid van maximaal 4,17GHz in de HP-notebook. De laptop heeft verder 24MB L3-cache.

De Gigabyte- en HP-modellen haalden respectievelijk een singlecorescore van 1340 en 1328 en multicoreresultaten van 11.138 en 10.517. De voorgaande Intel Core i7-11800H haalt single- en multicorescores van 1474 en 7958, terwijl die resultaten bij een AMD Ryzen 9 5800H respectievelijk 1326 en 7038 bedragen, schrijft VideoCardz. Daarmee is de nieuwe 12700H vergelijkbaar qua singlethreaded prestaties, maar lijken de multithreaded prestaties in Geekbench hoger te liggen dan huidige cpu's. Intel kondigt zijn twaalfde generatie laptopprocessors naar verwachting aan tijdens de CES in januari.

Het is verder opvallend dat deze processor in de Geekbench-database verschijnt. Eerder dit jaar kondigde de ontwikkelaar van Geekbench aan dat het onaangekondigde hardware uit zijn online database zou gaan weren. Het zou nog wel mogelijk blijven om pre-release hardware te testen via Geekbench, maar de resultaten daarvan zouden niet langer door iedereen te zien zijn. Deze Intel Core i7-12700H lijkt dan ook door dit filter geglipt te zijn.

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Daan van Monsjou

Nieuwsposter

13-11-2021 • 17:03

117 Linkedin

Lees meer

Reacties (117)

Wijzig sortering
De processor beschikt over zes snelle P-cores met hyperthreading, en acht energiezuinige E-cores zonder hyperthreading.
Interessante keuze, zo veel E-cores. Vergelijk dit met een M1 Pro/Max met 8P+2E.

Denkt Intel dat er zo veel low-prio werk te doen is dat 8 E-cores goed benut kunnen worden ?
Het is een misvatting dat E-cores voornamelijk bedoeld zijn voor zaken met lage prioriteit. De rede voor E-cores is dat ze veel kleiner en efficiënter zijn dan P-cores waardoor Intel z'n multithreaded performance kan verbeteren binnen een bepaalde grote van chip en energiegebruik.

In een utopie waar alle software perfect multithreaded zou zijn, zou je juist CPUs willen die enkel E-cores hebben. Dit zou namelijk tot veel hogere prestaties leiden. 4 E-cores zijn even groot als 1 P-core en 4 E-cores gaan veel meer prestaties leveren dan 1 P-cores.

Helaas gebruikt veel software maar een beperkt aantal cores waardoor er dus nood is aan cores die zo hoog mogelijke prestaties hebben, nl. P-cores.

[Reactie gewijzigd door napata op 13 november 2021 20:28]

Het is een misvatting dat E-cores voornamelijk bedoeld zijn voor zaken met lage prioriteit. De rede voor E-cores is dat ze veel kleiner en efficiënter zijn dan P-cores waardoor Intel z'n multithreaded performance kan verbeteren binnen een bepaalde grote van chip en energiegebruik.
Die misvatting is door Intel zelf de wereld ingebracht.
Voor een betere meting zou ik graag de Geekbench multicore score willen zien met boost uitgeschakeld om beter zicht op de E-cores te krijgen.
In een utopie met perfecte hardware wil je juist zo min mogelijk cores. Je hebt liever 1 snelle core dan 2 cores met de helft van de snelheid. Die snelle core zal net zo snel zijn in multithreaded taken als de 2 trage cores, maar de 2 trage cores kunnen nooit de single-thread performance halen van 1 dubbel zo snelle.

Bij gelijke totale performance wil je dit uit zo min mogelijk cores halen.
Nee juist niet eigenlijk. Je wilt je workload namelijk zoveel mogelijk splitsen in kleine brokjes en die parallel naar elkaar draaien. Waarom denk je dat ze workstation of datcenter cpus zoveel cores en threads hebben? En hoe kom je erbij dat 2 zuinige cores precies de helft van de performance halen?
En hoe kom je erbij dat 1 snelle core net zo snel is in multithreaded als meerdere zuinige cores? Praktijk heeft laten zien dat dit niet klopt en vandaar dat er steeds meer cores bij komen en ook software steeds meer schaalbaar worden over meerdere cores.
Je wilt je workload namelijk zoveel mogelijk splitsen in kleine brokjes en die parallel naar elkaar draaien.
1 snelle core kan die kleine brokjes net zo snel afhandelen als 2 cores die half zo snel zijn.

En het grote probleem is dat het opdelen van werk in kleine brokjes nu net een van de grootste uitdagingen in de informatica is.
Waarom denk je dat ze workstation of datcenter cpus zoveel cores en threads hebben?
Omdat veel datacenter taken makkelijk parallel uit te voeren zijn en het makkelijker/goedkoper is om meer cores toe te voegen dan een core sneller te maken. Maar we hadden het over een ideale wereld, niet de echte wereld.
En hoe kom je erbij dat 2 zuinige cores precies de helft van de performance halen?
Het was een hypothetisch voorbeeld om dingen makkelijker uitlegbaar te maken.

Het punt wat ik probeerde te maken is dat het extreem veel makkelijker is een enkele core meerdere taken te laten draaien dan een enkele taak op te splitsen zodat ie op meerdere cores kan draaien. Het is altijd wenselijk om bij dezelfde totale performance zo min mogelijk cores te hebben. Dat er in de echte wereld redenen zijn waarom dit niet altijd mogelijk is (grootte v/d cores, energieverbruik, warmte productie, etc.) doet er niets aan af dat het wel de meest wenselijke situatie is.
1 snelle core kan die kleine brokjes net zo snel afhandelen als 2 cores die half zo snel zijn.
Mijn punt is dus dat jouw hypothese dus niet klopt. Waarom neem jij aan dat 2 zuinige cores de helft van de performance leveren, want in de werkelijkheid hoeft dat niet zo te zijn?
En het grote probleem is dat het opdelen van werk in kleine brokjes nu net een van de grootste uitdagingen in de informatica is.
En toch gaan we die kant op? Daarnaast is men steeds meer bezig met asynchrone methods of features. Al deze procedures zorgen ervoor dat steeds meer threads die uit de neus aan t peuteren zij gebruikt kunnen worden
Omdat veel datacenter taken makkelijk parallel uit te voeren zijn en het makkelijker/goedkoper is om meer cores toe te voegen dan een core sneller te maken. Maar we hadden het over een ideale wereld, niet de echte wereld.
Dus je zegt dat we steeds meer weg gaan van de ideale wereld door meer multicore architectures te gebruiken? De ideale wereld moet in het verlende liggen van waar we mee bezig zijn, niet het tegenovergestelde.
Het was een hypothetisch voorbeeld om dingen makkelijker uitlegbaar te maken.

Het punt wat ik probeerde te maken is dat het extreem veel makkelijker is een enkele core meerdere taken te laten draaien dan een enkele taak op te splitsen zodat ie op meerdere cores kan draaien. Het is altijd wenselijk om bij dezelfde totale performance zo min mogelijk cores te hebben. Dat er in de echte wereld redenen zijn waarom dit niet altijd mogelijk is (grootte v/d cores, energieverbruik, warmte productie, etc.) doet er niets aan af dat het wel de meest wenselijke situatie is.
Ik begrijp niet waarom je dezelfde totale performance benoemt? Bedoel je hiermee dat de workload constant blijft? Als de applicatie zo gebouwd is dat deze de workload kan splitten over 20 cores dan zal deze bij gelijke workload stukken sneller zijn dan een enkele of dual core cpu.
En blijkbaar is het toch makkelijk om de software dan schaalbaar te maken om meerdere threads te gebruiken ipv 1 enkele core core te maken die naar 20+ Ghz trekt en eigen kracht centrale nodig heeft voor stroomtoevoer.
Een hypothese is een stelling die je doet die je daarna nog moet aantonen met onderzoek. Ik denk dat je hypothese onderuit gaat op het feit dat we momenteel geen enkele single core cpu meer hebben. We lopen dan tegen bepaalde grenzen aan betreft verbruik, koeling etc. We zijn van een enkele, naar een dual, quad+ core architecture gegaan. In de ideale wereld die jij omschrijft, heeft elke thread in een bepaalde applicatie een dedicated thread op de cpu die parallel uitgevoerd wordt.
Mijn punt is dus dat jouw hypothese dus niet klopt. Waarom neem jij aan dat 2 zuinige cores de helft van de performance leveren, want in de werkelijkheid hoeft dat niet zo te zijn?
Nogmaals, het was puur ter illustratie omdat het makkelijker is om te denken in een factor 2 dan in fracties.
En toch gaan we die kant op?
Omdat we weinig keus hebben, en omdat het in veel gevallen goed genoeg is. Zeker voor server taken waar je vaak meerdere parallelle requests hebt is dit prima af te handelen met meer cores.
Dus je zegt dat we steeds meer weg gaan van de ideale wereld door meer multicore architectures te gebruiken?
Ja. Simpelweg omdat we weinig keus hebben.
De ideale wereld moet in het verlende liggen van waar we mee bezig zijn, niet het tegenovergestelde.
Waarom moet dat ?
Daarnaast is men steeds meer bezig met asynchrone methods of features. Al deze procedures zorgen ervoor dat steeds meer threads die uit de neus aan t peuteren zij gebruikt kunnen worden
Uiteraard is men bezig met steeds beter gebruik maken van meerdere cores. Dat is nu eenmaal de kant die we op gaan vanwege beperkingen in het maken van single-core CPUs. Maar dat wil niet zeggen dat het beter is.
Ik begrijp niet waarom je dezelfde totale performance benoemt? Bedoel je hiermee dat de workload constant blijft?
Nee, ik bedoel dezelfde totale performance van de CPU als geheel: Stel je hebt je hebt een CPU die draait op 1 Ghz en je wil deze dubbel zo snel maken zonder het ontwerp van je core aan te passen. Je hebt 2 opties: je laat die ene core op 2Ghz draaien, of je gebruikt 2 cores op 1Ghz. De totale (multi-core) performance van deze CPUs is gelijk, ze kunnen exact evenveel werk verzetten per seconde, maar wat heb je liever ? Ik zou altijd voor de enkele 2Ghz core kiezen. Voor multi-threaded toepassingen zijn ze even snel, maar voor single-threaded toepassing is de 1-core versie dubbel zo snel.

En dat is dus het punt wat ik probeer te maken: met meer cores maak je de multi-threaded toepassingen sneller, maar met snellere cores maak je alle toepassingen sneller. Om terug te gaan naar mijn verzonnen 1Ghz CPU: stel je wilt 16 keer meer performance, het liefste wil je dan die ene CPU opschalen tot een 16Ghz CPU. Helaas is dat niet mogelijk dus moet je naar multi-core. Maar als je dat moet doen, dan zou je kunnen kiezen voor 16 1Ghz cores, of 8 2Ghz cores. In dat geval is 8x2Ghz een betere keuze dan 16x1Ghz. Je ontkomt er niet aan om naar een multi-core architectuur te gaan om je performance te halen, maar je zou daarbij wel moeten proberen je doel te behalen met zo min mogelijk cores.
En blijkbaar is het toch makkelijk om de software dan schaalbaar te maken om meerdere threads te gebruiken
Nee, dat is makkelijk voor een subset van taken, maar niet voor alle taken. Dat is nu net het probleem.

Er zijn taken die zoals dat heet embarrassingly parallel zijn, m.a.w het is triviaal om ze parallel te laten draaien. Basically taken waar je een heleboel dingen moet doen die niet van elkaar afhankelijk zijn. Als je hier 10 keer zo veel cores tegenaan gooit gaat het 10 keer zo snel.

Dan heb je taken die wel te paralleliseren zijn, maar waar wel afhankelijkheden zijn tussen verschillende taken. Bijvoorbeeld omdat elke taak gebruik moet maken van een bepaalde shared resource. Als je hier 10 keer zo veel cores tegenaan gooit dan zal je minder dan 10 keer meer performance krijgen. Hoe veel verschil ligt aan de precieze taak en hoeveel afhankelijkheden er zijn. Een heleboel taken zullen in deze categorie vallen.

En dan heb je als laatste taken die absoluut niet te parallelliseren zijn, taken waarbij de uitkomst van stap A de input is voor stap B, en de uitkomst van stap B de input voor stap C, etc. Het maakt niet uit hoeveel cores je hier tegenaan gooit, het zal nooit sneller worden.

En dit is waarom je liever snellere cores hebt dan meer cores. Met snellere cores gaan taken uit elke categorie sneller. Met meer cores gaan taken uit categorie 1 linear sneller met het aantal cores. categorie 2 minder dan linear, en categorie 3 helemaal niet.

Er zijn een heleboel mensen in de informatica bezig met bedenken hoe je taken uit de 2e categorie efficienter paralllel kan maken, en om te proberen taken uit de 3e categorie op een andere manier op te lossen zodat ze in de 1e of 2e categorie vallen. Als je een universele manier vind om dit te doen voor alle mogelijk taken in de 3e categorie kan je een Turing Award ophalen (zeg maar de Nobelprijs voor informatica).

[Reactie gewijzigd door Aaargh! op 14 november 2021 17:35]

Jullie hebben het over verschillende definities van een "ideale wereld"
- Ideale wereld voor de softwaredeveloper heb je inderdaad één hele snelle core
- Ideale wereld voor de hardwareontwerper heb je enkel workloads die perfect schalen naar heel veel cores

Alder Lake is een compromis tussen die twee, zoals @napata al zei.
Wat je zegt over die verschillende ‘ideale werelden’ klopt, maar er mist hier nog 1 ding: Het is de taak van de hardwareontwerper om te streven naar het mogelijk maken van de ideale wereld voor softwaredevelopers (de software developer kan dit nl. zelf niet) en het is de taak van de softwaredeveloper om te streven naar het mogelijk maken van de ideale wereld voor de hardwareontwerper (om dezelfde reden)
Alder Lake is een compromis tussen die twee, zoals @napata al zei.
Het is een compromis, maar ik krijg hier het idee dat het een compromis is dat vooral het probleem richting de software developers schuift en dat Intel niet echt z’n best gedaan heeft of simpelweg niet beter kan. Ik vind het (als software developer) een erg vreemde verhouding tussen P en E cores.
Maar ik spreek over software die perfect zou scalen. Dit bestaat al, zoals bijvoorbeeld 3D rendering. Jouw utopie botst tegen de wetten van de fysica. Er is een rede waarom we van 1 core naar 2 zijn gegaan, vervolgens naar 4, enz. Dit is omdat je nu immers meer performance haalt uit meerdere zwakkere cores dan minder sterkere cores. Prestaties scalen nu eenmaal niet linear met de grote van de cores en het energiegebruik.

Als je jouw utopie met die van mij vergelijkt dan krijg je hetzelfde resultaat. Immers als software perfect zou scalen dan heb je geen nood aan single thread performance. Er is dan ook geen rede om zo weinig mogelijk cores te hebben want dan maakt het niet meer uit.
Maar ik spreek over software die perfect zou scalen. Dit bestaat al, zoals bijvoorbeeld 3D rendering.
3D rendering schaalt heel erg goed, maar niet perfect. Er is altijd een bottleneck waar dingen gedeeld moeten worden. Bij een GPU bijvoorbeeld is geheugen bandbreedte een dingetje, waar een heleboel cores bij dezelfde data moeten. Je kan niet onbeperkt cores toevoegen en dan verwachten dat het oneindig linear schaalt.
Er is een rede waarom we van 1 core naar 2 zijn gegaan
Ja, het is om allerlei redenen makkelijker om 2 cores te maken dan 1 core dubbel zo snel te laten draaien.
Als je jouw utopie met die van mij vergelijkt dan krijg je hetzelfde resultaat. Immers als software perfect zou scalen dan heb je geen nood aan single thread performance.
Klopt. In een ideale wereld kan je 1 core oneindig snel maken en is je software oneindig te paralleliseren.

Nu even terug naar de echte wereld, waar software niet oneindig te paralleliseren is en waar een enkele core niet oneindig snel kan zijn.

Je kan als software developer natuurlijk zeggen: dit is een hardware probleem, dingen paralleliseren is me te veel gedoe, laat de CPU bouwers maar zorgen dat de single-thread performance beter wordt. En je kan aan de andere kant als CPU maker zeggen: dit is een software probleem, het is me te lastig om snellere cores te maken, laat de developers maar zorgen dat hun software parallel draait.

Het punt is hier dat beide hun best moeten doen, dat is de enige manier om de bestel performance te kriigen. Het de taak van de software bouwers om software te ontwikkelen die zo goed mogelijk parallel draait, en het is de taak van de hardware bouwers om te zorgen dat een enkele core zo snel mogelijk is.

De keuze van Intel voor 6P+8E lijkt een beetje alsof Intel tegen de software wereld zegt: een snellere core bouwen is te lastig voor ons, we maken het jullie probleem.
Die e-cores zijn nog steeds flinke jongens hoor. Ze lijken klein te zijn doordat die p-cores zo giga groot zijn.
Voor mobiele toepassingen niet heel gek naar mijn idee. Meer kleine cores is in multi-threaded toepassingen gewoon efficiënter, en meer efficiëntie betekent meer prestaties met dezelfde warmteproductie.

Praktisch alle huis-tuin-en-keuken-toepassingen die afhankelijk zijn van snelle cores in plaats van veel cores (zoals gamen) hebben toch wel genoeg aan zo'n 6 cores. Applicaties die meer dan zes cores volledig weten te benutten zijn vaak zodanig goed multithreaded dat ze ook wel overweg kunnen met een hele bak aan kleine cores.

Ik vind veel E-cores en weinig P-cores eigenlijk logischer dan andersom. Die E-cores hebben anders weinig invloed op zowel stroomverbruik als prestaties.

[Reactie gewijzigd door bwerg op 13 november 2021 19:39]

We zullen het zien, punt is dat de E-cores veel meer werk/watt kunnen verzetten, en ook nog eens 4x minder plek innemen, dus als het om parallel en low-prio werk gaat heb je er daar beter 4 van dan 1P core.
Nee. Het alternatief is dat die dingen zichzelf gaan omsmelten. Ze kunnen de hitte nu al niet kwijt, en met die enorme vermogens throttled alles al voordat je OS zelfs nog opgestart is.

Meer P-cores en je hebt geen verwarming thuis meer nodig..

[Reactie gewijzigd door DigitalExorcist op 13 november 2021 17:57]

Nee. Het alternatief is dat die dingen zichzelf gaan omsmelten. Ze kunnen de hitte nu al niet kwijt, en met die enorme vermogens throttled alles al voordat je OS zelfs nog opgestart is.

Meer P-cores en je hebt geen verwarming thuis meer nodig..
Al is het sarcastisch bedoeld, wel een goed punt.


Duurdere modellen worden in de regel zwaarder belast en het zou interessant zijn om te weten wat er overblijft na vb 10 minuten belasting. Wat ook vaststaat is dat Intel een aantal principes heeft losgelaten om maar de snelste resultaten te behalen, waaronder zuinigheid. Ze verbruiken potentieel meer.


Ben benieuwd welke als eerste de tests durft aan te gaan.
Ach het gaat om desktops hier.

Een moderne Nvidia GPU met standaard koelers (denk aan de Founders Edition bijvoorbeeld) kan ook 350-400W kwijt. Dan moet een Desktop CPU toch ook wel 200W kunnen met een deftige koeler? Heb je niet eens waterkoeling voor nodig (zoals de dual PowerMac G5 destijds wel moest hebben!)

Vanuit milieu- en electriciteitskosten oogpunt is het wellicht een probleem, vanuit koeling niet zo.

[Reactie gewijzigd door GekkePrutser op 14 november 2021 02:43]

Desktops?
Het gaat over laptops.

Er zijn details en benchmarkresultaten van een Intel Core i7-12700H-laptop-cpu verschenen in de Geekbench-database.
Oh ja je hebt gelijk. Ik was in de war met de desktop CPU's die ze eerder uitbrengen, ik dacht dat deze hier ook nog bij hoorde.
Ik dacht zelf in eerst instantie ook dat het desktop CPU's waren hoor. Naam geving is niet altijd duidelijk.
Maar de -H modellen zijn schijnbaar dus laptop CPU's. :)
Is JavaScript single threading?
Dus je browser kan dat op een e-core draaien.

Is Python single threading?
Dan kunnen je AI aansturing taken gewoon op een e-core.
Waarom kiezen ze er eigenlijk voor om eerst de desktop parts te doen? Lijkt me een typische laptop architectuur..
Omdat ze in laptops niet mee kunnen komen en zich nu op gamers richten die zich niet interesseren voor stroomgebruik
Op laptops is Intel juist nog steeds koning. Met name omdat het bedrijfsleven erg wantrouwig is tegenover Ryzen. Heb het zelf ook gezien op het werk.
Ik had het over prestaties vs stroomverbruik
Ja ik snap het maar ondanks dat koopt het bedrijfsleven nog steeds volop intel. Ook de consument (voor zover als er uberhaupt nog ergens een laptop te krijgen is). Dus daar hebben ze weinig te vrezen.

Juist op de desktop staat Intel's marktaandeel onder druk.
Intel heeft juist in bedrijfsleven en instellingen enorm marktaandeel verloren aan Chromebooks en heeft Apple als belangrijke klant verloren.
Ik zie nergens in het bedrijfsleven Chromebooks hoor. In het onderwijs ja. In het bedrijfsleven zijn ze veel te simpel. Traditionele applicaties werken er niet op.

En Apple is ook een randverschijnsel zakelijk gezien. Ik was zelf jarenlang Mac admin bij een multinational. Het percentage Macs in onze organisatie? 0,5%. We stonden ze alleen toe voor app ontwikkelaars en grafische marketing lui. En af en toe een VIP die genoeg druk uitoefende.

En we zijn echt niet de enige. De reden dat Apple steeds blijft hameren op IBM als succesverhaal is dat het eigenlijk het enige succesverhaal is dat ze hebben in de grootzakelijke markt. Ik denk ook niet dat dat gaat veranderen tot ze zich wat meer op die markt gaan richten. Apple zal momenteel alles doen om de consumentenmarkt van hun produkten te beschermen, ook als ze daarvoor vereisten van de zakelijke markt kapotmaken.

Ik heb bijvoorbeeld gezien dat van de ene op de andere dag AD gebruikers niet meer gebruik konden maken van FileVault zonder veel gedoe met lokale commando's. Kwam door het introduceren van het "SecureToken" principe dat je niet zakelijk kon beheren. Werd pas 1,5 jaar later opgelost door de introductie van een MDM methode om de SecureToken toe te kennen. Tja, toen hadden we er al omheen gewerkt. Maar het heeft wel een deuk opgeleverd in ons vertrouwen. Als ze zoiets doen, moet het beheer er gewoon vanaf dag 1 in zitten. We stimuleren developers steeds meer om toch voor Windows of Linux te gaan (of WSL).

Een ander voorbeeld: Ze kwamen 2 jaar geleden met Apple federated accounts. Waarbij je zakelijke Apple ID's kan aanmaken en eindelijk niet meer het probleem hebt dat elke gebruiker zelf accounts moet aan lopen maken en beheren. Heel mooi, maar er zitten enkele haken en ogen aan waardoor dit bij ons niet werkt. Bjvoorbeeld het Email adres moet hetzelfde zijn als het account ID ("User Principal Name"). Bij ons is dat niet het geval en dat kan het ook nooit worden want we hebben dit met een zeer goede reden gedaan. En die gaan we niet veranderen voor 0,5% van onze userbase. Dus, weer iets dat we niet kunnen gebruiken. Als Apple zakelijk mee wil spelen dan moeten ze er ook iets voor doen.

[Reactie gewijzigd door GekkePrutser op 14 november 2021 16:49]

Tja, ik zie dat anders, en of de processoren in bedrijven, instellingen of scholen, of bij privé personen worden gebruikt is voor intel niet relevant, ze verliezen enorm marktaandeel.
Zeer waarschijnlijk omdat ze binnen de consumenten segmenten op de desktop het verst achterliepen. En nog geen 10nm producten hadden uitgebracht voor de desktop en met deze producten in ieder geval weer competitie kunnen geven in de verschillende prijssegmenten.
Prima prestaties. Het lijkt erop dat Intel voor nu weer even terug is als performance-leider.

Vraag uiteindelijk is natuurlijk wie ook daadwerkelijk kan leveren. Daar Intel eigen fab's heeft, lijkt de kans daarop bij Intel er wel beter uit te zien.

[Reactie gewijzigd door r_bleumer op 13 november 2021 17:21]

Hoezo leider?

Mijn Macbook doet:
Single core: 1761
Multi: 12360
Uiteraard zijn er ook nog snellere CPU's, maar als je m tegen de vergelijkbare AMD zet, scoort Intel nu toch weer beter in die categorie. Wat voor CPU heeft jouw Macbook? Het gaat hier overigens om de H CPU's, die dus ook al weer wat trager zijn dan bv K.

[Reactie gewijzigd door r_bleumer op 13 november 2021 17:37]

Met die scores zal het een M1 Max of Pro zijn. Prima om te vergelijken met een Intel H series, wat de high-end mobiele chips zijn. De K series zijn vziw bedoelt voor gebruik in high-end desktops en andere soorten elektrische kachels. Als je die wilt vergelijken met een M-series SoC zal je moeten wachten op de high-end iMacs en Mac Pro. Volgens de geruchten gaat er een 20 en een 40 core versie komen.
Heb je geen reet aan voor echt "niet Apple's concept van "pro" professioneel gebruik & server farms.
Het vergelijken van Apple met Intel slaat echt totaal nergens meer op, want Apple is uitsluitend een consumenten product en geen professioneel product voor meerdere non- multi-media taken..

En een Mac als server is helemaal knudde als je bijvoorbeeld CUDA of AMD gpu's nodig hebt.
Het vergelijken van Apple met Intel slaat echt totaal nergens meer op, want Apple is uitsluitend een consumenten product en geen professioneel product voor meerdere non- multi-media taken..
Apple’s pro laptops zijn feitelijk mobiele workstations, de nieuwe MacBook Pro’s zijn zeker geen consumenten machines, en absoluut overpowered voor consumentengebruik.

Apple’s pro machine worden ook erg veel gebruikt in b.v. high-end video editing.

Apple maakt geen server producten, dat klopt, maar dat wil niet zeggen dat het geen pro hardware is.
En een Mac als server is helemaal knudde als je bijvoorbeeld CUDA of AMD gpu's nodig hebt.
Als de gelekte specs van de aankomende Mac Pro kloppen: 32P + 8E cores en tot aan een 128 core GPU, dan gaat Nvidia er een hele grote concurrent bij hebben. Bedenk je dat Nvidia op het moment alleen discrete GPUs maakt die op een aparte kaart zitten met hun eigen RAM. Unified memory is voor compute taken een enorm voordeel. Niet alleen omdat je geen data van en naar de GPU hoeft te kopiëren, maar ook omdat je bijna het hele systeem RAM beschikbaar kan maken aan de GPU. Zelfs de meest high-end Quadra kaarten hebben maar 48GB RAM, daar gaat een MBPro met 64GB nu al overheen.
High end video editin .. moest effe een traan wegpinken … leuk als je on the road bent, maar een laptop is nog altijd inferieur aan een desktop cpu. Die kan nooit zoveel strrom krijhgen en warmte afgeven, dus zal sneller throttlen. Het is leuk on the go, maar als je echt snelheid wilt dan kies je toch voor een desktop. Een m1 is wel knap qua prestatiez, en wie weet wat de volgende generatie brengt. Maar je moet er ook flink voor dokken. En die prijs is het gewoonweg niet waard (in mijn ogen dan)

[Reactie gewijzigd door cricque op 13 november 2021 19:17]

In jouw ogen. Er zijn genoeg professionele editors die door de m1 pro of m1 max veel meer werk kunnen verzetten dan op hun xenon met afterburner. Het is letterlijk bizar wat Apple heeft gerealiseerd.

Het is logisch dat Apple afscheid van Intel heeft genomen. Ze kunnen hiermee niet concurreren.
Een professionele videoeditor gaat niet op een Mac pro editen, want die heeft geen 4k scherm.
huh, volgens mij gaven de benchmarkt juist aan dat de nieuwe M1's juist wel aardig in de buurt komen van desktop cpu's en bij veel zelfs eroverheen. Tenminste, bij use cases als video editen.

De 16c/24t 200W cpu's zijn inderdaad nog wel sneller...
Voor hoge resolutie video editing wil je op je werkstation zelf snel kunnen beoordelen of e.e.a. wordt zoals je wil (op een redelijk resolutie). Het echte zware renderwerk kan je nog altijd op een renderfarm doen.
Intussen geven de reviews en verschillende real use performance test aan dat je hier volledig ongelijk hebt en dat men dus met zo' n MacBook Pro met een M1 pro/ Max juist voor video editing de perfecte machine hebt en dat zelfs een MacBook Air dit zonder problemen doet en met een snelheid waar je voorheen een flinke dure machine tegenover moet zetten. Laat staan een M1 Pro of Max.
De prijs is dus velen malen lager dan een desktop machine welke dezelfde prestaties wil halen.
veel gehoorde feedback is toch een beperking van 1 extern scherm en een laag aantal ondersteunde exotische aansturingen zoals breakout boxen, convertors, tekentables ...
voor serieuze content creators kan dit wel een beperking zijn ,
zeker als je een multi monitor setup hebt van pakweg 20a50k .

voor kleine simpele bewerkingen en producties zijn dit zeker volwaardige devices,
maar zware projecten, multimonitor of een resem aan hardware accesoires ,
deze zullen toch liever de intel variant kiezen.

zie vaak de genoemde benchmarks, maar deze zijn altijd vs de i5, terwijl er ook een i7 en i9 variant was bij de vorige gen.

met de m1 pro en m1 max hebben ze volgens mij wel geluisterd naar de feedback en multimonitor mogelijk gemaakt.
Okay, maar een M1 Pro of Max kunnen meerdere monitoren aansturen (M1 Mac mini ook), dus daarmee is het een zeer goed alternatief. gezien de performance van de M1 zullen velen juist niet voor Intel kiezen, met de M1 is het eindelijk mogelijk om serieus video bewerking op een laptop uit te voeren en ook nog eens terwijl draaiend op batterij en meerdere video's tegelijk.
Tot nu toe zijn de recensies zodanig dat deze chip juist voor beeld/video bewerking geoptimaliseerd zijn.
Daar moet je een hele duur intel systeem tegenover zetten en ook nog eens met veel stroom verbruik
m1 pro en max zijn pas gelanceerd ,
als je vandaag eentje besteld, levering binnen een maand .
huidige ervaringen / benchmarks /unsupported claims zullen uitsluitend zijn op het normale m1 platform.

zoals ik zei, hangt er vanaf welke recensies je leest.
zet de huidige m1 naast een recente desktop en ze lopen hopeloos achter .

nother way to look at it is that these new MacBooks (and presumably the Mac Mini) are roughly equivalent to a desktop that is around 4-5 years old. 10/2020

https://www.pugetsystems....dobe-Creative-Cloud-1975/

een i5 12600K is 2 tot 3x zo snel in PS en PP , ik zet ook voor de gein er een I9 12900K bij
PugetBench Photoshop 659 M1 1237 I5 1400 I9
PugetBench After Effects 708 M1 998 I5 1254 I9
PugetBench Premiere Pro 359 M1 992 i5 1317 I9

laten we een mac mini nemen met M1 ,16gb en 2tb SSD @ 1950€
voor 1100€ heb je een 12600k met 16gb DDR5 en een 2 TB nvme ,
en de I5 kan tot 4 monitors aansturen.

https://www.pugetsystems....p-2248/#AdobeAfterEffects
Doe eens normaal, je gaat een instapprocessor van vorig jaar gaan vergelijken met splinternieuwe high end systemen. Waarom hebben jullie anti-Appleboys steeds de behoefte om appels met citroenen te gaan vergelijken?
Omdat Apple in snel tempo marktaandeel aan het afpakken is van Wintel fabrikanten en ze de bui qua toekomstige softwareondersteuning al zien hangen. De situatie in de VS is natuurlijk anders dan hier in Nederland, maar het zou heel goed diezelfde kant op kunnen gaan, om over Noorwegen met een relatief hoog aandeel voor Linux nog maar niet te spreken.

Ontwikkelaars schrijven afgezien van zakelijke software en spellen niet veel nieuwe software voor Windows, dus als de Mac populairder wordt als ontwikkelapparaat, betekent het dat de ondersteuning voor hun systemen steeds meer achter gaat lopen.

Een Windowsgebruiker die ik online heb gesproken, reageerde furieus, toen ik zei dat er meer voor Linux ontwikkeld zou moeten worden, omdat dat volgens die persoon zou betekenen dat de ondersteuning voor Windows minder zou worden. Dan moet je wel erg onzeker zijn over het (nog steeds) grootste (maar gestaag slinkende) platform op de desktop.
ik ben zeker niet anti apple
maar ik baseer me liever op cijfers wat er nu beschikbaar is.
op dit moment is er nog geen m1 pro of max voorhanden om te vergelijken.
en apple promoot hun productlijn met m1 toch als revolutionair ,
laten we het geen instapmodel noemen om dat ze nu een opvolger komt.

de mac mini m1 werd ook met een i5 vergeleken van 2jaar ouder ( i5-8500)
is dat een eerlijke vergelijking?

zet m dan tegenover een 11th gen intel, of een 5800x van dezelfde leeftijd.
ik verwijs nogmaals naardezelfde benchmarks ,
daar is een 5800X ook dubbel zo snel als een m1 .
performance per $ komen ze niet sterk uit de bus.
Unified memory is voor compute taken een enorm voordeel. Niet alleen omdat je geen data van en naar de GPU hoeft te kopiëren, maar ook omdat je bijna het hele systeem RAM beschikbaar kan maken aan de GPU.
Dat horen we nu al jaren (AGP, AMD's HSA). Maar wat blijkt het geheugen op de dGPU's is vele malen sneller dan normaal systeemgeheugen en dus wordt er nog altijd heel veel gekopieerd van DDR geheugen naar GDDR/HBM.
Ach kijk, een expert..
fyi De M1Max en pro zijn laptops die zeer goed zijn voor professionele content productie
Weer Apple's concept van "pro" aka content productie, niet goed voor 95% van alle andere taken.
Dat jij nou 95% van je tijd met gaming bezig bent....
:+ }>
Heb je helemaal een punt, ook daar presteert de Mac natuurlijk voor geen meter.
Wat aan de game producenten ligt, meneer de expert, niet aan de HW of het OS. Games die geschreven en geoptimaliseerd zijn voor Apple Silicon lopen geweldig bij veel minder stroomverbruik.
Er is geen enkele reden waarom je niet spellen zou kunnen spelen op Apple M1 of ARM hardware in het algemeen met macOS of Linux, maar dan moeten ontwikkelaars inderdaad wel API's zoals Metal en Vulkan gaan gebruiken in plaats van DirectX. En daarnaast moeten de spellen natuurlijk gecompileerd worden voor deze architecturen.

Verder is het argument voor CUDA of ROCm ook niet zo sterk, tenzij je code al volledig afhankelijk is van deze technologieën. Hopelijk brengt Apple bibliotheken uit die geoptimaliseerd zijn voor deze hardware, waardoor ook rekentaken versneld kunnen worden.

Ik heb de Asahi Linux GPU ontwikkelaars net gevraagd of die ook gebruikt zal kunnen worden voor rekentaken zoals machine learning en hoop daar later vandaag antwoord op te krijgen. Bovendien kun je onder Linux waarschijnlijk ook gewoon eGPU's gebruiken en dan blijft er helemaal niet veel meer van zijn argumenten over. Bovendien zijn er ook ARM servers met Nvidia GPU's te koop voor dit soort werk.

Nee, dit is gewoon een evangelist die even de boodschap over de noodzaak van Intel, AMD en Nvidia komt uitdragen, terwijl nota bene Nvidia juist steeds meer inzet op ARM (en RISC-V).
En een Mac als server is helemaal knudde als je bijvoorbeeld CUDA of AMD gpu's nodig hebt.
Bovendien is er ook niet veel meer over van XServer, toch? Alleen een zeer uitgeklede app in de app store.

[Reactie gewijzigd door TheVivaldi op 13 november 2021 18:22]

Dat laatste is natuurlijk onzin. Apple heeft een ruim aanbod aan machines met AMD-GPU's inclusief high end workstation kaarten zoals de Radeon Vega II Pro.
Verder verkoopt Apple op het moment helemaal geen servers.
Koel. Laptops met de 12700H zullen waarschijnlijk vanaf een euro of 1000 te krijgen zijn. M1Pro systemen beginnen bij 2250+ nog niet bijna te vergelijken dus.
MacBook Pro’s zijn zoals de naam al aangeeft apparaten voor professioneel gebruik. De prijs van de laptop is echt geen factor.
Prijs is altijd een factor. Iemand die het dubbele betaald om hetzelfde te krijgen gaat heel snel failliet zijn.....
En als geld echt geen factor is, ga dan meteen voor die Asus dual screen van 16000 euro. Die is nog sneller.....
Iemand die het dubbele betaald om hetzelfde te krijgen wel ja. Maar denk jij dat je met je laptop van 1000 euro echt hetzelfde zal krijgen? Ik denk het niet! Zal die laptop hetzelfde kwaliteitsscherm hebben, dezelfde geluidskwaliteit, dezelfde kwaliteitsbehuizing, trackpad, toetsenbord? Ga je even lang doen met je batterij, zal hij even stil zijn en toch even koel blijven, zal hij ook even snel zijn eens hij unplugged wordt of zal hij qua snelheid zwaar inzakken eens hij van het lichtnet afgehaald wordt? Als je hem dan na pakweg 4 jaar weer vervangt zal je er dan ook nog evenveel voor krijgen? Als je een beetje eerlijk bent zal het antwoord op praktisch al die vragen neen zijn. Dus het dubbele betalen om hetzelfde te krijgen? Ik denk het niet!

[Reactie gewijzigd door buffalomac op 14 november 2021 01:13]

Hangt van je toepassing af. Als je enkel gaat internetten op je Mac pro, betaal je inderdaad het dubbele voor hetzelfde. Dat kan zelfs op een Chromebook van 180 euro: pricewatch: Lenovo IdeaPad 3 CB 14IGL05 (82C10010MH)

Zijn punt is dat je als professional enkel moet kopen wat je zakelijk nodig hebt. Dus ook niet een M1 van 1000 euro als een Acer van 500 euro goed genoeg is voor je werk.
Voor het soort werk waar deze laptops voor bedoelt zijn zitten de kosten ‘m echt niet in de hardware. Er zijn ondertussen meerdere bedrijven die hebben aangekondigd al hun developers te voorzien van nieuwe MBPro’s omdat het klauwen met geld bespaart. O.a. Uber geeft al hun iOS developers een 16” MBP M1 Max met 64GB. Reddit doet hetzelfde voor al hun developers en verwacht hiermee in 2022 $100k aan productiviteit te besparen, Ook Twitter heeft aangekondigd al hun developers te voorzien van nieuwe MacBooks om dezelfde reden.

De tijd van de mensen die met dit soort machines werken is vele malen duurder dan de machine zelf.
CPU inkoop ligt Rond de 500$ en jij denk voor 1000€ dan een complete laptop te hebben? Eerder rond de 1,5K.

\edit: prijs was iets minder.

[Reactie gewijzigd door RockmanX op 14 november 2021 09:29]

De 12700H gaat $900 kosten? De 12700K is maar 450 euro: pricewatch: Intel Core i7-12700K Boxed

Een H variant wordt goedkoper, een mobiele variant wordt nog goedkoper.
Ja maar daar kan je verder geen reet mee... oeps -1... :+
Als je compuerspelletjes onder geen reet verstaat heb je wellicht gelijk. Verder draait alles erop. En lang, want ze zijn zuinig
Wat is alles? Genoeg al dan niet specialistische software die niet voor Mac beschikbaar is, als ik bijv. kijk naar onze industriële of zorg klanten dan is vrijwel geen enkele van de software die zij gebruiken verkrijgbaar op Mac. In andere branches wat meer, maar ook daar valt het regelmatig tegen. Het zou mij eigenlijk niets verbazen als de creatieve sector de uitzondering is.

[Reactie gewijzigd door Dennism op 13 november 2021 18:27]

Dat ligt aan de devs en MS. Linux/ARM64 wordt allamg aardig ondersteunt. Zodra het op Windows/ARM64 werkt, werkt het ook op macOS/ARM64. Waarbij de M1 bijzonder efficiënt is, en Rosetta goede emulatie biedt voor legacy macOS software. Dat doet Windows/ARM64 vooralsnog niet na.
Dat ligt aan de devs
Dat geloof ik direct, immers in vele marktsegmenten is het marktaandeel Mac zo klein dat het simpelweg niet rendabel is om je software ook daarvoor te gaan uitbrengen. Maar dat was het argument niet, de claim was dat alle software behalve 'compuerspelletjes' werkt op Apple en dat is zeker niet zo, verre van zelfs.

Als ik bijvoorbeeld naar Apples marktaandeel bij onze zakelijk klanten is dat in alle sectoren m.u.v. van de creatieve sector <10% en in de meeste sectoren ruim <5%

Verder ben ik het met je eens trouwens dat de M1 cpu's zeer indrukwekkend zijn, zelfs in emulatie, maar zeker wanneer native software ook gebruik kan maken van de accelerators in de chip.

[Reactie gewijzigd door Dennism op 13 november 2021 18:54]

Denk dat er een hoop professionals met jou een gesprek willen. Want een hoop doet dat gewoon niet. Qua muziek productie bijvoorbeeld een heel heel hoop plugins niet zoals het spul van Native Instruments.
Hoezo leider? Alleen al mijn nieuwe Ryzen 9 5900X verslaat jouw MacBook met gemak.

Alleen qua stroomverbruik wint jouw MacBook, maar daar hadden we het niet over.

[Reactie gewijzigd door TheVivaldi op 13 november 2021 18:27]

Nou jouw Ryzen 5900X scoort in single-threaded Geekbench anders lager (1669 vs 1761) dan zijn MacBook en in multithreaded hoger (14059 vs 12360). Dat vind ik niet "met gemak" verslaan eigenlijk, maar eerder "nét voorblijven" :)
Hij staat meermaals op Geekbench en in de meeste uitslagen scoort 'ie in beide gevallen hoger.
Nou, we hadden het wel over laptop CPU’s toch?
Volgens mij is de 5900x een desktop cpu.
Toch wel mooi hoe eerst die i9 MacBook compleet heilig werd verklaard en eigenlijk dik vet hitte probleem had met koelers die je 2 kamers verder kunt horen...

Toen was hitte echt een non argument, want blablablabla

En nu is alles met hitte opeens zo slecht en blablablablabla

Sorry maar word er echt simpel van om het steeds opnieuw tegen alles behalve **** gebruikt te zien worden.

Als Google.of Dell b.v. ook een laptop met een dikke vette bezel / notch als is het weer 1985 uit zou brengen, dan was het een minpunt / slechte afwerking.

Maar nu, is het helemaal niet erg. Tot de 2022 versie komt zonder Notch, dan is het, zeker weten, voor velen, een vette verbetering.. En das gewoon opvallend vind ik.

Volgens mij lukt het bij sommigen zelfs om re laten geloven dat Coca Cola echt een kerst drankje is, Afrikanen die rennen in de rimboe met Nikes aan, super gelukkig zijn en mineraal water in mooi gekleurd plastic non-afbreekbaar flesje beter is voor 'jou en ons allemaal'

Uiteraard wat overdreven, maar het lijkt er wel beetje op.

Schrikbarend dat zelfs bedrijven als Facebook jaloers zijn op A merk bedrijven, waar ze zulke heilige 'principes' in een hersenpan omroeren, non stop, elk jaar, zonder ook maar iets van data! (want alleen FB manipuleert mensen immers).
Das knap

Even als voorbeeld, wat punten die 'super' waren en nu letterlijk 180 graden omgedraaid zijn.

* Apparaten met een pen hebben slechte UI (Steve Jobs)
* Laptops en mobiele telefoons horen niet zelfde apps te draaien (Tim Cook)
* Apps updaten zou volledig zonder tussenkomst van 'complexe en onnodige tussen partijen geüpdate moeten worden (Steve Jobs).
Het Web is super veilig om transacties mee te doen (Steve Jobs).
* Apps moeten 'direct' en zonder bemoeienis van een bedrijf geüpdate kunnen worden via je eigen server (Steve Jobs)
* iPhones worden echt niet trager gemaakt, oh ja toch wel, we logen gewoon en 'wij' die dat al aantal jaren wisten als je regressie testen runt, dus ook! Top en ethisch.
* De app store is super veilig, behalve het feit dat een complete Epic store werd binnengesluist, maar we willen geen Epic Store, want bij ons worden geen stores binnen gesluist! (Huh?)
* Je complete ICloud data is helemaal niet end2end, want immers kun je lekker willekeurig zonder sleutels backups terug zetten, en rarara wie heeft die sleutel en kan dus al je data ook zien? Hmmmmmmmmmmmm
* Laten we anderers foto's enzo ook bij Google stashen, want Google, die zijn eigen hardware ontwerpt, is wel de laatste om je zorgen over te maken, toch?????

Wie dit niet geloofd, of vind dat het anders bedoeld werd als hoe ik het interpreteer, verbeter me uiteraard.

Maar punt is, het begint gewoon wel op te vallen (vind ik)..

[Reactie gewijzigd door DutchKevv op 13 november 2021 20:52]

Geen/nauwelijks hitte heeft bijkomend voordeel dat je geen (of extreem weinig) fan noise hebt, dat is hele dikke pre als je met audio werkt. Hoeveel geluid maken niet M1 laptops, en snelle desktop computers?
Ja mee eens, volledig! Heb zelf ook aantal jaren (semi-pro) in de audio gezeten, en dat was mijn punt dus ook eigenlijk...

Toen er gezegd werd dat die i9 dus niet handig was, mocht dat niet gezegd worden, want dan was er wel ergens een Dell die nog luider was..

Wellicht heb ik helemaal geen snelle CPU nodig en wel SPDIF aansluiting... Ben ik dan 'minder productief' omdat ik een Windows NUC haal?

Is mijn peperdure headset met 3.5mm aansluiting beter door die M1...? Ook voor audio boeit regelmatig al het andere veel meer dan die hele M1.

Das juist men punt, elk jaar lijkt de mening van vorig jaar op eens totaal onbelangrijk / heel belangrijk..

Want ik zeg in dat overdreven verhaal boven ons, ook niet dat die M1 veel geluid maakt, toch?

Ik zei in het verleden dat die i9 vette tering herrie maakte en ook dat, werd weggeschoven omdat ie wel SUPER snel was (en dat klopt!)

Punt is, het lijkt alsof is iedereen een reclame uitzending geworden ofzo...

Want nogmaals, ik zeg ook nergens dat die M1 luid is, en zeg ook niet dat ik m zou gebruiken in een studio met 20 USB devices, 20TB aan samples en extreme CPU hevige VST plugins...

Snap je?

Ik heb bijvoorbeeld een Dell XPS (9560 geloof ik).. Aantal jaar oud.

Maar op dag 1 merkte ik dat prachtige kleuren had, maar ook super veel 'ghosting'. De audio is ruk en heb met wat pasta de ellendige throttling weten op te lossen...

Maar ik ga niet zeggen dat het allemaal niet boeit, tot aan het punt bij sommigen die zeggen 'fake news' omdat ie WEL 5 usb poorten heeft..

Mijn budget Ryzen 3600x verslaat dat M1 monster, 5700xt erbij, 64GB ram en zo kunnen we lekker selectief van alles opnoemen...

Maar vind apart dat het ongeoorloofd is om te zeggen dat die dongles nergens op slaan, helemaal milieu technisch, maar WOW nu met EXTRA USB poorten en SD reader. Die i9 gewoon te kleine koeling had waar anderen het gewoon beter deden, maar jaar later is het opeens allemaal een 'wow' factor omdat de koeling beter is...

Het zijn, in mijn ogen, al jaren discussies van niks en zoals ik gelijk mijn XPS op de hak nam, omdat het namelijk de waarheid is, valt het op dat bij Apple compleet, zonder enige twijfel en angstig vol van overtuiging iets geroepen word wat regelmatig kort daarvoor nog niet eens genoemd mocht worden, want dan ben je ofwel anti Apple, en dus naïef en heb je zeker weten nog nooit erop gewerkt.. verzin t allemaal maar... Elke keer het zelfde en kan, vind ik persoonlijk, de bakker om de hoek onderhand net zo serieus nemen dan de rest als het puur over dit merk gaat.. want het houdt totaal geen stand op bepaalde dingen.

Durf zelfs te zeggen dat het weldegelijk mooi spul is. Andersom word je uitgekotst met je Android en Windows bagger...

En das waar ik mijn betoog, op zijn tijd, op richt, altijd met tientallen -1's...

[Reactie gewijzigd door DutchKevv op 13 november 2021 22:04]

Geen/nauwelijks hitte heeft bijkomend voordeel dat je geen (of extreem weinig) fan noise hebt, dat is hele dikke pre als je met audio werkt. Hoeveel geluid maken niet M1 laptops, en snelle desktop computers?
Hitte en geluid hebben eigenlijk niets met elkaar te maken. Zeker in het geval van een desktop computer, als geld geen bezwaar is, en laten we eerlijk zijn als een M1 Pro een serieuze optie is dan heb je weinig budget restricties.

Dus in zo'n geval worden zaken als een Threadripper en een Aquacomputer AirPlex Gigant gewoon een optie. Waarom uberhaupt fan herrie aanhoren als het ook volledig passief kan? Het is niet alsof een D5 veel geluid maakt.
Dus in een studio setting, waar expandability een belangrijk iets is en de boel eigenlijk gewoon op de plek kan blijven staan, kan je rustig 800 euro tegen een AirPlex aangooien en je hele systeem passief koelen.

Nou is mijn persoonlijke PC (GTX970 i5-11400) geen enorme krachtpatser, maar met een 235x235x85mm radiator extern aan de kast gemonteerd draai ik buiten games volledig passief. En de D5 die dan op 2000rpm draait hoor ik gewoon niet. Ook in de kast zelf is meer dan genoeg passieve airflow dat de 120mm case meer stil staat dan dat die draait, pas als de VRMs boven de 55C komen gaat die lopen.
En omdat software van moederbord fabrikanten in de regel ruk is als het gaat om fan control en dergelijken heb ik er een Aquacomputer Octo in zitten voor het regelwerk.

Voor laptops is dit natuurlijk anders, maar voor stationaire PCs hoef je echt geen dB te lijden zonder ook maar een FLOP in te leveren op performance. Ik draai ook geen full custom loop omdat ik zo nodig wil overclocken, maar omdat ik het leuk/mooi vind en ik gewoon rust aan mijn hoofd wil. Dat ik mijn GTX970 het schompes kan klokken nu en Tau op oneindig kan zetten is een mooie bijkomstigheid, maar was niet het doel.
Maar nu, is het helemaal niet erg. Tot de 2022 versie komt zonder Notch, dan is het, zeker weten, voor velen, een vette verbetering.. En das gewoon opvallend vind ik.
Ik vond het inderdaad ook wel opvallend dat de fanbois luidkeels riepen dat het geweldig was dat MagSafe er af ging, en de SD card reader en HDMI poort had je toch niet nodig. En nu is het weer geweldig dat ze terug zijn. Hmmm :)

Ik heb het zelf altijd slecht gevonden en ook het niet uitbreidbare geheugen stoort me nog steeds erg. Een computer is een enorm dure aanschaf en door er geheugen bij te kunnen prikken kan je er veel langer mee door. Bovendien vraagt Apple ongeveer 3x de straatprijs voor geheugenuitbreidingen.

Dus voor mij prive gaat de Mac hem sowieso niet meer worden. Ik vind macOS ook veel te beperkt geworden. Ik bn weer terug op Linux dat ik nog gewoon zo kan inrichten als ik zelf wil.

Voor werk gebruik ik het nog wel overigens, ik gebruik elk mainstream OS (en FreeBSD prive als dagelijkse machine dat niet eens mainstream is). Ik hou er van om op de hoogte te blijven. Gek genoeg is daardoor Mac steeds minder interessant omdat heel veel van de bijkomende diensten alleen maar op Apple platformen werken.

[Reactie gewijzigd door GekkePrutser op 14 november 2021 02:40]

Ik weet niet, waarom je op mij reageert eigenlijk. Ik maak alleen een opmerking dat je een mobile cpu vergelijkt met een desktop cpu, dat was alles.
Wie heeft die Intel I9 ook al weer gemaakt?
Snap ik, mijn excuses...

Ben niet taalkundig onderlegd, geef ik dan maar weer toe en gebruik het soms als een draft, wat niet handig is.

Wellicht een feature request waard.

Iets van private score voor spelfouten dien ik dan ook maar in :Y).

Alleen denk dat meeste zich niet willen branden aan die terroristen code wat gewoon zo maar buiten de app store draait ):O Word spannend (flaim :9 )

Maar heb t bewerkt (voor wie t nog leest)

[Reactie gewijzigd door DutchKevv op 13 november 2021 23:21]

En hij verbruikt ook nog eens 10x minder stroom
Waarom zou je Linux willen draaien als je OS X hebt? De use case die je beschrijft is voor niemand interessant, een enkele daargelaten

Je kiest niet voor Apple or Windows omdat je game daar sneller in draait. Je kiest voor een eco system en de rest interesseert je niet. Zeker als je aan video doet is Apple zo veel beter met de hardware matige ondersteuning.

Laat me weten als Intel dezelfde performance en battery life heeft.
Welke hardware ondersteuning? AMD/Nvidia GPU's?
en voor programeren multi-platform heb je dus gewoon echt linux/Windows nodig.. (Leuk dat je in je Apple grot zit met je Apple brilletje op)
Gast. Je kunt alles cross platform compilen dan wel via (J)VM

Maar ga jij je maar druk maken om non issues met je Apple hate.
Als is Apple hate als geen verstand hebt waar je het over hebt..
Eens een fantool altijd een fantool.
Je kunt GNU/Linux installeren op een toekomstige Mac Pro met Apple Silicon en dan alsnog een Nvidia GPU gebruiken, omdat Nvidia nu CUDA ondersteunt op ARM.

De reverse engineerde GPU driver voor M1 (Pro/Max) is al in een vergevorderd stadium, maar heeft nog wat tijd nodig. Van AMD weet ik niet hoe goed de ondersteuning op ARM machines is, omdat ik geen moderne AMD GPU's heb.
Je hebt geen drol aan een ge-reverse engineerde drivers voor compute taken, leuk voor 2d/3D plaatjes verder niets..
Typisch Apple fanboy response, je hebt geen punt dus je gaat maar trollen..
Nee jij bent veel beter. Deze discussies zie je in elk alle topic onderhand.

Kennelijk zijn software engineers en content creators er behoorlijk content mee.
Alle software engineers op de mac die ik ken balen juist heel erg van de switch naar ARM, ze blijven hun oude Intel Macbook's daarom ook nog zo lang gebruiken als mogenlijk <~ Want ze schrijven voornamelijk software dat niet voor de Mac is en native VM/Windows support nodig hebben <~ Emulatie is geen alternatief.
Grappig dat het bij ons weer geen probleem is.
Zeker weer alleen maar Javascript?
En golang, Java en Python
Ga jij dat nou echt programmeren noemen? Voor het zwaardere werk heb je echt niets aan een Mac met ARM, wetenschappelijk/medisch/server etc.
Wat is volgen jou dan wel “echt” programmeren?
Ja want PC gebruikers zijn allemaal arme peasants volk!
Blinde fantool much?
De x86 tool begon er zelf over :)
"Crazy like a fool, I am an x86 tool" :)
Ik wacht op een moederbord, maar zou bijna de 12600K alvast bestellen voordat deze weg is, echt een super interessante prijs/prestatie voor 299,- euro, ook met deze zijn ze weer erg goed bezig!
De Gigabyte- en HP-modellen haalden respectievelijk een singlecorescore van 1340 en 1328 en multicoreresultaten van 11.138 en 10.517. De voorgaande Intel Core i7-11800H haalt single- en multicorescores van 1474 en 7958, terwijl die resultaten bij een AMD Ryzen 9 5800H respectievelijk 1326 en 7038 bedragen, schrijft VideoCardz.

Mijn Lenovo Ryzen 7 5800H haalt 1492 single en 9181 multi (W11) dan zijn de nieuwe Intel's niet echt snel te noemen :)
Doet Lenovo het veel beter qua afstelling van de laptops dan andere fabrikanten? Of zit er een verschil in de software? Hoe zijn anders de grote verschillen in prestaties met dezelfde chips te verklaren?
Ik denk dat het met de volgende 2 zaken te maken heeft, de beschikbare koeling in een laptop en de ingestelde powerlimit door de fabrikant.
Heb de test nog een x gedraaid, iets hogere scores dan de eerdere test.

1509 - 9229
https://browser.geekbench.com/v5/cpu/10997144

[Reactie gewijzigd door Q_7 op 14 november 2021 11:03]

Ik zit nog steeds te wachten tot ddr5 fatzoenlijk leverbaar wordt.
Geekbench is dat wel betrouwbaar?Mijn cpu zweet nog niet eens.
Hoop voor je dat ze inderdaad niet zweten want dan krijg je kortsluiting! :P
Het gaat vrij slecht met intel. De aandeelhouders lezen niet veel veelbelovende nieuwsberichten en er is ook geen speciale outlook op iets bijzonders op hun roadmap (die nieuwe gpu architectuur lijkt ook niet heel bijzonder...).

Dus ik denk dat op de korte termijn hun roadmap bedoelt is om hun Core lijnen nog een beetje te cash-cow' en (bijna niet meer in investeren, beetje concurreren op prijs en tweaks):
  • -200+ Watts door een desktop cpu blazen om in reviews nog net ff een beetje hogere balkjes op benchmark grafieken genereren (en dan is een 360mm radiator verplicht?)
  • zoveel mogelijk E-cores op mobiele chips, om ook op de laptop benchmarks niet helemaal onderuit te gaan en nog een klein beetje batterijduur halen.

Op dit item kan niet meer gereageerd worden.


Nintendo Switch (OLED model) Apple iPhone 13 LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S21 5G Apple iPad Pro (2021) 11" Wi-Fi, 8GB ram Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True