Bloomberg: Apple maakt overstap van Intel naar ARM voor Mac deze maand bekend

Apple maakt tijdens zijn WWDC 2020-conferentie, die het bedrijf in de week van 22 juni virtueel houdt, bekend dat het zijn eigen chips op basis van ARM gaat gebruiken voor Mac-systemen. Dat beweert Bloomberg.

Apple zou volgend jaar de eerste Mac-systemen met zijn eigen processors in plaats van Intel-chips willen uitrusten, maar dat tijdens zijn online WWDC-evenement later deze maand al aankondigen. Zo hebben ontwikkelaars tijd om zich voor te bereiden op de overgang.

Het gerucht komt van Mark Gurman van Bloomberg, een journalist die bewezen heeft over goede bronnen binnen Apple te beschikken. De site houdt wel een slag om de arm; de bronnen zeggen dat de plannen nog kunnen wijzigen, aangezien de transitie naar ARM nog relatief ver in de toekomst ligt.

Het project binnen Apple om de Mac te migreren van Intel naar ARM zou de naam Kalamata dragen. Apple ontwikkelt al zijn eigen socs voor iPhones en iPads. De ontwerpen voor de Mac zouden op 'dezelfde technologie' gebaseerd zijn. In tegenstelling tot iOS draait macOS niet op ARM-systemen en ontwikkelaars moeten hun software waarschijnlijk aanpassen om deze voor toekomstige Macs geschikt te maken.

Bij Apples overstap van IBM's PowerPC naar de x86-architectuur van Intel-processors, in 2006, maakte het bedrijf overigens het draaien van oudere programma's tijdelijk mogelijk met behulp van de emulator Rosetta. Dat ging wel ten koste van prestaties tegenover software die native voor x86 was geschreven.

Apple zou zijn gehele Mac-lijn op termijn op ARM willen overzetten. Bij testen zouden de ontwikkelde eigen chips al significante prestatiewinsten tonen, met name op grafisch gebied en bij berekeningen voor kunstmatige intelligentie. Ook zouden de processors zuiniger functioneren dan Intel-chips. De eerste Apple-processors voor de Mac zouden acht krachtige en vier zuinige cores hebben en Apple zou de chip op 5nm laten maken, volgens eerdere geruchten.

De reden voor de overstap zou liggen bij Intels matige prestatiewinsten bij de afgelopen processorgeneraties. Blijven vasthouden aan Intels roadmap zou voor vertraging kunnen zorgen bij de release van toekomstige Macs, was de vrees van Apple-technici volgens Bloomberg. Mogelijk zijn die zorgen te herleiden tot de problemen die Intel rond 2017 en 2018 had met zijn 10nm-chipprocedé.

Door Olaf van Miltenburg

Nieuwscoördinator

09-06-2020 • 13:44

318 Linkedin

Submitter: robcoenen

Reacties (319)

319
305
236
8
0
47
Wijzig sortering
De reden voor de overstap zou liggen bij Intels matige prestatiewinsten bij de afgelopen processorgeneraties. Blijven vasthouden aan Intels roadmap zou voor vertraging kunnen zorgen bij de release van toekomstige Macs,
Bijzondere reden aangezien de nieuwe Macbooks nu ook niet altijd met de laatste processor generaties wordt geleverd. Zou denken dat performance dan niet de reden is.

Gedurfde stap van Apple als ze dit gaan doen (in 2006 heeft erg goed uitgepakt)
Het probleem wat Apple met de Intel processoren heeft is de zekere zin de hitte die ze afgeven. Intel processoren zijn CISC, hebben daardoor veel transistoren, en worden relatief gezien heel erg heet. Bij Apple draait het deels om het design, en om een gloeiplaat zoals een CISC processoren daarin te krijgen is geen makkelijke opgaven.

Er worden al trucjes toegepast zoals de aluminium behuizing als heatsink te gebruiken, en ventilatoren met asymmetrische bladen om het geluid te verminderen. Maar omdat je niet constant in het gezoem van de koeling wilt zitten, loop je tegen een afweging aan.

Wat Apple vooral met ARM processoren wilt bereiken is dezelfde prestaties met minder hitte ontwikkeling, en het liefst natuurlijk betere prestaties. Aangezien ARM een RISC architectuur is, en daardoor minder transistoren heeft, zou je in theorie minder hitte hebben bij dezelfde prestaties.

De huidige ARM processoren in de iPhones, iPads, etc. zijn al erg krachtig. Als ze dat goed hebben kunnen opschalen voor het gebruik in MacBooks, zie ik het afgezien van problemen met software pakketten, wel kunnen slagen.
Zoveel maken RISC en CISC elkaar niet meer uit, immers zet de decoder op iedere CISC-processor sinds de Pentium Pro en K5 de CISC-instructies om in RISC-achtige instructies. Wat veel meer uitmaakt is de hoeveelheid R&D die je erin steekt om het te laten werken; daarom lukte het Intel bijvoorbeeld om een Core-chip zonder ventilator te laten draaien.
Blijft het niet waar dat Intel chips dus een veel gecompliceerdere decoder nodig hebben om de micro ops te generen. Ik meen dat er zelfs een stuk ROM op zit, met eigen instruction pointer en al, zodat sommige RISC instructies als procedure kunnen worden geïmplementeerd.

De vraag is natuurlijk of dit inderdaad zo veel transistoren of chip oppervlakte kost om een significant verschil te maken.
Het hele RICS/CISC verhaal is al een aantal jaren achterhaald. ARM heeft al jaren niets meer met RISC te maken.

Daarnaast is al een aantal keer bewezen dat ARM op performance/watt nogsteeds achter blijft bij x86 en dat Apple's processoren alleen in hele specifieke situaties sneller zijn dan x86.

Als de performance/watt van ARM slechter is dan kan de overstap naar ARM dus twee dingen betekenen;
OF alles wordt een heel stuk trager
OF apple brengt betere koeling mee en in dat geval hadden ze ook bij Intel kunnen blijven aangezien de huidige Apple laptops beperkt zijn door koeling, niet door de CPUs.

Intel maakt echt wel processoren die zonder dat gezoem te gebruiken zijn. Apple kiest er voor die niet in te zetten. In plaats daarvan zetten ze processoren in die er snel uit zien (als in: "i7/i9 zal wel snel zijn") maar zwaar ingeperkt worden door het gebrek aan koeling in de Macbooks.

Deze stap heeft niets met performance of met koeling te maken en alles met Apple's drive om alles in eigen hand te hebben.
Daarnaast is al een aantal keer bewezen dat ARM op performance/watt nogsteeds achter blijft bij x86 en dat Apple's processoren alleen in hele specifieke situaties sneller zijn dan x86.
Dat klopt niet, de kracht van ARM is juist dat hij meer rekenkracht per Watt levert vergeleken met Intel. Vooral de Apple implementatie van ARM.

Intel heeft met de Atom chips geprobeerd mobiele processoren te maken, maar hebben gefaald. Ze worden warm als je prestaties vereist, en warmte is Watts verbranden aan andere zaken dan rekenkracht.

Apple's ARM is nu snel genoeg voor de desktop, dus is het nu tijd voor ARM op de desktop.
warmte is Watts verbranden aan andere zaken dan rekenkracht.
Alle energie van een processor word omgezet in warmte, je kunt geen energie omzetten in rekenkracht.
Je zet dan ook geen energie om in rekenkracht maar in andere zaken dan warmte. Warmte wordt veelal gezien als een stukje inefficiëntie. Beweging kost ook energie, ook die van iets kleins als een elektron.
Beweging van een elektron is warmte. Als iets warmer wordt dan komt dat doordat de moleculen en in geleidende materialen ook de elektronen harder bewegen. Als je energie steekt in een cpu om elektronen te laten bewegen, dan resulteert dat automatisch in miniscuul meer warmte.

Alle energie die je in een cpu stopt resulteert in warmte.
Ik snap niet helemaal waarom je dat zegt? Elektrische energie wordt toch onderscheiden van warmteenergie?
Het is alleen zo jammer dat daar helemaal niets van klopt. Beweging is kinetische energie, geen warmte. Warmte is iets wat ontstaat bij energie-uitwisseling maar in dit geval bedoelen we er eigenlijk iets anders mee (thermische energie).
Warmte is een bijproduct. Net zoals bij verlichting, een gloeilamp zet 90% van de energie om in warmte en 10% in licht. Een ledlamp doet dat precies andersom, daar gaat slechts 10% verloren aan warmte.

Elektrische energie is om te zetten in warmte, beweging, licht. Bij omzetting in beweging of licht leidt inefficiëntie tot het gedeeltelijk omzetten in warmte.
Dat klopt inderdaad (afgezien van dat LEDs eerder een efficiëntie van 50% hebben en niet 90%), maar een cpu heeft geen bewegende onderdelen, straalt geen licht uit en slaat ook geen energie op in chemische verbindingen of iets anders. De energie die je in een cpu steekt wordt 100% omgezet in warmte.
Een processor laat toch electronen bewegen? Dat kost wel energie. De proportie weet ik niet...
Electronen bewegen altijd. Het is niet zo dat een processor deze in beweging moet brengen.
Beweging en snelheid op atomair niveau is juist warmte :+
Maar ze een andere beweging geven kost wel energie.
Energie kan niet verdwijnen (wet van behoud van energie) en de enige manier voor de energie die jij in je computer stopt om weer uit jouw laptop of smartphone te ontsnappen is via warmte (en via het scherm als een kleine hoeveelheid licht en via de Wifi en Bluetooth antenne, een paar milliWatt).
Niet alleen de processor produceert warmte. Energie vanuit de processor kan ook naar een ander onderdeel verplaatst worden en daar voor een deel in warmte omgezet worden. En inderdaad ontsnapt er energie in elektrische vorm uit het doosje op verschillende manieren. En je hebt nog energie in de vorm van elektromagnetische straling.
Deze stap heeft niets met performance of met koeling te maken en alles met Apple's drive om alles in eigen hand te hebben.
https://browser.geekbench...7-1068ng7-2-3-ghz-4-cores
https://browser.geekbench.com/ios_devices/iphone-11-pro

Macbook Pro 13", Core i7 10e generatie
Single: 1225 Multi: 4509, ventilatoren: WHOOOOOOOOEI! *

iPhone 11 Pro A13
Single: 1328, Multi: 3395, ventilatoren: Passief.

Maar nee hoor, die Intel-chips zijn fantastisch (jaja, het zijn maar benchmarks, etc.).

Het punt is dat je oorzaak en gevolg ook omdraait. Ja, natuurlijk wil Apple de boel in eigen hand hebben en gebruiken ze liever de eigen chips dan die van Intel. Alleen, dat was geen optie, zolang de chips van Intel superieur waren in performance, benodigde TDP en yield/kosten.

Performance is duidelijk uit de benchmarks, daar hoeft Apple zich nergens voor te schamen, benodigde TDP is een drama bij Intel, totdat ze die 10-generatie uitbrachten. Ja, tuurlijk kun je overal nog meer en luidere ventilatoren op knallen, maar dat wil de consument niet.

Blijft over de kosten. Daar komt die 10e generatie om de hoek kijken. Intel heeft er enorm lang over gedaan en dus extreem veel kosten moeten maken. Die berekent Intel nu door aan hun klanten, ongetwijfeld. Daar zit hem de nekslag.

Apple wilde altijd al alles in eigen beheer doen, maar nu *omdat* ze superieure koeling en performance hebben (of in ieder geval parity) *kunnen* ze het ook doen en waarschijnlijk met een flinke kostenbesparing ook nog.

*Dit heb ik van horen zeggen, en ik kan het verkeerd hebben. Ik kon ze niet zo goed verstaan vanwege de gigantische achtergrondruis!
Macbook Pro 13", Core i7 10e generatie
Single: 1225 Multi: 4509, ventilatoren: WHOOOOOOOOEI! *

iPhone 11 Pro A13
Single: 1328, Multi: 3395, ventilatoren: Passief.

Maar nee hoor, die Intel-chips zijn fantastisch (jaja, het zijn maar benchmarks, etc.).
Koel. Je begrijpt, hopelijk, dat Geekbench voor iPhone geen enkel verband heeft met Geekbench voor een laptop? Er is, letterlijk, geen enkele overeenkomst.

Als je zinvol(ler) wilt vergelijken:
- De Qualcom 865 benchmarkt in multi-core performance hetzelfde als de A13
- De Qualcom 8CX is 10%-20% sneller dan dat
- De Qualcom 8CX is vergelijkbaar in performance aan de i5-8250U

Met die cijfers durf ik rustig te beweren dat je een passief gekoelde Intel chip naast een passief gekoelde A13 kunt zetten en op z'n minst vergelijkbare performance zult zien.
(Hoewel ook bovenstaande resultaten allemaal heel erg relatief zijn... Voor de eerste vergelijking moet je een Android apparaat met een iOS apparaat vergelijken en voor de laatste moet je Windows ARM native met Windows x86 native vergelijken. Geen van beiden zijn 1-op-1 vergelijkingen)

[Reactie gewijzigd door Croga op 9 juni 2020 17:27]

Koel. Je begrijpt, hopelijk, dat Geekbench voor iPhone geen enkel verband heeft met Geekbench voor een laptop? Er is, letterlijk, geen enkele overeenkomst
Zelf zeggen ze:
Compare apples and oranges. Or Apples and Samsungs. Designed from the ground-up for cross-platform comparisons, Geekbench 5 allows you to compare system performance across devices, operating systems, and processor architectures. Geekbench 5 supports Android, iOS, macOS, Windows, and Linux.
Hoe je die score moet interpreteren
Geekbench 5 scores are calibrated against a baseline score of 1000 (which is the score of an Intel Core i3-8100). Higher scores are better, with double the score indicating double the performance.
Dus, ik zie niet in waarom ik die niet kan vergelijken, als dat expliciet het doel is van deze benchmark?
Dus, ik zie niet in waarom ik die niet kan vergelijken, als dat expliciet het doel is van deze benchmark?
De vraag bij welke benchmark dan ook is nooit of je het een met het ander kunt vergelijken. Het hele idee van een benchmark is nou juist dat je kunt vergelijken. Het punt is echter dat een vergelijking alleen niet zo gek veel zegt. Je moet immers wel weten wat je vergelijkt en ook hoe je vergelijkt.

Meten is dus zeker niet weten. Dat iets een lengte van 13cm heeft zegt alleen maar dat iets een lengte van 13cm heeft. Dan kun je het vergelijken met iets anders dat dan 12cm is waarop je kunt concluderen dat de eerste 1cm langer is dan de tweede. Heel mooi, maar past het dan ook?

Of anders gezien: auto A doet 50km/u, auto B doet 49km/u. Dan zou je kunnen zeggen dat ze nagenoeg even snel zijn terwijl ze toch beiden heel erg traag kunnen zijn. 50km/u op een snelweg is tegenwoordig de minimale wettelijke toegestane snelheid en dat is tov het overige verkeer echt heel traag. In dit geval valt auto B net onder dat minimum en mag dus niet op de snelweg rijden. Zijn ze dan nog vergelijkbaar?

Met iets als Geekbench zou ik dan ook erg oppassen en eerder gebruiken om je eigen device te vergelijken met dezelfde devices van anderen. Zo kun je zien of het apparaat naar behoren functioneert of niet (iets waar in eerste instantie benchmarks van computers ook voor bedoeld waren).
Ja leuk theoretisch verhaal, maar eerst zegt @croga dat ze ‘letterlijk’ geen enkele overeenkomst hebben, terwijl de cross-platform vergelijkbaarheid een doel op zich is.

En nu dan dus een verhaal over potloden en snelwegen.

De A-series van processoren zijn, zoals Apple dat zelf zegt, desktop-class. Of beter gezegd, meer dan goed genoeg voor de meeste laptop/desktop zaken.

Overigens niet alleen de A-series. Er is een reden dat Arnoud Wokke laatst deze review schreef: reviews: Je smartphone als laptop of desktop - De desktopmodus van telefoons ...

En dat is niet omdat Intel de mijlen voorsprong die het had op ARM heeft weten te behouden.

@arnoudwokke had als conclusie:
Deze uitgebreide test heeft laten zien dat het vooral schort aan de software, maar waar geen enkele telefoon tegenaan liep, zijn beperkingen van de hardware. De processor, de gpu, het geheugen en de opslag hielden alle dagelijkse desktoptaken prima bij.
Apple pakt het net iets anders aan, in plaats van hardware extern aan een mobiel te verbinden, stoppen ze de mobiele cpu gewoon in een laptop. De software om dit te draaien hebben ze al sinds 2007.

x86 is niet dood, maar voor de consument steeds minder relevant. Het is de vraag wat Microsoft gaat doen. Ze hebben het al eens geprobeerd met RT, dus voor hun is de stap ook niet zo enorm.

[Reactie gewijzigd door Keypunchie op 9 juni 2020 21:25]

waar geen enkele telefoon tegenaan liep, zijn beperkingen van de hardware. De processor, de gpu, het geheugen en de opslag hielden alle dagelijkse desktoptaken prima bij.
Dit zijn dan wel vrij minimale taken. Inderdaad, op de allergoedkoopste laptop of smartphone kun je prima de taken verrichten die de meeste mensen dagelijks doen, zoals een beetje browsen, e-mailen, tekstverwerken, video kijken.
iPhone 11 Pro A13
Single: 1328, Multi: 3395, ventilatoren: Passief.
Geekbench 5 scores are calibrated against a baseline score of 1000 (which is the score of an Intel Core i3-8100). Higher scores are better, with double the score indicating double the performance.
Maar het lijkt mij echt niet zo waarschijnlijk dat een telefoonprocessor qua kracht in de buurt komt van een laptopprocessor, en al helemaal niet met een best snelle desktopprocessor zoals de i3 8100 (score: 1000). Die kost €100, en heeft 4 kernen op 3,6 GHz. Die Apple A13 (score: 3395) heeft twee kernen op 2,65 GHz. En elke telefoonprocessor moet extreem zuinig zijn om bij belasting niet te warm te worden, en extreem klein ook nog. Dat gaat allemaal zwaar ten koste van prestaties, nog los van aantal kernen en kloksnelheid. En dan hebben we het nog niet gehad over IPC (instructions per clock cycle).
De high-end Apple A13 en A12x zijn al sneller dan de low-end Intel i3’s. Die A13 is trouwens: 2 big en 4 little cores en die score van 1000 voor de i3 is trouwens single core.

I3 multi: 3117
A13 multi: 3239
A12x/z multi: 4623

En dat is de theorie. In de praktijk zijn die high-end tablets sneller omdat alles rond die cpu ook snel is. GPU, ssd etc. Combineer dat met efficiente software en dan komt het punt dat 4K video en exports op een Ipad pro sneller gaan dan een intel i7. Ook photoshop voor ipad kan meer lagen aan dan een snelle desktop met veel meer ram geheugen. Op een demo toonden ze een Ipad met 157 lagen en een 3Gb PSD en zero lag. Vergeet dat maar op een i3!

[Reactie gewijzigd door Coolstart op 10 juni 2020 19:22]

Maar het lijkt mij echt niet zo waarschijnlijk dat een telefoonprocessor qua kracht in de buurt komt van een laptopprocessor,
sorry maar dat is dus wel degelijk heel waarschijnlijk. Kijk naar de creatieve wereld waar men tegenwoordig PSDs van 1GB realtime kan voorzien van filters op een iPad. Dat is vrij bijzonder als je je beseft hoeveel hardware dit onder desktop apparaten vereiset.

Ook dingen als multitrack audio recording en 4K editting en rendering. Allemaal dingen die ik op mijn telefoon of iPad binnen enkele minuten even doe. Voor een verjaardag van iemand even een filmpje maken of bij band repetities multitrack recording. Ik heb ook een macbook (15"2015), maar met de iPad gaat het gewoon veel sneller. Het is niet alleen de ruwe performance van de chips, maar ook de software optimalisaties die er voor zorgen dat die ruwe performance ook aangesproken kan worden. Normaal op intel draaiende software heeft nou eenmaal veel meer software overhead.

Het is helemaal niet zo gek dat je deze scores hier ziet. En ja die zijn dus beter dan een i3-8100. Dit komt juist doordat de IPC zo hoog ligt.

Om even een stuk van Reddit te quoten:
This limitation exists on smartphones too, as they are restricted to a very conservative TDP target. Of course that doesn't explain way the amazing performance (which they achieve at sub-3 GHz) of these mobile SoCs. Why/How they can make such powerful chips at so much less power usage, whereas champions like Intel and AMD are struggling (whereas Apple's recent 12-13% IPC increase of the A13 from the A12 is treated as incrimental in the mobile scene, that same IPC increase on the Zen 2 is being celebrated in the desktop scene), is something clearly nobody has been able to explain to me...

I remember asking industry people in various communitiess and forums about this already 4 years ago, back when we had the Apple A9. The answers back then were that soon these companies would face the wall at some point, like Intel; their Sandy Bridge was about to happen. The last few years of still continious improvements have of course quashed all of those predictions. ARM is no different either, as their small A77 core is providing yet another ~20% IPC improvement in next year's SD865.
https://www.reddit.com/r/...marked_in_geekbench_5_18/
In die thread vraagt men zich ook terecht af hoe geekbench werkt. het is allemaal vrij simpel. Hoger nummer is beter score. En ja er zijn verschillen in workloads, maar die kun je individueel wel benchmarken.
Het is de vraag of het Microsoft veel kan schelen.

De grote concurrent van Microsoft is niet Apple maar Google. En omdat de consument vraagt om apparatuur met ARM chips er in wegens de (al dan niet vermeende) voordelen bouwt Microsoft Windows voor ARM (https://docs.microsoft.com/en-us/windows/arm/).

Als je kijkt naar het aantal laptops dat Apple verkoopt in vergelijking met anderen heeft Apple maar een aandeel van 10-15% en blijft dus een aanbieder voor een niche-markt, net zoals de iPhone wereldwijd ook maar een beperkt deel van het totaal aantal smartphones vormt.

Als je kijkt wat Microsoft doet is het de strijd aangaan met Google op allerlei soorten manieren: Bing vs Google, Edge vs Chrome, Office 365 vs G-suite, Azure vs Google Cloud. Dat is waar de concurrentie nu is; in Cupertino is slechts een (lucratieve) sideshow.
Leuk dat die Intel even goed scoort als de A13.
Alleen is het voor Apple natuurlijk een stuk goedkoper om eigen chips te nemen dan de chips van Intel.
En daarbij heeft Intel heel veel moeite gehad om de laatste generatie op tijd af te krijgen. En was hij dus niet op tijd.

Nu snap ik dat de stap snel gemaakt is voor Apple.
Er is nooit een A13x uit gekomen, vreemd genoeg heeft ook de laatste iPad Pro update nog steeds een A12x aan boord. De x varianten benchmarken stukken beter in multi-core omdat die simpelweg meer cores heeft. Single core is de A13 sowieso sneller.

Het zijn overigens niet alleen de Geekbench scores die extreem goede resultaten laten zien voor de A12x: https://www.anandtech.com...ipad-pro-11-inch-review/5

Gaan ze in september over naar ARM dan kun je er van uit gaan dat die twee generaties oude tablet processor een stuk sneller gaat worden op een kleine proces, met meer cores en betere koeling nog los van de gebruikelijke verbeteringen. Ik ben wel bereid te geloven dat de prestaties dicht bij de i7 kunnen komen.
Overeenkomst of niet, feit is dat een iPad Pro een 9th generatie intel op veel gebied het nakijken geeft kijk hier maar vanaf minuut 15:30
https://www.youtube.com/watch?v=aSpZcCd1l4I
En dat is dus de “iPad” versie in een iets grotere behuizing kunnen ze nog veel verder opschalen ...
Maar nee hoor, die Intel-chips zijn fantastisch (jaja, het zijn maar benchmarks, etc.).
Die ARM processoren zijn zo fantastisch dat vrijwel iedere computer en server ze gebruikt in plaats van de x86 varianten van AMD en Intel!

Leuk dat je een vrij theoretische benchmark aanhaalt maar ARM processoren zijn niet bepaald nieuw. Het aantal laptops en desktops met een ARM processor is welgeteld 01. De enige groep die daadwerkelijk een ARM processor heeft zijn bordjes als de Raspberry Pi maar dat is weer een aparte categorie.

Er zijn echter diverse partijen die druk bezig zijn met het bouwen en testen van machines met ARM. Dit zijn veelal server oplossing voor rekenkundige taken e.d. Op dit moment is er feitelijk maar 1 algemeen beschikbaar platform waar je ARM processoren kunt gebruiken en dat is van AWS en is nog maar iets van een maand beschikbaar. Wat die partijen zien is dat de performance van ARM en x86 niet gelijk is. De een is beter in gebiedje x terwijl de ander dat weer op gebiedje y is. Met andere woorden: zo'n benchmark is leuk maar zegt in feite eigenlijk helemaal niets wanneer je de vergelijking tussen beide architecturen maakt.

Daarnaast is performance maar een heel klein deel van het verhaal. Instructiesets zijn bepalend maar ook warmteontwikkeling, hoeveel invloed je op de ontwikkeling kunt uitoefenen, kosten, productiefaciliteiten, security issues (bijv. spectre, meltdown), enz.

ARM is niet voor alles inzetbaar.

Maar ach, wat weten Amazon, HPE, Dell, etc. en een website als servethehome nou van processoren... Het verhaal ligt dus heel wat genuanceerder dan wat jij er hier nu van maakt. Je kunt beter naar artikelen van websites als servethehome kijken, die hebben ook gekeken naar de performance en doen dat met heel wat meer benchmarks en andere tests: Putting AWS Graviton and its Arm CPU Performance in Context. En bij performance alleen blijft het niet, er wordt ook gekeken naar een processor als de ThunderX3 met daarbij wat achtergrond info over de markt, de technologische ontwikkelingen en een stukje toekomstperspectief: Marvell ThunderX3 Arm Server CPU with 768 Threads Per Node in 2020. Wat mij in dat artikel opviel was het commentaar van Marvell:
Marvell thinks Arm SoCs without legacy instructions can deliver what the industry needs going forward.
Als je een beetje tussen de regels doorleest dan zie je hier een vorm van de Wet van de remmende voorsprong. ARM heeft niet zo'n last van die legacy instructions waar Intel dat wel heeft, aldus Marvell. Dat soort zaken spelen natuurlijk ook mee. Het is niet louter performance.

@RockmanX inderdaad niet mee bekend. De titel van het artikel spreekt overigens boekdelen.

[Reactie gewijzigd door ppl op 10 juni 2020 20:55]

Ja? Je bent dus niet bekend met de Lenovo Yoga 5G? Lees rustig verder op:https://www.theverge.com/2020/1/6/21050758/lenovo-yoga-5g-snapdragon-qualcomm-8cx-x55-arm-windows-laptop-ces-2020
Ms heeft gewoon surface tablets uitgeleverd met arm chips dus 0 is ie zeker niet. Tevens kan je tegenwoordig wel stellen dat de arm chips zo goed zijn dat ze de huidige i3 en i5 wss wel weg blazen.
Ms heeft gewoon surface tablets uitgeleverd met arm chips dus 0 is ie zeker niet.
Dan is het dus nog steeds 0 (of 1 na correctie van RockmanX). Ik had het namelijk over laptops en desktops, niet over tablets. Tablets heb ik, net als smartphones, doelbewust er buiten gelaten. Het gros van deze apparaten heeft namelijk wel een ARM processor maar wordt bij lange na niet ingezet voor de dingen waar we, nog steeds, massaal laptops en desktops voor inzetten.

Dat was mijn punt ook. Je kunt wel heel denigrerend over die Intel processoren gaan doen en doen alsof de ARM processoren zoveel beter zijn maar feit is gewoon dat bij de apparaten die we voor de meer rekenkundige taken gebruiken (laptops en desktops maar ook servers) we vrijwel geen ARM processor zien. ARM is een ander beestje dan x86 en dat heeft zo zijn gevolgen.

Het hele probleem is dat er hier met benchmark scores wordt gestrooid dat het een lieve lust is zonder dat de strooiers ook maar enigszins begrijpen wat zo'n score inhoudt. Laat staan dat ze weten wat de benchmark nou exact test. Bovendien vertellen benchmarks ook niet het hele verhaal. Microsoft heeft ook een ARM tablet (de Surface Pro X) en erg goede reviews krijgt ie niet omdat de performance er niet is. Zeker niet vergeleken met grote broer de Surface Pro 7. Apple en Samsung hebben ook tablets met een ARM processor maar daarvan hoor je niemand klagen over de performance, in tegendeel, daar is men juist laaiend enthousiast over de hele goede performance. Dan krijgen we ook vaak de verhalen over de operating systems: die op de Apple en Samsung tablets zou veel slanker zijn dan Windows.
Die ARM processoren zijn zo fantastisch dat vrijwel iedere computer en server ze gebruikt in plaats van de x86 varianten van AMD en Intel!
Nee want ze komen pas nu op het niveau dat het ook daadwerkelijk bruikbaar gaat zijn op dekstop niveau qua performance.

En ja er zijn al tig servers die ARM socs gebruiken. Vooral wiskundige rekenclusters.
Op dit moment is er feitelijk maar 1 algemeen beschikbaar platform waar je ARM processoren kunt gebruiken en dat is van AWS en is nog maar iets van een maand beschikbaar.
Azure komt binnekort ook.
Maar ach, wat weten Amazon, HPE, Dell, etc. en een website als servethehome nou van processoren...
Heb je je eigen artikelen wel gelezen? Al die partijen zijn hard aan het experimenteren met ARM modules en clusternodes. Zeker in server land betekent dit niet direct dat je dit dan ook direct in productie ziet. Dat moet eerst een tijdje uitgekristalliseerd zijn. Spul moet mega stabiel draaien.
Nee want ze komen pas nu op het niveau dat het ook daadwerkelijk bruikbaar gaat zijn op dekstop niveau qua performance.
Juist en dus moet men ook niet gaan doen alsof ARM ineens volledig competitief is met Intel processoren.
Heb je je eigen artikelen wel gelezen? Al die partijen zijn hard aan het experimenteren met ARM modules en clusternodes. Zeker in server land betekent dit niet direct dat je dit dan ook direct in productie ziet. Dat moet eerst een tijdje uitgekristalliseerd zijn. Spul moet mega stabiel draaien.
Heb jij mijn post wel gelezen of alleen de linkjes die erin staan? Die partijen waar ik op doelde zijn al heel wat jaren hard aan het experimenteren (jaartje of 10 op z'n minst). Inmiddels kun je ook al diverse productierijpe ARM servers aanschaffen (daar gaat nota bene 1 van de links nog over). Iets wat overigens ook al weer een aantal jaar het geval is (het graviton artikel komt uit 2018 en als je op die site doorklikt dan kom je oudere artikelen tegen).

Dat mega stabiel is overigens ook wel wat overtrokken. Dat is zeer zeker niet de reden waarom men al zo lang aan het testen is. Wat ze doen is kijken voor welke workloads het inzetten van ARM servers handig is (zowel qua computing als qua kosten). De benchmarks die men draait sluiten daar op aan. Stabiliteitstests duren ook geen jaren, dat pakken ze toch een heel stuk efficiënter aan.

Wat je in serverwereld ziet is dat ze ARM op specifieke gebieden inzetten naast het standaard Intel spul. Het een sluit het ander niet uit. Beiden hebben hun plek.

[Reactie gewijzigd door ppl op 10 juni 2020 21:18]

geekbench score is een combinatie van een reeks tests die hun eigen weging krijgen.
In veel van die tests komen de intel chips een pak hoger uit dan die van apple, maar die worden als minder belangrijk gezien door de makers van geekbench.

je mag er zeker van zijn dat je geen A14 soc's in de eerst volgende apple pro machines zal zien.
misschien wel in een laptop.
Wat is een nano millimeter in godsnaam?
dat maakt nog altijd wel een verschilletje.
Op wat?
alleen jammer dat je er niet bij verteld dat de A13 6 cores heeft op 7 Nano millimeter, terwijl intel bij geek bench i7 een 4 core is op 10 nano millimeter,
Dat is dan toch alleen nog maar een extra ding waar Intel op achterloopt? Daarnaast is 7nm of 10nm ook weer afhankelijk van de fabrikant. Dus ook 10 en 7 kun je niet vergelijken.
Deze stap heeft niets met performance of met koeling te maken en alles met Apple's drive om alles in eigen hand te hebben.

Deze stap komt er ongetwijfeld omdat Apple drie dingen tegelijk denkt te kunnen bereiken, op korte termijn en op een duurzame manier:
- minstens even goede prestaties
- betere prestaties per Watt
- onafhankelijkheid van Intel.
Er zijn inderdaad genoeg producenten die i7/i9 in een laptop mikken die compacter is dan de macbooks en toch een heel stuk sneller zijn door betere koeling. Zeker met de i9.
Het is vooral Apple zijn onkunde qua het ontwerpen van laptops op het gebied van koeling waardoor ze heet worden. De Macbook pro 13 met de 10th gen core i7 tikt 100c aan. Maar als je de laptop open maakt zie je dan ook een extreem kleine heatsink met zeer magere heatpipes. Tuurlijk wordt dit heet. Helemaal omdat er weinig ventilaten intake gaten aanwezig zijn.

Nog erger de laatste Macbook Air heeft niet eens een heatpipe tussen de heatsink en ventilator zitten.Natuurlijk wordt dit gloeiend heet.
https://d3nevzfk7ii3be.cl...igi/XAVKrLNmWnE5CvRe.huge

KIjk eens naar de concurrentie, volledige vaporchamber koeling voor hun 15inch machines
https://www.notebookcheck...sm_MG_4863_13a8794d55.jpg

Of een deftige heatsink met meerdere heatpipes en 2 fans voor de Macbook air tegenhanger.
https://www.notebookcheck...m_DSC_0001_df148d6a1e.jpg


ARM heeft vooral als voordeel dat het geen legacy support heeft, waarbij X86 architecturen vooral nog met alles sinds de 8086 generatie compatible is. Daarnaast is de Ipad Pro qua transistoren op hetzelfde niveau qua aantal als huidige high end CPU's. ALleen throttled deze vrij snel binnen de passief gekoelde Ipad Pro.
Geen legacy support kan een voordeel maar ook een nadeel zijn. Er is nog legio legacy software voor verschillende platformen. Microsoft kan het met Windows niet maken om alle legacy ineens te laten vallen, daarvoor is er veel te veel oude zut die het ineens niet meer gaat doen. Nu zegt Apple rustig tegen alle ontwikkelaars die software maken voor macos: "we gaan het compleet anders doen, volg maar". Of ze moeten iets van een transitie, emulatie oid verzinnen wat ze destijds deden met overstap van powerPC naar Intel.
Dit is een onderschat voordeel voor Apple. Microsoft wil al jaren over naar een ander platform maar dit lukt gewoon niet omdat men zo enorm hamert op legacy ondersteuning. Zelfs het verlies van 16-bit ondersteuning was een drama omdat menig (boekhoud) applicatie er mee ophield.

Het probleem zit natuurlijk ook in de perceptie van de gebruikers en ontwikkelaars. Die blijven er maar van uitgaan dat onderhoud van software niet nodig is. Toevallig gisteren nog iemand aan de lijn waarom een access database uit 2005 niet werkte op zijn Mac... Dus Windows gebruikers zijn blijkbaar niet de enige :+
Als dit tot gevolg zou hebben dat binnen 1 tot 3 jaar de AppStore alleen nog maar voor ARM uitserveert, kan ik mijn iMac wel in het water kieperen. :(
Ik wil hem wel bij je komen ophalen, als je toch van plan bent hem weg te doen. Dan installeer ik er een ander besturingssysteem op en kan hij er nog jaren mee vooruit.
Voorlopig blijft de iMac gewoon in gebruik. Wellicht over 2 jaar een nieuwe ARM-based iMac :-)
Ik heb net ook de keynote gezien en het was meer als een grap bedoelt, maar een beetje humor moet toch kunnen :).

Verder hoef je dus nergens echt over in te zitten, want alles lijkt vanaf dag één al te werken op de ARM Macs en dat is toch anders dan bij de PPC->Intel transitie. Ik denk dat ze hier al een jaar of 5 aan werken, anders draaide alles nu niet al zo vloeiend.
Niks mooiers dan humor, zo had ik het ook opgevat.

Ach, mijn huidige iMac is 11 jaar oud en doet het nog goed, maar wellicht over 2 jaar toch eens naar een nieuwe omzien
Het is vooral Apple zijn onkunde qua het ontwerpen van laptops op het gebied van koeling waardoor ze heet worden.
Onkunde.... Ja ja. Het zal ook nooit wat worden met dat Apple.
Het is meer dat mensen het blijven accepteren.

FLexgate, Butterfly keyboard problemen etc al vergeten?
Ja, het zijn me een prutsers joh, bij Apple. Niet normaal. Verder is het alleen maar een van de grootste bedrijven ter wereld...

Wake up! Onkunde is echt geen sprake van. Wat ze wel doen, is keuzes maken, die voor een belangrijk deel economisch gedreven zijn.
De reden dat het 1 van de grootste bedrijven is ter wereld is omdat ze een hoop andere zaken wel heel goed doen. Vooral qua software, maar ook op telefoon gebied etc. Eenmaal in een eco systeem accepteer je ook meer. Maar er zijn flink wat ontwerp fouten al voorbij gekomen.
Een leuk voorbeeld is het ontwerp van de eerste timecapsule met interne fan maar geen gaatjes naar buiten....
Anoniem: 315463
@Sn0wblind9 juni 2020 14:55
Apple zijn onkunde qua het ontwerpen van laptops
Hahaha
Cijfers liegen niet, op het gebied van koeling doet de concurrentie het gewoon beter. De verschillen zijn aan te wijzen.

Onderbouw en beargumenteer maar eens waar dit niet uit zou blijken? Ondertussen draait mijn 15inch Macbook pro 15 formaat laptop ten aller tijden onder de 80c terwijl het rond de 200watt aan hitte moet afvoeren vs een Macbook wat rond de 95c met maar 65~90watt aan hitte.

Daarnaast, quote dan ook de gehele zin als je een statement wilt maken.
Je uitspraak over koeling is natuurlijk erg overdreven. Net alsof een mega organisatie als Apple geen laptop (koeling) kan ontwerpen. Dit gehele ontwerp is afgewogen en de beslissingen zijn gemaakt. Apple kiest voor heet maar dun. Liever throtteling dan een lawaaierige fan. Daar kun je het natuurlijk niet mee eens zijn en dat is helemaal prima (koop geen Macbook) maar loop niet te verkondigen dat het 'onkunde' is. Daarmee doe je enkel jezelf af...

Je uitspraak had trouwens net zo ongeloofwaardig geklonken als je het over HP of Dell had... Dit zijn simpelweg designkeuzes.
Je uitspraak over koeling is natuurlijk erg overdreven. Net alsof een mega organisatie als Apple geen laptop (koeling) kan ontwerpen. Dit gehele ontwerp is afgewogen en de beslissingen zijn gemaakt. Apple kiest voor heet maar dun. Liever throtteling dan een lawaaierige fan. Daar kun je het natuurlijk niet mee eens zijn en dat is helemaal prima (koop geen Macbook) maar loop niet te verkondigen dat het 'onkunde' is. Daarmee doe je enkel jezelf af...
Dit is geen excuus voor het niet implementeren van heatpipes bij bijvoorbeeld de Macbook Air. Of de zeer minimale heatsinks binnen de Macbook pro 13. De Macbook pro 16 heeft eigenlijk de koeling dat in de 13 inch zou moeten zitten. De concurrentie heeft fors betere heatsinks en dan hebben wij het nog niet eens over fan noise gehad.

Dat heeft werkelijk waar niks met het ventilator geluid te maken, juist als je de hitte sneller weghaalt van de chip oppervlakte zelf en de hitte verspreid over een grotere heatsink kan je de fans langzamer laten draaien.

De afweging dat Apple maakt is het vertrouwen er op dat Intel CPU's daadwerkelijk niet ten onder gaan aan 95c plus temepraturen. Iets wat een huis, tuin en keuken gebruiker niet snel zal merken.

Macbook Pro 13 koeling (tikt over de 100c aan onder volledige belasting:
https://d3nevzfk7ii3be.cl...i/DICvm4w11sDrZQoF.medium

Dell XPS 13 koeling zit tussen de 85 en 90c onder volledige belasting (en klokt hoger)
https://www.notebookcheck...31946_Copy_df9d24bfa5.jpg

[Reactie gewijzigd door Sn0wblind op 9 juni 2020 15:26]

Fun fact: de duurdere 2020 MBP (met 10th gen Intel CPU) heeft een ander koelingsontwerp dan de basis 2020 MBP. Zie hier: https://youtu.be/jK3AOK8uDJo?t=657

Dat gezegd hebbende heb ik sinds een weekje de MBP met 10th gen Intel CPU en ik schrok er gisteravond van hoe heet dat ding toch wordt terwijl de fans niet aanslaan. Ik weet niet precies hoe het komt, vermoedelijk doordat het ding op m'n schoot lag en hitte daardoor niet goed kwijt kon. Gelukkig wil ik geen kinderen :+
Als de fans niet aanslaan, is dat omdat de CPU nog niet te heet is. Overigens draaiden de fans wellicht wel, maar aan lage snelheid.

De MBPs voeren relatief veel warmte af via de aluminium behuizing, die als een grote heatsink functioneert.
Wat lithium polymer battery packs niet prettig vinden. Deze blijven het liefste onder de 40c en daarboven degraderen deze al langzaam.
Ik weet niet of de LiOn packs in een MacBook gemakkelijk boven de 40 graden komen. Ik heb dat nooit gemeten, jij wel?

Ik ervaar alleen dat de packs best lang meegaan, min of volgens het door Apple gegarandeerd aantal cyclus vs capaciteit. Apple garandeert overigens veel meer cycli dan bvb Dell recent op zijn XPS 13...
Helaas is battery bloat een issue die je ook ziet bij Macbook Pro's.
https://i.redd.it/wu83vw791g341.jpg

Batterby bloat is prominenter aanwezig in laptops die zeer warm/heet worden.

De top case van mijn Macbook pro van 2 jaar oud wordt bij belasting zo'n 47 graden als ik de portable FVIR camera moet geloven aan de bovenkant van het keyboard deck. Dit is aan de buitenkant dus verwacht dat de binnenkant warmer is. Al heeft Apple de batterijen in het algemeen wel goed op orde. Denk dat je hier vooral als power user sneller tegen aanloopt dan een huis, tuin en keuken gebruiker.
De behuizing van een MacBook wordt het heetst bovenaan het keyboard, ergens in het midden. Dat is niet waar de batterijen zitten.

Ik wil maar zeggen: je maakt veronderstellingen, maar niet meer dan dat.
Je kan ervanuit gaan dat het in de behuizing warmer is dan erbuiten. Dat is gewoon logisch. Een aantal van de batterij cellen zitten maar 5cm van het heetste component af en nemen 2/3de van de gehele behuizing in. Het midden van de behuizing volgens een FLIR is alsnog 44c aan de buitenkant.
Beide hebben helaas de single fan enkele heatpipe oplossing. Denk dat het niet veel uit maakt of de laptop je schoot ligt of niet met die 2 hele dunne sleuven aan de zijkant voor airflow. In linus tech tips hun review in een airconditioning gekoelde kamer zagen de laptop over de 100c gaan. Iets wat uniek is want normaal gesproken zouden BD Prochot in werking moeten treden om de boel terug te klokken om de temperatuur te laten zakken.
Het klinkt alsof jij er een stuk meer van weet dan ik, maar in het videootje zie je toch duidelijk 2 fans bij het duurdere model? Ik wist trouwens niet dat Linus de 2020 MBP al op zo'n manier getest heeft.

(Officieel zegt Apple trouwens wel dat de MBP op een vlakke ondergrond moet liggen, en niet in op bank/bed etc. Al zal dat ook wel een soort "stop je puppie niet in de magnetron"-indekverhaal zijn.)
Sorry ik keek het filmpje niet lang genoeg. Deze lijkt inderdaad al 2 fans te hebben. Dan nog meer bizar dat zij dit model tot over de 100c laten lopen. Ifixit linked het verkeerde model onder het type nummer van de 10th gen Intel CPU's blijkbaar.

https://youtu.be/sJkIVg0upJ4?t=375

[Reactie gewijzigd door Sn0wblind op 9 juni 2020 16:28]

Waar ik op doel is dat ze helemaal geen excuus nodig hoeven te hebben. Waar ben je precies op uit? Dat Apple persoonlijk bij jou thuis langskomt om sorry te zeggen?

Zij maken design keuzes en blijkbaar vinden Apple gebruikers dat prima. Laat iedereen gewoon lekker zijn eigen gang gaan. Niemand hoeft Apple laptops te kopen dus waarom wordt je er gefrustreerd over?
Dat is jouw gedachte dat ik er gefrustreerd over raak? Ik informeer alleen maar dat de heet wordende Macbooks niet door de CPU architectuur komen maar door de zeer minimale koeling versus de concurrentie. Jij beweerd dat dit niet het geval is. Alleen wat ik neerzet is geen mening maar een objectief feit. De concurrentie in dezelfde prijsklassen worden minder heet en hebben betere koeling. Prima als jij een 100c hete CPU in jouw laptop wilt.

Naast dat je onzin verkondigd dat het allemaal vanwege het fan geluid zou zijn. Alleen zijn Macbooks al lang niet meer zo stil als dat sommigen hier beweren.
Maar goed, ik heb zelf al jaren zo'n ding en er is gewoon niets aan mis. Andere Mac gebruikers heb ik ook nog nooit gehoord over de problemen die je noemt. Net als dat ik nog nooit een kromme iPhone (bendgate) heb gezien. Het tegendeel zelfs, de meeste mensen zijn uitermate tevreden over hun Apple apparaat. Zie ook: https://www.laptopmag.com/articles/tech-support-showdown

Nu zeg ik niet dat die dingen niet bestaan maar alles wat veel verkocht wordt heeft zijn maandagmorgen modellen. Dat wil niet zeggen dat het een standaard probleem is of feit maar slechts een mooie kop boven een sensatie artikel. Net zoals dat zo is met ieder Tesla artikel. Ik kan je ook wel vertellen over mijn Dell XPS zonder problemen. Maar als je het internet gelooft, hebben die dingen alleen maar falende drivers en Wifi modules die 'plots' uit apparaatbeheer verdwijnen..

Naar mijn mening dus allemaal storm in een glas water.
Ik werk ondertussen gewoon verder op een falend toetsenbord zonder scherm input met een degraderend scherm... en mijn CPU is uiteraard 100 graden want het systeem is altijd 100% belast...

[Reactie gewijzigd door dycell op 9 juni 2020 17:53]

Class action lawsuits om zo garantie te forceren betreft design fouten vertellen gewoon een ander verhaal en dat heeft niks met maandag morgen machines te maken.

Dat laptopmag artikel zegt niks, het voldeed alleen aan een test van Laptopmag wat niks met duurzaamheid en tevredenheid betreft producten te maken heeft. Alleen of zij voldeden aan de mogelijkheden tot het stellen van vragen bij deze merken.

Razer is nou juist 1 van de zwaksten op de markt wanneer het tot after sales service support komt. Staat op 1 in de lijst van Laptopmag :D
Welke Class action lawsuits? Verzin je dit nu gewoon allemaal? Vul anders het wikipedia artikel even aan met je claims: https://en.wikipedia.org/...on#Consumer_class_actions

Over bronnen gesproken, je doet heel veel uitspraken maar heb nog nergens bewijs gepost van je claims. Ik kijk uit naar gegrond bewijs waaruit blijkt dat Apple fouten heeft gemaakt met het macbook design. Een design wat al 10? jaar oud is...

Als we het verder over ratings hebben:
https://www.macrumors.com...19-customer-satisfaction/.
https://appleinsider.com/...-in-consumer-satisfaction
To create its scoring system and compile device scores, the ACSI uses data from interviews with approximately 300,000 customers to analyze customer satisfaction with hundreds of companies across dozens of industries.
Of
https://www.statista.com/...ustomer-service-of-apple/
Dat je het met Google kan vinden maakt het nog geen feit. De artikelen die je linkt zijn echter vrij duidelijk: Dit zijn aanklachten, geen veroordelingen. Volgens mij leven we in een samenleving waar iemand niet schuldig is tot deze is veroordeeld. Een aanklacht is ook helemaal geen bewijs dat er design fouten zijn. Dan zouden alle grote bedrijven geen enkel groot product meer hebben zonder 'design fout'. Productie fouten komen tevens bij iedere leverancier voor. Dell, HP, Microsoft, ga zo maar door.

Een aantal modellen met een slecht onderdeel? Mogelijk. Maar dat maakt het echt geen design fout.
Denk je dat ze per ongeluk een butterfly toetsenbord erin stoppen? Dit zijn gewoon defecte onderdelen. Misschien zijn het maar 1000 laptops met problemen op een verkoop van miljoenen..

Daarnaast zijn deze klachten ook gratis gerepareerd door Apple:
https://www.theverge.com/...cbook-pro-apple-announced
https://www.zdnet.com/art...eshes-macbook-pro-lineup/

Dus bewijs voor een designfout is het zeker niet en kom ik weer terug op mijn originele uitspraak:
Zij maken designkeuzes en blijkbaar vinden Apple gebruikers dat prima. Laat iedereen gewoon lekker zijn eigen gang gaan. Niemand hoeft Apple laptops te kopen maar op een of andere manier vinden sommige mensen het geweldig om er over te klagen.

Als de apparaten echt zo slecht waren als je voordoet en vol 'design fouten' zaten of zelfs vol defecte onderdelen dan zou niemand deze apparaten aanschaffen. Iets dat niet het geval is want miljoenen worden er ieder kwartaal verkocht.
Die klachten zijn uiteindelijk aangepakt na het indienen van deze class action lawsuits. Jij draait de zaken om en jij probeert iets goeds te praten. Dat zij na garantie toch over gaan tot reparatie is toegeven dat het design fouten waren. Of vindt jij het normaal dat jouw schermen langzaam per sectie uitvalt omdat je flex kabel kapot gaat bij het normaal openen en sluiten van je laptop? Of vind jij het normaal dat je keyboard binnen een jaar een aantal niet meer werkende toetsen heeft is omdat Apple een gaar mechaniek gebruiken?

Het butterfly mechaniek probleem was trouwens enorm. Hier binnen een kantoor van 120 macbooks op 1 locatie heeft meer dan 80% 1 of meerdere knoppen di eniet goed werken vanwege het butterfly mechaniek. Granted, deze machines worden vaak wel warmer dan bij de gemiddelde consument. Maar het pro label hangt er aan. Zo wordt deze ook door een grote groep mensen gebruikt.

Zoals ik al aangaf, het ecosysteem is nou eenmaal een goed middel voor het gijzelen van gebruikers.

Ohja de lawsuits zijn nog in progress.

[Reactie gewijzigd door Sn0wblind op 10 juni 2020 10:20]

Nou, we komen hier in ieder geval niet uit. Jij ziet alleen maar problemen maar levert geen bewijs anders dan ‘kijk mensen op het internet eens klagen’ en ik ken niemand die echt problemen heeft (wat natuurlijk ook geen bewijs is). Tijd zal het leren maar ik geef je een tip mee: je hoort veel geklaag maar neem het maar met een korrel zout. Er zijn genoeg Apple gebruikers die niets te klagen hebben en hartstikke tevreden zijn.
Dus die class action lawsuits die aan de gang en verlengingen van garanties is voor jou niet genoeg signaal dat er wel meer aan de hand is? Misschien moet je eens verder googlen want het is bijvoorbeeld vaak toch echt haarfijn geanalyseerd wat er scheelt aan de machines.

Mijn woord hoef je er niet voor aan te nemen, maar steek er de volgende keer wat meer moeite in om zerlf ook wat te leren betreft deze issues.

Flexgate probleem
https://www.youtube.com/watch?v=iLALpD004Gk

En het ervolg wat Apple er stilletjes mee gedaan heeft en wat nog niet.
https://www.youtube.com/watch?v=aihRru-lCns

[Reactie gewijzigd door Sn0wblind op 11 juni 2020 00:31]

Cijfers liegen niet, op het gebied van koeling doet de concurrentie het gewoon beter. De verschillen zijn aan te wijzen.
Maar wat betekenen de verschillen? Kun jij dat eens onderbouwen?
Ondertussen draait mijn 15inch Macbook pro 15 formaat laptop ten aller tijden onder de 80c terwijl het rond de 200watt aan hitte moet afvoeren vs een Macbook wat rond de 95c met maar 65~90watt aan hitte.
Onderbouw en argumenteer maar eerst eens waarom dat een probleem is en op welke temperaturen er dan gewerkt moeten worden. M.a.w. waar ligt de grens en waarom ligt de grens nou juist daar en niet elders?

Misschien dat het dan ook eens handig is om te kijken naar de hardware en de doelgroep van de machines. Een MacBook diende een heel ander publiek dan dat van een MacBook Pro. De processor was daar dan ook op afgestemd: deze was meer gericht op burst workloads dan op een continue workload (waar je bij laptops sowieso mee moet oppassen, desktops zijn hier beter in). Komt de grens die jij voor ogen hebt dan nog wel overeen met die workload en doelgroep?

Dat is dan ook waar ik, als dit gerucht waar blijkt te zijn, benieuwd naar ben: in welke Mac komt het en wat is de doelgroep daarvan? Krijgen we dan weer een MacBook gericht op mensen die onderweg wat snelle, korte taken willen doen?
Maar wat betekenen de verschillen? Kun jij dat eens onderbouwen?
Grotere heatsink betekent betere koeling, grotere heatsinks betekenen dat er meer warmte opgenomen kan worden en dat het langer duurt om de heatsink te verzadigen. Dit houdt in dat daardoor de fans minder hard hoeven te draaien omdat de warmte beter verspreid wordt. Vapor chamber koel oplossingen zoals in de Blade 15, XPS17 zijn superieur aan het opzuigen van hitte van het chip oppervlakte dan een enkele heatpipe.

Last but not least, Macbooks hebben relatief weinig ventilatie gaten dus moeten de fans harder werken om dezelfde hoeveelheid airflow te generen (en het veroorzaakt een negatieve airpressure wat dus meer stof aantrekt).
Misschien dat het dan ook eens handig is om te kijken naar de hardware en de doelgroep van de machines. Een MacBook diende een heel ander publiek dan dat van een MacBook Pro. De processor was daar dan ook op afgestemd: deze was meer gericht op burst workloads dan op een continue workload (waar je bij laptops sowieso mee moet oppassen, desktops zijn hier beter in). Komt de grens die jij voor ogen hebt dan nog wel overeen met die workload en doelgroep?
Ook de Macbook pro 13 tikt 100c en meer aan onder belasting. Dat heeft niks met de doelgroep te maken. Andere laptops in dezelfde prijsklasse doen dit niet. Er zijn meer dan voldoende laptops die dit 24/7 kunnen en hetzelfde formaat hebben. Heb er een aantal van op mijn bureau staan.
Ook de Macbook pro 13 tikt 100c en meer aan onder belasting.
Ja en dus? Wat houdt die 100c in en wat heet "onder belasting"? Moet ik de brandweer bellen als ik zo'n temperatuur meet of is de EOD meer op zijn plaats of betekent het alleen maar dat ie 5 jaar ipv 6 jaar mee gaat?

Oftewel, je hebt de vraag totaal niet beantwoord. Nogmaals, kun je aangeven waar de grens ligt en waarom die daar ligt en niet elders?

Er is aardig wat informatie over hoe warm elektronica moet zijn om goed zijn werk te kunnen doen. Er zijn min en max temperaturen waarbinnen je elektronica moet hebben omdat het anders problemen gaat geven. Die info mis ik in je reactie.
Die 100 graden houdt in dat componenten om de CPU heen te warm worden en dus degraderen, je accu heter wordt en sneller degradeerd, de CPU zelf degradeerd, dat de CPU niet altijd volledig kan boosten.

Intels max Tjunction temp ligt op 100c voor de 10th gen Core i7's. Apple gaat hier dus overheen zonder nog terug te klokken https://ark.intel.com/con...cache-up-to-3-80-ghz.html.

Aangeraden wordt om onder de 90c te blijven op de lange termijn. Vaak stellen fabriekanten 95c als limiet voor terugklokken.
De enige cijfers die iets zinnigs zeggen over de efficiëntie van koeling zijn prestaties bij maximale load.

Of een processor aan x of y graden draait, heeft in de eerste plaats te maken met de afstelling van de koeling.

Apple kiest ervoor de ventilatoren zo onhoorbaar mogelijk te houden, en dat is wat mij betreft een uitstekende keus. Niets ergerlijkers dan een laptop waarvan de ventilatoren al hoorbaar gaan blazen omdat je in Word zit te typen en de fabrikant de cpu onder de 60 graden wil houden, dat laatste ergert alleen de mensen die ipv te werken op hun laptop, de temperaturen van hun cores monitoren :).
Alleen zijn in de praktijk de fans onde rbelasting niet onhoorbaar, en gaan ze relatief snel aan vnawege de kleine heatsinks. Zelfs in browser based webapps zoals Figma beginnen 13inch Macbooks aardig snel op te stijgen.

De meeste laptops zitten bij lage belasting rond de 45 graden en dan gaan de fans ook niet aan. Ook niet bij Word gebruik.
Ik werk dagelijks op zowel Windows-based laptops (Dell of Hp) als op MacBook (Pro). Ik hoor veel vaker de fans op een Windows laptop. Op mijn MacBook Pro moet ik zoiets als batch fotobewerking of export doen om de fans hoorbaar te maken.

Overigens zegt “browserbased” niet zoveel, ook in een browser kan je dingen laten draaien die een CPU flink belasten, maar dat terzijde.
Klopt, maar Figma is niet zo zwaar als laten we zeggen een WebGL based website zoals die van Active Theory.

Ik vind Mijn Macbook vrij luid (en die van anderen) versus mijn persoonlijke laptops.
Lenovo. Kijk maar eens op Thinkpad fora. Lenovo wordt daar al jarenlang afgezeken omdat ze de layout van de toetsenborden steeds om lijken te gooien of omdat de kwaliteit niet meer is wat het geweest was. Ik denk dat bijna iedere laptopfabrikant (en dus niet leverancier) wel zulke verhalen kent. Het is iets wat heel vaak in reviews naar voren komt. Toetsenborden zijn vrij persoonlijk en aangezien je een toetsenbord op een laptop niet zo eventjes veranderd is het ook niet zo raar dat hier zoveel over wordt geklaagd.
Of zou het komen dat Intel al jaren niet aan het innoveren was door amper concurrentie vanuit AMD?
Het lijkt inderdaad op een herhaling van de AIM breakup (https://en.wikipedia.org/wiki/PowerPC#Breakup_of_AIM).
IBM Power PC's chip is RISC, ze kregen die ook op 5GHz, maar het ding gaf zoveel warmte, dat het een keramische tegel was. Vermoedelijk is het argument warmteontwikkeling en verschil tussen RISC en CISC niet waar. Sowieso is het verschil tussen RISC en CISC (in termen van aantal instructies) niet zo groot als 'in the very early beginning'. Ik vraag me af of de R nog echt voor Reduced staat.
Het is niet meer waar. Toen processors nog amper cache hadden en maar 1 ALU, was de instructiedecoder relatief groot. Met RISC was je daar goeddeels vanaf.
Verder had je bij CISC bij de 68000-familie erg gecompliceerde addressing modes en instructies met meerdere RAM-adressen. Daar kan je excepties in krijgen, en de logica om dat zo nodig terug te draaien is ook enorm.
RISC gebruikt meestal load/store naar een register, en alle bewerkingen gaan op de registers.
Intel had het geluk dat ze in ieder geval niet de moeilijkste addressing modes ondersteunen. Je zou kunnen zeggen: uit klungeligheid was het toevallig al een beetje RISC.
(Want Intel dan heel erg slecht deed was virtualiseerbaarheid. De 68000 kende dat concept wel, met een echte supervisor mode. Bij Intel was virtualisatie echt een 'hack', totdat ze met extensies kwamen.)
Dat is wel ironisch, aangezien hitte ontwikkeling volgens mij de main reason was dat ze van PPC naar x86 gingen.
Hoezo is dat ironisch? Ze gaan toch niet terug naar PPC?
Ik reageerde op dit gedeelte van ThomasG:
Wat Apple vooral met ARM processoren wilt bereiken is dezelfde prestaties met minder hitte ontwikkeling, en het liefst natuurlijk betere prestaties. Aangezien ARM een RISC architectuur is, en daardoor minder transistoren heeft, zou je in theorie minder hitte hebben bij dezelfde prestaties.
Oftewel, ze switchen weer vanwege hitteontwikkeling.
Nee maar wel van CISC terug naar RISC. Ik denk dat we we kunnen concluderen dat het CISC vs RISC verhaal niet de primaire reden is hiervoor. Ik denk dat Apple voordeel wil halen uit het zelf beheren van de volledige keten - dat heeft ze op iOS ook geen windeieren gelegd en ze lopen mobiel al jaren voorop qua SoC performance.
Hoezo ironisch? Als PPC nog heter werd dan Intel is dat toch niet zo ironisch? In die tijd +/- 10 jaar geleden(?) waren ARM processors niet zo snel als nu en dus moest je roeien met de riemen die je hebt. Als Intel op dat moment de juiste kaarten heeft ga je met Intel in zee en als leverancier na X jaar beter is dan ga je met die partij in zee.

Dat is niet ironisch maar gewoon logisch.
Was er 14 jaar geleden al W10 for ARM? De adoptie van PPC was bagger te noemen en Apple had heel veel baad bij de overstap naar x86/x64 Intel CPUs. Nu kunnen ze dus veel makkelijker een stap maken naar wat anders, zelfs MS is er al mee bezig en de hele Linux movement is er al heel lang mee bezig. Er is nu ook veel meer hardware beschikbaar om daar wat mee te doen. Daarnaast zit het meeste al op een niet Intel/AMD platform, namelijk smartphone/tablet.
intel is al sinds de pentium twee al van cisc af
(a) Modern x86 processors (since Pentium II) are not actually CISC, they translate everything to a series of RISC micro-ops internally. x86 is just a convenient "meta-language" so that you don't have to recompile everything every time the implementation changes/don't end up with 20 variations on a similar instruction set like ARM (except AVX512 lol, that's a mess).
https://www.reddit.com/r/...ents/9l3q85/risc_vs_cisc/

[Reactie gewijzigd door solozakdoekje op 9 juni 2020 14:42]

misschien dat apple een ARM versie er naast laten bestaan, maar ze zouden zich in hun voeten schieten als alles overhoop halen door ineens niet meer gebruik te maken van de meest krachtigste processors, denk aan de i7 en i9, van deze wereld die zijn nog krachtiger.

Apple zal heus wel eens een keer een laptop uit brengen met ARM processor, maar echt niet een complete line met alleen maar ARM laptopts, zullen misschien een 13 inch uit de voeten brengen, deze gaat er langs bestaan, langs de line-up van apple met intel processoren.

daarnaast hoe gaan ze de instructie sets opvangen, zoals SS1 SS2 SS3 SS4, allemaal veel krachtiger dan die chips van apple, en hoe ga je dit aan je aandeel houders verkopen ?

[Reactie gewijzigd door solozakdoekje op 9 juni 2020 15:00]

ARM heeft nu ook al SIMD instructies, weliswaar voor zover ik weet beperkt tot 128 bits in NEON op dit moment. Maar als je even zoekt zijn ze ook bezig met nieuwe vector instructies die meer kunnen https://community.arm.com...-the-armv8-a-architecture

Of dat vergelijkbaar zal zijn met SSE of AVX gaan we zien
antwoord: (nu) Nee.

Op het moment dat ARM hetzelfde gaat doen als AMD/Intel lopen ze tegen dezelfde problemen aan. Als ze hetzelfde probleem krijgen (hitte) is er geen enkel argument om over te stappen naar de ARM architectuur. dan zijn er alleen maar nadelen voor toepassingen. (Zelfde performance, zelfde hitte, zelfde verbruik, zelfde kosten en dan ook nog heel je codebase omkatten? waarom? zodat je hetzelfde hebt? das geld weggooien.)

ARM is populair omdat het goed is voor generieke taken bij een zeer laag verbruik. dat is het selling point, dat is de markt. er is (nog) geen vraag naar ultra high performance ARM cores. Nog niet.

AMD/Intel (amd64) selling point is absolute performance, cost be damned. compleet andere toepassing, andere markt.

Natuurlijk, uiteindelijk zal de markt 1 architectuur kiezen, net zoals amd64 alle andere smaken heeft kunnen verdringen, zo zal amd64 waarschijnlijk uiteindelijk ook verdwijnen. Maar nu nog niet. Amd64 IS het huidige datacenter omdat ARM het gewoon (nog) niet kan. ARM compute is beschikbaar maar is weinig populair. code problemen, performance problemen, etc. etc.

leuk om te lezen https://www.phoronix.com/...aviton2-benchmarks&num=12
(het hele artikel is heel interessant, niet alleen deze laatste pagina ;-)
Hier zie je dat de Gravition2, custom build voor AWS, dus niet geschikt voor desktop werk, zeer interessant kan zijn in specifieke use cases. Performance per dollar is top.
Tegelijkertijd zie je in de bare metal tests dat zowel Epyc als Xeon veel sneller zijn. En ook in deze test loopt men weer tegen optimalisatie gedoe aan; niet alle code is goed geport naar ARM.
De vorige switch (van IBM chips naar Intel) hebben ze ook binnen een jaar voor alle apparaten uitgevoerd. Van iMac, Macbook, Mac Pro tot destijds nog Xserve zat binnen 12 maanden op een intel chip. En binnen 3 OS versies was de volledige legacy support verdwenen.
Dat was dan ook een stap naar CPU’s met dezelfde of meer kracht
In het kort, ARM processoren kunnen erg snel zijn maar worden meestal gehinderd door eenvoudige dingen zoals bus bandbreedte. Een RPi of zeg een Odroid lijken snel (voor wat je ervoor betaald dan wel), maar de geheugenbus is brandhout, van vroeger zelfs een 16 tot nu dacht ik 32 bits. De Intels zijn vooral zo snel vanwege een relatief idioot grote 128/256/512 bits geheugen bus waardoor een cache lijn inlezen best snel gaat. En grote caches natuurlijk. Dat heeft weinig met de cpu architectuur zelf te maken.
Waar baseer je dat op? Daar hebben ze echt geen andere architectuur voor nodig als ze dat echt willen.
Ik wil best wat zeggen, maar gaat niet echt. Ik zei dit 3 jaar terug al op mn werk, ivm bepaalde updates in macos. Ik begrijp dat het niet 100% nodig is om dan over te stappen op een andere architectuur, maar past wel bij die strategie van "iedereen in keurslijf krijgen" die een apple wil. Dat er windows kan draaien op een mac en dat je macos kan draaien op een hackintosh zit apple vast wel in de weg hier. Gebaseerd op het aantal mensen dat ik heb gezien met windows op hun mac, danwel die standaard in een virtual machine windows apps draaien, weet ik ook niet of alle mac fans hier echt blij van worden.

Ik ben zelf geen apple gebruiker, nee. Ik heb niks tegen apples, maar ze zijn elk jaar een stukje minder compatible met mij. Is niet erg, maar deze move zie ik echt al jaren aankomen. Ik zie ook niet echt hoe het gebrekkige bij intel kwa procedé dit veroorzaakt dus.

Bovendien is er de ipad pro, die min of meer (in mijn ogen) een voorbeeld aan het worden is van een macbook op arm. Incompatible met echte laptop software, een niet universele usb-c, maar wel verkopen als een ding voor de prijs van een dure laptop en de functionaliteit van een laptop (wat het niet heeft).
Welke stap hebben ze genomen in 2006 waardoor het goed heeft uitgepakt?

Ik vraag me af of Intel en eventueel hun aandeelhouders het gaan voelen in de financiën.
Welke stap hebben ze genomen in 2006 waardoor het goed heeft uitgepakt?
Var PowerPC naar Intel. Ik dacht dat iedereen in de techwereld dat wel wist :P
Dat van PowerPC wist ik wel :P Apple had toen van die aparte monitor-pc, ook nog eens in mooie doorzichtige vrolijke kleuren hahaha. Apple werd pas populair dankzij de iPhone in 2007.
iPods ergens in 2000 heeft ze populair gemaakt weer. En dan te bedenken dat je in 1996 de appel aandelen voor nog geen 10 gulden kon kopen. Voor de injectie van Microsoft van 169 miljoen dollar.
Welke stap hebben ze genomen in 2006 waardoor het goed heeft uitgepakt?
In 2006 is Apple geswitcht van PowerPC naar Intel.
Switch naar Intel gezien de grootte en waarde van Apple kan je concluderen dat hun strategie (ook door andere zaken) goed heeft uitgepakt.
Gedurfde stap van Apple als ze dit gaan doen (in 2006 heeft erg goed uitgepakt)
Dat was wel minder risicovol, aangezien ze vanaf toen dualboot met bootcamp mogelijk maakten.
Zo konden ze mensen verleiden die een Mac wilden, maar (occasioneel) toch Windows software nodig hadden.
Nu valt dat voordeel waarschijnlijk weg(al zijn er nu veel online software programma's waarbij OS niet uitmaakt en is virtualisatie performanter dan in 2006), waardoor dit waarschijnlijk minder problematisch is.
Anoniem: 84766
@Stroper9 juni 2020 14:43
Vrijwel alle applicaties voor de Mac maken gebruik van native Apple SDK libraries, zoals AppKit. Dit betekent dat in het beste geval een hercompilatie alles is dat nodig is voor een applicatie.
Dat valt heel erg tegen als je het over bedrijfsapplicaties hebt, zoals de Adobe applicaties, MS Office, programma's in de gezondheidszorg, etc.

Mijn gok is dat als ze over gaan, ze hun ecosysteem gaan fragmenteren, net als Microsoft met Windows RT deed (alleen dan hebben ze wel een degelijk percentage wat beiden kan i.t.t. Windows RT, en zonder meteen het slot erop te gooien waardoor je niet goed programma's om kan zetten). En mensen die professioneel gebruik maken van MacOS nog niet zo snel omgaan.

Ook omdat ik niet zo snel een Mac Pro met ARM chip uit zie komen. We hebben wel wat echt krachtige ARM chips in de serverwereld, maar die zijn vooral gebouwd op ridicule aantallen cores voor o.a. webhosting, en dus maar beperkt geschikt voor videobewerking e.d.
Alle zaken die jij noemt zullen ze bij Apple in de eerste orienterende meeting over deze stap al op het whiteboard hebben gekalkt. Ze zijn niet gek in Cupertino. Het bedrijf bestaat al langer dan de meeste mensen op dit forum.
Dat zeker. Microsoft had er ook zeer zeker over na gedacht, toen ze Windows RT uitbrachten, en heeft uiteindelijk binnen Windows 10 emulatie geïmplementeerd bij de ARM-tak, maar kan niet 64-bits emuleren waardoor dit niet haalbaar is, waardoor het enkel voor casual gebruik geschikt is. Resultaat is heel weinig verkopen voor ARM-producten met Windows.

Dat er over nagedacht is is prima, maar wil zeker niet zeggen dat het geen flop wordt. Nu heeft Apple wel vaker concepten die eerst door MS onsuccesvol geprobeerd waren succesvol uitgevoerd, maar eerst maar eens zien.
Waarom kunnen ze eigenlijk geen 64-bit emuleren?
Het kan wel, het is simpelweg lastiger. Ik refereerde naar dat Windows 10 het niet kan.

AMD64 is een modernere en lastigere instructieset dan x86. Om dit met lage overhead te emuleren is lastig. Maar het komt er wel aan, i.i.g. op Windows, zie dit artikel op Tweakers.

Ook was er mogelijk weinig vraag naar, omdat de eerste Windows 10 op ARM apparaten toch niet zo krachtig waren, en programma's pas echt baat hebben bij 64-bits als ze meer dan 3GB ram aan willen spreken. Omdat het besturingssysteem zelf wel 64-bits is, kan de computer wel meer dan 3GB ram hebben.

Of de prestaties enigszins acceptabel zijn als dit straks geïmplementeerd is gaan we dan zien.
Anoniem: 84766
@Niet Henk9 juni 2020 15:28
Het zou mij niets verbazen als MS en Adobe al op de hoogte zijn of een hint is gegeven een paar jaar geleden. Beide bedrijven hebben al veel effort gestoken om hun software meer platform en hardware onafhankelijk te maken.

Wat betreft programma's in de gezondheidszorg, dat weet ik niet.

Maar voor veel professioneel gebruik zie ik nog wat obstakels. Kijk naar virtualisatie software als Parallels en Windows. Maar ook zaken als Docker voor developers, alhoewel ik dat wel zie komen.
Virtualisatie is weliswaar performanter, maar of dat geldt voor x86 op ARM? QEMU zou ik nu ook weer niet het snelste programma willen noemen.
Ik denk dat MS net aantoont dat je een sterke performance impact zult moeten slikken als je x86 op arm wenst te draaien. Ze slagen er niet in om dat enorm vlot te doen. Bij de omschakeling van PPC naar x86 ging Apple naar een platform dat veel krachtiger was. Daarnaast was Rosetta ook niet perfect en had het beperkingen. Ik ben dan ook zeer benieuwd hoe het deze keer gaat uitpakken.
Over welke MacBooks heb je het dan? Want zowel de MacBook Air als de MacBook Pro 13-inch hebben configuraties met een 10de gen Intel CPU. Alleen de 16-inch (nog) niet, maar deze gaat waarschijnlijk later dit jaar een refresh krijgen.
De goedkopere versie van de Macbook Pro 13-inch heeft nog de 8ste generatie Intel CPU en maar 2 thunderbolt poorten. Alleen het duurdere model heeft de nieuwe 10de generatie (en 4 thunderbolt poorten)
Blame Intel, zij kunnen de vraag domweg niet aan. Bovendien is de reden om over te stappen ook niet alleen performance. Het is ook energieverbruik, diepere integratie met OS, meer controle over R&D en uitrol. Heeft voor apparaten die Apple's eigen SOC gebruiken niet slecht uitgepakt.
En geld natuurlijk.
Nouja, veel verschillen de 8-, 9 en 10-series CPU's van Intel voor laptops niet echt :) (op een enkele tiende generatie processor na, die daadwerkelijk met een kleiner procedé wordt gebakken)
In 2006 werkte dit omdat PowerPC echt heel fors langzamer was en zij hiermee de architectuur gelijk trokken met het veruit populairste platform namelijk de PC.

Als zij nu naar ARM overstappen is het maar de vraag of developers grootschalig over willen gaan stappen naar een andere architectuur.
Tja, op dit moment heeft Apple natuurlijk een hele grote schare developers achter zich die enkel voor hun platform ontwikkelen: de App Store. Daarnaast moet je dan goede afspraken maken met Microsoft voor Office en met Adobe voor het CS pakket. Maar wanneer je die 2 meekrijgt ga je voor de zakelijke Mac markt al heel veel bezwaren weg nemen. Final Cut en Logic gaat Apple natuurlijk zelf omzetten.

Mocht dan Adobe CS ook nog eens sneller gaan lopen op ARM en beter integreren met bijvoorbeeld de iPad en pencil dan is het hek wel van de dam.
Adobe met izjn creative cloud beweegt op dit moment extreem langzaam. Ik denk niet dat je daar op zou moeten wachten.
Als zij nu naar ARM overstappen is het maar de vraag of developers grootschalig over willen gaan stappen naar een andere architectuur.
En welke keus hebben ontwikkelaars van macOS software als ze willen dat hun spullen op de nieuwste macs lopen en kunnen worden verkocht?

Daarnaast klinkt 'overstappen' als een heel gecompliceerd proces. In essentie is het voor 90%+ van de software een kwestie van een compilervlaggetjes zetten en misschien nog even checken op een moderne mac of het loopt. Alleen voor applicaties die een harde afhankelijkheid hebben op Intel processorfeatures (zeg maar het echt zware rekenwerk) is het een wat lastiger verhaal.
Kan ook een kostendingetje zijn. Nu betaalt Apple aan Intel voor de processoren. Vendor lock-in die niet de goedkoopste is. Als Apple eigen ARM processoren gaat ontwikkelen kunnen ze de productie bij meerdere partijen in de markt uitzetten. Dus (waarschijnlijk) minder afhankelijkheid en lagere kosten.
Of form factor. Nu is een laptop deels een case om de thermal specs van een apu heen.

Dat kan apple dan straks lekker zelf bedenken en richting ipad form factor gaan, of juist de andere kant op.
Je eigen processors maken betekent dat dit van je eigen R&D budget af gaat en je dat dan ook zelf moet terugverdienen. Gebruik maken van componenten van een ander betekent dat je dit probleem niet hebt. Dat kan je in sommige gevallen meer kosten opleveren en in andere gevallen juist heel veel kosten besparen. In dit geval kan Intel de R&D over heel veel verschillende producten (processoren) smeren waarvan ze heel veel verkopen. Die hebben hun R&D budget dan ook veel sneller terugverdiend dan een bedrijf als Apple. Al helemaal omdat Apple het R&D budget ook aan de overige dingen die bijv. in een Mac gaat moet besteden.

Het zal hier eerder een zeggenschapsdingetje zijn. Als je een ander betaald heb je een veel kleinere vinger in de pap dan wanneer je alles zelf doet.
Kan ook een kostendingetje zijn. Nu betaalt Apple aan Intel voor de processoren. Vendor lock-in die niet de goedkoopste is. Als Apple eigen ARM processoren gaat ontwikkelen kunnen ze de productie bij meerdere partijen in de markt uitzetten. Dus (waarschijnlijk) minder afhankelijkheid en lagere kosten.
Er is meer dan 1 partij die fatsoenlijke x86 CPUs maakt. Zeker nu zijn Intel CPUs niet eens meer de beste keuze voor productiviteitstoepassingen. Zo heel hard is die vendor lock-in van Apple dus niet.
Wat een onzin. Ik zou even wat reviews lezen als ik jou was.
Zoals deze:
https://www.cpu-monkey.co...el_xeon_platinum_8180-820

Voor echt werk kijk ik ook niet naar de games, maar hier: https://www.spec.org/gwpg...workstation3_summary.html

[Reactie gewijzigd door Guru Evi op 23 juni 2020 03:25]

Dat is dus zeker geen review.

Lees eens een review van ServeTheHome oid.

https://www.servethehome....me-delivers-a-knockout/9/

Of lees alleen die pagina als het anders te veel moeite is.
Denk dat jij nog over Bulldozer droomt.
Ik heb in 2020 nog nooit zoveel stront gelezen als wat jij nu neerkalkt...
Waar kom jij vandaan???
En jij bent IT manager?
Toch niks bijzonders aan? De nieuwere chips van Intel waren (volgens Apple) het niet waard om eea om te veranderen. Zeer waarschijnlijk door de zeer magere prestatiewinst die dat met zich mee zou brengen.

Kosten - baten verhaaltje.
Mwah... Apple had heel eenvoudig de prestaties van die processoren behoorlijk kunnen verbeteren door simpelweg fatsoenlijke koeling in de laptops te zetten.... De Macbooks met high end processoren presteerden bar slecht, zelfs tot het punt dat je die paar honderd euro net zo goed niet uit kon geven omdat het letterlijk een prestatie-verslechtering opleverde.

Nee, deze stap heeft helemaal niets met prestaties te maken en alles met alles in eigen hand willen houden.
Een MacBook met op papier minder specs presteert nog altijd beter dan mijn duurdere HP laptop.
Onjuist wat mij betreft. Ze hebben júist vaak de nieuwste hardware aan boort, maar omdat ze een release cycle aanhouden die langer is dan concurrenten blijven ze dus langer ‘oudere’ hardware verkopen. Als jij dus later naar hun hardware kijkt, tja, dan zul je ‘oudere’ hardware zien.

Kwestie van perceptie, m.i.
Sowieso, want het blijft (letterlijk) appels met peren vergelijken als je Windows, Linux of macos machines vergelijkt puur op cijfertjes van de hardware, is mijn mening.

Dat ze af en toe wel niet de nieuwste hardware implementeren, dat zullen bewuste keuzes zijn en alhoewel veel mensen (zeker de anti-Apple personen) dan direct klaar staan omdat het een geld kwestie zou zijn, Maar ik Ben altijd geneigd om eerst te denken aan wat voor technische redenen er zouden zijn om het niet te implementeren. En ja, Apple is een commercieel bedrijf, dus er zal vast ook wel een winst gedachte achter zitten. Maar soms is het ook iets anders.

Dat er 2 jaar terug ofzo bijv geen 32GB memory in de nieuwste MacBooks geplaatst kon worden kwam door een chipset/ moederboard probleem, begreep ik. Als ze een ander type waar het wel kon hadden gekozen, dan was er veel meer batterij drain geweest bijv.

De huidige MacBooks ‘missen’ WiFi-6. (Iig de 16 inch). Dat ligt aan de gebruikte andere hardware. Het zal vast wel gekund hebben, maar Apple zal (naast winstbejag) vast wel een bevoorradingsprobleem of hardwarematig probleem zoals battery drain o.i.d. Gezien of gevonden hebben. Dingen die wij niet weten, omdat wij niet in hun productie proces gekend zijn.

Het kan dus puur om de te behalen winst Gegaan zijn, maar ook door hardware problemen ontstaan zijn.

Ik kijk naar hoe mijn beleving van een apparaat gaat en minder naar de cijfertjes. Maar m.i. Is het onjuist dat Apple hardware op de markt slingert die bij introductie veroudert is.
Ze hebben toch 2 maanden geleden de 13" mbp uitgebracht met een 8th gen i5? Terwijl je kan upgraden naar een 10th gen. In precies dezelfde laptop.

Of was de 8th gen een oud model?
Niet helemaal waar wat je hier zegt. Er zijn inderdaad meerdere varianten beschikbaar, maar de meest uitgebreide heeft wel de 10e generatie chip! :-)
Ik dacht altijd dat deze overstap uiteindelijk zou komen omdat Apple hun eigen ARM CPU's designed en dus dan niet meer van een supplier als Intel afhankelijk zou zijn.

En niet zozeer dat het met roadmaps/performance increases per jaar te maken zou hebben?
Maar als de prestatiewinsten uitblijven is het ook niet nodig om duurdere chips in je hardware te steken. Dat is net het punt. Als de prestatiewinsten wel naar omhoog schieten is het ook logischer om sneller je toestellen te refreshen.
Denk naast wat @faim al zei dat een mogelijke oorzaak hier ook van is dat er gewoon niet zo gek veel winst zit in de nieuwe Intel releases, zie b.v. het verschil in performance van de huidige mbp 13 inch met 8th of 10th gen cpu.
Grappig, ik lees het juist andersom: de reden dat de nieuwe Macbooks met 'oude' processors worden uitgerust is omdat de nieuwe processoren niet voldoende prestatiewinst laten zien. Met andere woorden, waarom 'the bleeding edge' implementeren als je er weinig mee op schiet.
De rede dat ze niet de laatste generatie processoren gebruiken schijnt vooral te maken te hebben met tegenvallende snelheidswinst in de nieuwe generaties. Dan gebruiken ze liever de oude die bijna net zo snel zijn, en kunnen ze de prijs een beetje drukken.

OT: ik ben erg benieuwd naar deze ARM chips. Het zou zomaar kunnen dat ik erop wacht om m'n macbook pro uit 2011 te vervangen waar ik nu nog steeds op type ;) Hopen dat het niet te lang duurt.
Bijzondere reden aangezien de nieuwe Macbooks nu ook niet altijd met de laatste processor generaties wordt geleverd. Zou denken dat performance dan niet de reden is.
Performance/watt, denk ik vooral.
Ben ik de enige die hier misschien een beetje bang voor is? Wellicht is het gewoon een voorgevoel wat nergens op slaat, maar ik zou zeggen dat ARM-socs goed zijn voor zuinigheid en niet perse fantastisch zijn voor de x86-instructies. Als je kijkt naar Microsoft met de introductie van ARM op windows, daar draait ook niet alles even vloeiend.

Dat zou dan willen zeggen dat als een ontwikkelaar zijn programma niet omzet naar ARM-code je een probleem hebt?
Bang? Niet echt... dit zie je toch wel aankomen?

Apple heeft altijd ingezet op exclusiviteit en walled gardens, dus vroeg of laat gaat dit ook naar de desktop komen. Als toevallig ook alle x86 software stopt met werken, tenzij dat via hun Software Center wordt verspreid, sluit prima aan bij de verwachtingen.
Ik vind het opmerkelijk waarom er altijd geschermd wordt met dat Apple inzet op "walled gardens".

Op iOS, iPadOS en TvOS is dat zeker een punt, maar Apple heeft door de jaren heen veel zaken versoepeld. Je kunt op je iPhone tegenwoordig ook third party apps installeren buiten de Appstore en het gebruik van restrictieve APIs zoals NFC is ook versoepeld. Op Android heb je meer vrijheid, maar zul je voor de echt ingrijpende zaken ook moeten rooten. Ik zie daar niet zo heel veel verschil met jailbreaken.

Even terugkomend op MacOS dan, want daar gaat het hier over. Er is helemaal geen sprake van een "walled garden" op MacOS. Je hebt verregaande controle over je Mac. Volledige root rechten op administrator accounts. Je kunt je eigen kernel modules bouwen en inladen. File protection kun je uitschakelen als je wil en dan kun je elke systeemfile aanpassen. Software kun je gewoon buiten de Appstore installeren, Apple houdt je daarin niet tegen. Ja, je krijgt wat waarschuwingen als je applicatie niet het juiste signing certificaat heeft, maar je kunt de software gewoon installeren. Dat is eerder een veiligheidskwestie dan een moedwillig opgelegde restrictie door Apple. En als je MacOS zat bent, dan installeer je Windows of Linux op je Mac. Apple legt je geen strobreed in de weg. MacBooks kun je tegenwoordig laden met elke fatsoenlijke USB3 PD lader en er bestaan duizenden accessoires die niet door Apple gemaakt zijn, maar wel prima werken. En zo kan ik nog wel even door gaan...

Je kunt je vraagtekens zetten bij veel dingen die Apple doet. Hun prijsstelling, hun keuze voor de repareerbaarheid van hun hardware, het weren van generieke niet-Apple vervangonderdelen of het vastsolderen van geheugen en storage. Maar het hele "walled garden" argument vind ik persoonlijk erg zwak. Ja, er is in zekere zin sprake van een walled garden, maar die van Apple is lang niet zo erg als het altijd wordt voorgespiegeld. Alle grote vendors doen aan walled gardens, met Google voorop.
Apple is bezig om ervoor te zorgen dat steeds meer onderdelen gesigned moeten worden, dat begon met de drivers (waardoor je bijvoorbeeld geen recente nvidia kaarten meer kunt gebruiken op MacOS versies hoger dan High Sierra: Apple staat dat niet meer toe) maar ook wat applicaties betreft wordt MacOS steeds restrictiever: de trend is heel duidelijk richting dezelfde verregaande restricties zoals je die op idevices hebt.

Om dat ook Google te noemen als partij die nog "erger" zou zijn dan Apple als het gaat om restricties: het zegt een hoop over de mate waarin je zaken door een Apple bril bekijkt.

Ik gebruik al heel wat jaren MacOS, heb meerdere soorten mobiele apparaten waaronder ipads en iphones maar ik zie toch echt wel in dat Apple de boel steeds verder aan het afknijpen is: zowel de hardware als software is tegenwoordig steeds verder dichtgetimmerd: alles om extra geld uit hun userbase te kunnen halen.
Voor alle videokaarten die in genuine Macs zitten, is er prima driver support. Een videokaart zonder driver kom je alleen maar tegen in een Hackintosh situatie. En ja, dan loop je wel tegen een walled garden aan. Want Apple verkoopt nu eenmaal hun hardware met hun software. En is er niet happig op dat mensen MacOS op commodity hardware draaien. Daar kun je inderdaad wat van vinden.

Google heeft nauwelijks een hardware strategie, maar weet met hun software en services strategie naar mijn mening een veel grotere lock-in te creëren. Met potentieel verregaande consequenties voor je privacy.

Apple is zeker niet heilig en doet ook dingen waar ik mijn vraagtekens bij zet. Het lijkt echter op tweakers soms wel dat Apple als evil incarnated moet worden weggezet en er alles aan doet om gebruikers bewust te naaien. En als je een keertje iets positiefs zegt over Apple ben je meteen een fanboy.
Google vindt basically alles wel best, als ze maar bij je data mogen (want: geen data, geen Google services, geen Playstore, geen noemenswaardig marktaandeel). Het is alleen jammer dat ze daarin net zo open zijn als Apple in de repareerbaarheid van hun hardware.
Dat is als je iets gratis gebruikt, dan betaal je met je data.
Je kunt ook geld betalen voor zakelijke google diensten.
Niks mis mee, maar de gesloten monden en gesloten deuren bij Google zijn ineens heel anders dan de openheid van hun software. Ze zijn er naar mijn mening niet eerlijk en open genoeg over.
Geld betalen voor zakelijke diensten en dan alsnog je data aan hun openbaar stellen*
Maar Apple heeft op de Mac ook veel dingen strakker getrokken.
En wat gaat er gebeuren, komt er een Rosetta voor “intel apps”? Of wordt de AppStore verplicht om überhaupt te mogen?
Begrijp me niet verkeerd, en dit zal vast niet gaan gebeuren, maar ik snap wel dat men bang is.
Ik denk dat wat Apple op de Mac strakker getrokken heeft, Microsoft in Windows ook strakker getrokken heeft. UAC prompts, file system protection, code signatures. Met name om voor de gebruiker een veiligere omgeving te creëren en niet met het doel om de gebruiker meer te limiteren.

Het door Apple verplichten om ARM applicaties uitsluitend uit de Appstore te halen lijkt me een hele wilde speculatie. Ik denk dat Apple het net als al hun gebruikers het vervelend gaat vinden dat x86 applicaties niet zonder meer draaien. Dus als ze al naar ARM overstappen, dan denk ik dat er zeker een Rosetta voor x86 applicaties gaat komen. Het porteren van applicaties zou, als Apple het goed aanpakt, niet zo moeilijk moeten zijn. Xcode kan al vele jaren betrouwbaar compilen naar ARM voor mobiele toepassingen. Verder denk ik niet dat dergelijke applicaties buiten de Appstore om niet meer mogen draaien.
Gaan ze zeker doen. Apple is geen lief bedrijfje.
Maar Apple heeft op de Mac ook veel dingen strakker getrokken.
Dat was ook een kwestie van moeten. Computers worden voor heel veel belangrijke dingen ingezet waardoor het ook nut heeft om ze aan te vallen. Je kunt er behoorlijk wat schade mee aanrichten of geld aan verdienen. Security is in de loop der tijd heel wat belangrijk geworden en daar hebben de hardware en software mensen ook op gereageerd door de boel op Mac, Windows en Linux strakker te trekken.
En wat gaat er gebeuren, komt er een Rosetta voor “intel apps”? Of wordt de AppStore verplicht om überhaupt te mogen?
Kijk eens naar hoe men dit doet bij Linux en BSD varianten. Pkgsrc is een mooi project om eens naar te kijken: die hebben software dat op zowel x86 als ARM architecturen moet kunnen draaien. Bovendien is Apple, in ieder geval op iOS/iPadOS, heel goed met API's aanbieden. Veel nieuwe zaken die ze introduceren hebben heel veel apps al gratis en voor niks wanneer ze zich gewoon netjes aan de SDK e.d. houden. Zoiets kunnen ze nu ook toepassen. Daarbij helpen zaken als Apple's Catalyst ook wel wat bij.

Bij alle voorgaande architectuur switches hebben ze ook een periode aangehouden waarin beide systemen nog courant waren. Men had daardoor een lange overgangsperiode zodat ze software makkelijker van de ene naar de andere architectuur konden overhevelen. En dat moeten we hier dan ook niet vergeten: het is niet de eerste architectuurwissel van Apple, dat hebben ze vaker gedaan waardoor ze aardig wat ervaring op dit vlak hebben. Het verschil met voorgaande keren is dat ze nu de volledige controle over zowel de software als hardware kant hebben. Als we naar iets als Rosetta gaan dan kan dit ook een stukje hardware zijn.

Verplichting van de App Store is iets waar men al jaren bang voor is en wat nog steeds niet is gebeurd. Je kunt je afvragen of het überhaupt gaat gebeuren. Apple weet dat ze het niet allemaal in hun eentje kunnen doen en dus afhankelijk van derden zijn. Als je dan niet zorgt dat je een goed platform hebt dan krijg je die derden niet aan boord. M.a.w. Apple heeft hier niet heel veel keus, ze zullen ontwikkelaars tevreden moeten stellen. Een complete walled garden zal Apple zelf eerder de das om doen dan dat het ze ook maar iets zal helpen.
Begrijp me niet verkeerd, en dit zal vast niet gaan gebeuren, maar ik snap wel dat men bang is.
Dingen veranderen en velen kunnen de toekomst heel moeilijk inschatten. Dat zorgt dan weer voor onzekerheid en onzekerheid weer voor angst. Dat is iets wat typisch menselijk is en derhalve dan ook niet nieuw.
Zo heel erg walled is het huidige MacOS niet (in vergelijking met bijvoorbeeld Windows). Ik heb bijvoorbeeld een Mac met een Asus Wifi Dongel een 3rd party's stuurprogramma's. Ik hoop dat dat zo blijft als ze er hun eingen chips in gaan doen.
Ook een goeie toevoeging ja. Het zal veel moeilijker zijn om hardware vergelijkingen te maken tussen Macs en 'Computers'. Het feit dat Apple 500.- vraag voor een 1 TB SSD (Hier 135.-) is natuurlijk een vaak terugkomende klacht, maar als de processors niet meer te vergelijken zijn dan maakt dat hun marketing situatie iets makkelijker.
Arm is inderdaad niet goed in x86 draaien en andersom. Nu is er wel 1 verschil met macos en windows, en dat is de kracht die ze kunnen uitoefenen. Als apple zegt: vanaf nu word alles voor MacOS high Catalina ook voor arm gecompiled, gebeurd dat ook. Apple beheerd Xcode, en de compilers. Het word heeeeel moeilijk om dat te omzeilen als ontwikkelaar. Ook kan apple alle aps die geen arm ondersteuning hebben weigeren.
Beetje noob vraag (ben daar zelf niet zo thuis):
Is het bij Windows niet ook zo dat tegenwoordig veel spul op zaken als .net en andere frameworks draaien en daarmee eigenlijk onafhankelijk van de onderliggende architectuur zijn?
Of gevalletje van klok horen luiden, en iets met klepel... :?
De moeite zit er vooral in om leveranciers en bedrijven zoals Adobe en SAP zo ver te krijgen om hun gehele antieke codebase om te bouwen en een nieuwe branch te ondersteunen.

Als je alleen al kijkt hoe lastig het was om Windows xp weg te krijgen, hoeveel weerstand moet je dan wel niet krijgen als je van instructieset wisselt?

Apple heeft dat veel makkelijker. Minder gebruikers, en een dominantere positie.

[Reactie gewijzigd door jeroen3 op 9 juni 2020 15:49]

Adobe heeft volgens al bewerking software gemaakt voor de IPad Pro, die volgens redelijk werkte. En de IPad Pro maakt gebruik van een ARM-processor. Plus er komen als meer producten uit voor ARM, dus dat zou hopelijk ook helpen.

Links naar informatie:
IPad pro
IPad pro - processor
Linus tech tips - editing on an Ipad

[Reactie gewijzigd door Default-tweaker op 11 juni 2020 00:30]

Veel Windows software is geschreven in pure C/C++, maar dat is relatief simpel te compilen naar ARM-bit. Van .Net op OS niveau weet ik het fijne niet maar ik vermoed dat de .Net-tooling vanuit Microsoft aangepast zou moeten worden. Wat ik wel weet is dat Microsoft hier al vele jaren mee bezig is en dat portability een issue was tussen .Net voor x86 en .Net voor ARM. Het is geen feature toggle :)

Apple heeft een veel minder complexe infrastructuur omdat Apple volledig de controle heeft over alle hardware die ze ondersteunen, wat daardoor een beperkte set is. Microsoft ondersteunt praktisch alles, en dat is hun grootste probleem.
Die frameworks hebben ook support nodig voor ARM, en met instructieset optimalisaties e.d is dat nog best veel werk. Als de frameworks ARM supported word het wel een stuk makkelijker om applicaties te porten, dat wel.
Maar zelfs dan zijn de hoeveelheid native applicaties nog steeds in de meerderheid, niet iedereen zit te wachten op het porten van applicaties, vooral oudere (legacy) applicaties zullen snel op de dump terecht komen. Dit was al een probleem bij apple met 32-Bit Audio plugins op x86....
Ik denk dat de primaire motivatie inderdaad is om af te kunnen stappen van gestandaardiseerde x86 hardware om zo nog meer controle over het platform te hebben.
Als je ziet welke kant ze opgaan met MacOS en de grote hoeveelheid beperkingen die dat met zich meebrengt voor eindgebruikers dan kun je wel stellen dat het platform eigenlijk al dood is voor echte powerusers.

Ik ben net weggemigreerd van MacOS vanwege Apple's kinderachtige behandeling van Nvidia (Apple weigert de videodrivers van nvidia te signen waardoor het niet meer mogelijk is om nvidia hardware te gebruiken in recente en toekomstige MacOS versies - dit omdat Apple niet direct met CUDA wil concurreren op MacOS), een behandeling die al een hint geeft in welke mate Apple zn controle zal gaan misbruiken ten koste van de consument.
Als ik kijk naar de nogal ernstige Nvidia issues op de 15 en 17" Mac's ben ik blij dat Apple daar geen zaken meer mee doet. Zelf heb ik ook een stock 1060 gehad in een PC die gewoon hardware matig kapot is gegaan na een tijdje (net na de garantieperiode). Ik sluit me dus aan bij PBook.

Daarnaast verwacht ik een behoorlijk soepele overgang van Intel naar ARM. Een downside is dat Bootcamp waarschijnlijk zal sneuvelen. Ook het geschikt maken van Unix software voor Mac zal lastiger worden (denk bijvoorbeeld aan LabView ofzo). Maar ARM is veel efficienter dan Intel's X86 architectuur. als je kijkt naar performance/watt dan is de toekomst voor ARM erg rooskleurig. Stel je voor dat je de A13 Bionic chip upgrade naar een 45Watt model en je hem actief koelt, vermoedelijk heb je dan een chip die goed concurreert met de i9-9880H (a $550) die in de 16" macbook Pro zit.
Soepele overgang valt nog bezien. Het makkelijk 'porten' van iOS Apps naar MacOS via Catalyst is ook weer niet makkelijk gebleken. Developers klagen er flink over en er zijn maar een paar handen vol apps daadwerkelijk geport.

Snap dat dit de andere kant op werk, maar niettemin.
Je redeneert nu alleen vanuit de poweruser, maar de dagelijkse gebruiker heeft hier geen last van. Nvidia? Who cares, als je machine maar werkt... Klinkt een beetje egoïstisch maar uiteindelijk komt het daar tóch op neer. En zoals @pBook al aandraagt zijn er wellicht twee kanten aan het verhaal, wat er uiteindelijk in heeft geresulteerd dat Nvidia drivers niet meer gesigned worden.

Als het resultaat van een overstap naar hun eigen ARM chips is dat powerusers weglopen bij Apple (wat ik ze sowieso zou aanraden, Linux all the way!) maar dat de dagelijkse gebruikers betere prestaties uit hetzelfde of lager stroomverbruik kunnen halen, dan ben ik voorstander hoor!
Naar wat ben je dan overgestapt? Want de manier waarop je het bekijkt sluit zo'n beetje alle commercieel verkrijgbare hard- en software uit.
Die verpeste sfeer tussen Apple en Nvidia heeft niet alleen met CUDA te maken, het was juist Nvidia die niet wilde meewerken aan de OpenCL standaard in de Snow Leopard-dagen. Apple heeft destijds vol ingezet op deze open standaard maar heeft uiteindelijk opgegeven is over gegaan op de ontwikkeling van een eigen framework (Metal).

Er zijn een aantal generaties Mac's geweest met Nvidia GPU's waar grote (hardwarematige) problemen mee waren, met terugroepacties tot gevolg, niet alleen bij Apple overigens. Nvidia nam hierin geen verantwoordelijkheid, heeft geen kosten hiervoor op zich genomen en heeft zelfs anderen de schuld gegeven van de problemen.

Apple engineers hebben uitgesproken dat Metal 2 redelijk eenvoudig te implementeren is voor vrijwel iedere architectuur. Het draait nu op AMD, Intel, Apple-designed GPU's en ik gok dat hun Afterburner-kaart hier ook op gebaseerd is. Het is echter Nvidia die jarenlang grote delen van z'n drivers closed-source heeft gehouden voor Apple. Er waren grote stabiliteitsproblemen met de 750M en latere modellen en deel van het probleem was dat Apple niet kon meewerken aan die drivers. Niet gek dat ze door dit soort geintjes het signen en ontwikkelen naar zich toetrekken. Het grootste deel van de Apple gebruikers maakt het geen klap uit welke videokaart ingebouwd is, het maakt ze echter wel uit of de boel stabiel is of niet. Ik vraag me af of het dus 'ten koste' gaat van de meeste consumenten of dat het uitsluiten van Nvidia ze juist goed doet.

[Reactie gewijzigd door pBook op 9 juni 2020 19:25]

Omdat jij nooit problemen met iets heb gehad, betekend niet dat die problemen ook niet bestaan.
Als je kijkt naar Microsoft met de introductie van ARM op windows, daar draait ook niet alles even vloeiend.
...omdat veel software aan emulatie moet doen. Native ARM software om Windows draait als een zonnetje.
En ben dan misschien al beetje te ver aan het denken maar misschien is het dan in de toekomst mogelijk om Apple-only programma's op Windows te draaien, zoals GarageBand (is maar willekeurig voorbeeld). En omgekeerd, programma's die nu Windows only zijn, kunnen, indien ze gecompileerd worden naar ARM, misschien ook werken op de toekomstige Apples
Dit is in principe nu ook mogelijk als Apple daar tijd en geld in zou willen stoppen. Garageband draait nu ook op x86. Wat hier een grotere uitdaging is, zijn de macOS API's waar Garageband tegen praat. Als je die vertaalt naar de API's voor Windows kun je elk stuk macOS software compileren zodat het draait op Windows.
Naast de CPU-architectuur (en instructieset) zijn er natuurlijk ook compleet verschillende APIs tussen verschillende besturingssystemen. Kijk naar Wine: heel actieve development, maar je hebt nog steeds weinig garantie dat je Windows applicatie op Linux/MacOS draait. En da's dan nog op dezelfde CPU!

Om van CPU te wisselen heb je in principe genoeg aan niet-CPU specifieke code en een passende compiler. Wisselen van OS houdt in dat je nagenoeg de hele codebase mag herschrijven, als het niet van in het begin zo OS-agnostisch geschreven werd.
Ik denk dat dit idd wel een gevolg kan zijn. Een groot verschil met Windows is is dat Apple wel veel meer te zeggen heeft omtrent wat developers doen op het systeem. Denk dat daardoor sneller een groot percentage wordt omgezet vs voor windows waar maar een klein deel van de gebruikers windows op arm draait.
Ja, dan heb je een probleem, want je "oude" software moet dan gevirtualiseerd/geemuleerd draaien, wat prestatievermindering geeft. Apple doet al ontzettend veel op ARM (telefoons en tablets) dus ik verwacht dat de eigen software geen problemen gaat geven.
Ik denk dat het tijd is om x86 los te laten. Het is een instructieset uit 1977 en heeft bijna niets van die tijd los gelaten. Er zijn letterlijk 10 opco's om twee getallen bij elkaar op te tellen...

Daarnaast kan je je afvragen of MSFT hun compiler wel net zo goed hebben optimized voor ARM als voor x86. Ik durf het te betwijfelen.

[Reactie gewijzigd door JackBol op 9 juni 2020 14:59]

Nog een partij die aan de stoelpoten van Intel loopt te zagen. AMD heeft de zaag er ook al stevig inzitten. Het wordt tijd voor Intel om weer een revolutionaire stap te zetten in plaats van evolutionaire stappen.
Of Apple zou op AMD kunnen overstappen...
Dat is een te magere stap. X86 is gewoon in de basis outdated en inefficiënt. De winsten in battery duur en performance zouden dan misschien 10-15% zijn, maar met ARM is de batterij winst op z'n minst 25%, en performance zou dan ook beter zijn.
AMD64 is nog altijd veel sneller dan ARM, zelfs met Apple's chips. Dat gaat natuurlijk wel ten koste van accuduur en koeling, en vooral dat laatste geeft Apple veel problemen.

De vorige architectuurwissel van Apple ging heel goed omdat destijds een Intel-processor snel genoeg was om POWERPC real-time te emuleren. In dit geval zal dat niet zo zijn.

Als Apple het op de nieuwe Microsoft-manier aanpakt, zullen ze AMD64 gaan emuleren waardoor software bedoeld voor oudere Macs trager zal draaien met meer accuverbruik. Voor professionals een ramp, natuurlijk, omdat ze hun oude, speciale software niet meer kunnen gebruiken. Het kan natuurlijk ook zijn dat ze de oude Microsoft-manier zullen pakken, dat wil zeggen "dikke pech, ontwikkelaars moeten nu ook ARM compilen en testen", iets dat ik Apple met hun recente geschiedenis aan compatibiliteitsbreuk nog wel zie doen.

Ik denk dat ze hier vooral veel winst mee gaan maken nu ze in-house al hun chips kunnen gaan hergebruiken en dus geen dure Intel-chips meer hoeven te kopen. Ze zullen gaan roepen dat ze de boel gaan revolutioneren en hoe ze de nieuwe Jezus van computers zijn maar of hun snelheden in de buurt komen van AMD64 betwijfel ik.
AMD64 is nog altijd veel sneller dan ARM, zelfs met Apple's chips.
Dat verschil is kleiner dan je zou denken. Als je in in geekbench kijkt zie je dat de laatste iPhone qua pure power de laatste MacBook Pro al bijna bijhoudt. Gezien hoe snel de verbeteringen bij Apple gaan en gezien dit een CPU van een iPhone is, zal rauwe performance geen probleem zijn.

Als je X86 gaat emuleren gaat de performance inderdaad niet super zijn. Dit probleem kan echter snel genoeg opgelost zijn: apps in de App Store moeten al tijden met Bitcode gemaakt worden. Hiermee is overschaken naar een andere processorarchitectuur triviaal. Als 1 bedrijf het kan is het Apple wel: sinds Catalina worden ook 32 bit software niet meer ondersteund en dit is hier ook goed gegaan.
Benchmarks zijn altijd wat lastig naar daadwerkelijk gebruik te vertalen. Mijn smartphone zou ook net zo snel moeten zijn als mijn wat oudere laptop volgens benchmarks, maar loopt al snel tegen bottlenecks aan als je desktop-grade taken wil gaan doen.

De App Store zal inderdaad gaan forceren dat apps op ARM gaan werken, maar veel software wordt ook buiten de App Store verkocht. Software die in een van de grootste doelgroep, video- en audiobewerkers, voor best veel geld per licentie verkocht wordt.

Het zou wel het perfecte moment zijn voor Apple om de App Store als enige softwarebron voor macOS te forceren. Met het droppen van 32-bitsupport hebben ze al eerder aangetoond bereid te zijn om compatibiliteit met oude software te laten vallen.
Het zou wel het perfecte moment zijn voor Apple om de App Store als enige softwarebron voor macOS te forceren.
Als ze failliet willen wel ja. Dit is een actie waarvan Apple zelf ook wel heel goed weet dat dit heel negatief voor ze gaat uitpakken. Bij macOS zijn ze te afhankelijk van derden. Daarom is de App Store op de Mac sinds het bestaan ook geen verplichting. Dan hebben we het over een jaartje of 10 (!). Zo goed loopt die App Store trouwens ook niet, er is behoorlijk veel kritiek op geweest.
Met het droppen van 32-bitsupport hebben ze al eerder aangetoond bereid te zijn om compatibiliteit met oude software te laten vallen.
Dat hebben ze bij macOS helemaal niet. Wat dat heeft aangetoond is hoe lui softwaremakers zijn of hoe moeilijk omschakelen naar 64-bit is. Dat 64-bit verhaal is namelijk begonnen bij Leopard welke in 2007 werd geïntroduceerd. Iedere release daarna hebben ze wel wat lopen sleutelen waarbij ze steeds meer naar 64-bit only toe zijn gaan werken. Dat droppen van 32-bit is dus niet zomaar uit de lucht komen vallen, het is een proces van ruim een decennium geweest.

Bij iOS is het een veel sneller proces geweest en dat komt omdat de eisen voor de apps daar wat strikter is dan op macOS. Dat levert niet alleen voordeel voor Apple op maar ook voor de ontwikkelaar en uiteindelijk dus ook de gebruiker. Wat Apple vaker heeft laten zien is dat wanneer je als ontwikkelaar de standaard SDK en API's gebruikt je voor veel nieuwe features vrijwel niks extra's hoeft te doen. We hebben het onlangs nog gezien toen iPadOS 13.4 uit werd gebracht en we daar ineens cursor support hadden. Dit werkte met heel veel applicaties zonder dat die ook maar een update nodig hadden. Om het echt helemaal optimaal te krijgen moet je bij deze feature nou wel wat extra werk verrichten. Bij de omschakeling van 32 naar 64-bit was het dan ook voor diverse ontwikkelaars al weinig werk, sommigen moesten even dingen opnieuw laten bouwen. De updates vlogen je toen ook om de oren.

Bij zowel macOS als iOS/iPadOS had het niets te maken met bereidwilligheid. Bij macOS was het een lange reis die men stapje voor stapje deed en bij iOS/iPadOS kon het vanwege de goede basis die was gelegd. Het laatste zetje geven is hier simpelweg niet nodig.

Vergeet hierbij Catalyst niet. We hebben nu al Catalyst applicaties zoals GoodNotes 5. Die draait op zowel iOS/iPadOS als macOS en is derhalve dan ook een applicatie die op zowel ARM als x86 draait. Het enige wat Apple hoeft te doen is dit verder uitbouwen en promoten. Aan Catalyst is ook al aardig wat werk aan vooraf gegaan. Apps die ineens van een monoliet werden opgedeeld in kleinere stukjes (iets wat ook hielp bij de overgang van 32 naar 64 bit).
Anoniem: 474132
@GertMenkel9 juni 2020 14:22
Qua multicore zal Amd wel sneller zijn (Serverchips) maar Apple desktop Arm met ruimere power envelop is in potentie een beast hoor!

Ben ook benieuwd of ze Amd graphics ditchen tbv eigen Gpu. Denk dat discrete Gpu nog wel tijdje Amd blijft maar hier liggen ook kansen voor Apple voor verdere integratie.

[Reactie gewijzigd door Anoniem: 474132 op 9 juni 2020 14:26]

Ik geloof zeker dat er potentie is, maar sneller zal nog even duren. Apple maakt grote stappen met haar A*-ontwerpen terwijl Intel incrementele verbeteringen toevoegt, maar de nieuwe mobiele Ryzen-processors zal Apple bij lange na niet inhalen.

Aan de andere kant is een Macbook Air natuurlijk al geen performancebeest, eigenlijk een opgevoerde iPad Pro, dus daar kan prima een Apple-chip in. Apple kon er al langer een snellere chip in doen (ik bedoel maar, mijn telefoon is volgens mij ook al sneller dan een 1.1GHz i3 die kort naar 3.2GHz kan boosten) maar koos ervoor om snelheid op te offeren voor accuduur. In die afweging is het logisch om een tragere chip van dezelfde snelheid met minder stroomgebruik te kiezen.

Voor de Pro-producten is het compleet onlogisch nu, maar wie weet wat ons over vijf jaar te wachten staat.
Wie zegt dat er 1 chip in komt? Dual ARM A14 chips. Niemand weet wat dat doet met performance. Ik wil dat wel eens zien hoor. Chipdesign snappen ze bij Apple wel.
De impact die dat zou hebben zou het hele systeem enorm complex maken en al helemaal niet lineair schalen. Intel en AMD hebben beide support voor multiprocessorsystemen en dat komt eigenlijk altijd wel met een beperking op RAM, cache, etcetera. Een andere manier om multichip te doen is PS2-stijl, maar dat is echt een drama voor software-ontwikkelaars en voegt waarschijnlijk niet heel veel toe.

Ze zouden natuurlijk wel net zoals AMD een chipset-design kunnen proberen, maar dan moet hun architectuur daar zoals bij Ryzen wel vanaf het begin voor ontworpen zijn.

Ik denk niet dat ze multichip zullen gaan gebruiken, helemaal aangezien de standaardcore die ik de iPad Pro zit snel genoeg is voor de meeste Macbook Air-modellen.
Dat zou kunnen. Maar voor de Macbook Pro en daarboven is een A12x (of aanverwante) echt niet toereikend. Dus daar zullen ze met een andere oplossing moet komen.
Daar ben ik het mee eens. Ik vermoed zelf dat als dit gerucht klopt (het blijft Bloomberg) ze hun Macbook Airs zullen ombouwen tot iPad Pro's die macOS draaien en een vast toetsenbord hebben.
Dat geeft ze de tijd en testcases om hun A-serie chips door te ontwikkelen op desktopniveau en zo naar verloop van tijd op performance te kunnen concurreren in de hogere sfementen.

Het geeft ook een nieuwe inkomstenstroom voor hun chipdivisie waardoor het ook nog eens financieel haalbaarder is de performance dermate te optimaliseren.
Waarom zou je er meer dan 1 chip in zetten als je ook prima het aantal cores in 1 chip kan vergroten?
Zelfs de high-end Mac Pro heeft nog maar 1 chip (wel met tientallen cores).
Ben ook benieuwd of ze Amd graphics ditchen tbv eigen Gpu. Denk dat discrete Gpu nog wel tijdje Amd blijft maar hier liggen ook kansen voor Apple voor verdere integratie.
Moeten ze eerst toegang krijgen tot de patenten en IP. Intel is er al jaren mee bezig zonder succes.Zonder de patenten van Nvidia of AMD gaat het moeilijk worden iets competitief te creëren. Daarnaast is de verdere integratie van CPU/GPU in AMD's nieuwe APU's zeer interessant. Vraag mij af of Apple iets kan produceren wat ook maar in de buurt gaat komen de komende twee jaar met de ontwikkelingen bij AMD.

Uiteindelijk hoeven ze geen performance parity te hebben om een voordeel te behalen uit deze wissel. Ze kunnen nu een gesloten systeem creëren waar zij voor 100% alles zelf kunnen gaan bepalen. Er zijn ook andere voordelen te behalen met verticale integratie.
Anoniem: 474132
@ELD9 juni 2020 15:32
We gaan het zien, ik stel in elk geval de upgrade van me mbp 2015 uit tot er een ARM voorhanden is. Sowieso kies ik de versie zonder discrete GPU en verwacht dat dit dan logischerwijs ook een Apple GPU in de chipset dan wel SoC zal zijn. De complete vertical geintegreerde Apple laptop! :Y)
...
Ze zullen gaan roepen dat ze de boel gaan revolutioneren en hoe ze de nieuwe Jezus van computers zijn maar of hun snelheden in de buurt komen van AMD64 betwijfel ik.
Dat denk ik ook niet, misschien is de insteek wel niet absoluut performance gericht maar moet je het meer in de batterij- en behuizingoptimalisatie zoeken (voor de massa); Intel heeft immers goed weg kunnen komen de laatste jaren.
Ik merk dat er over het algemeen veel aannames worden gedaan zonder enige vorm van onderbouwing. Zo is het ook niet absoluut noodzakelijk dat iedere ARM processor net zo snel is als een AMD64 processor, zolang die maar snel genoeg is om een bepaalde taak uit te voeren en vooral goedkoop is.

Een SoC met Cortex A53 of A55 cores is wat dat betreft de nieuwe Pentium die je bij wijze van spreken gratis erbij krijgt, als je een stuk speelgoed bestelt. Het draait om het afstemmen van software en hardware en dat lijkt tegenwoordig haast een verloren kunst.

Zo heeft x86 het uiteindelijk ook gewonnen van de grote RISC architecturen 20 jaar geleden. Een beetje programmeur kan zich de ARM instructieset vrij eenvoudig eigen maken met behulp van tutorials en boeken die ervoor bestaan.

Mocht er daadwerkelijk behoefte bestaan aan veel meer rekenkracht, dan zullen Ampere en Marvell en later ook bedrijven zoals Nuvia producten beschikbaar maken voor deze markt. Intel dient zich inderdaad zorgen te gaan maken en niet zozeer over AMD, maar over de miljoenen en eigenlijk miljarden ARM SoC's die er verkocht worden en nu ook (afgezien van de captive Windowsmarkt) de traditionele desktop en server beginnen te veroveren.

[Reactie gewijzigd door psychicist op 10 juni 2020 12:41]

Het hielp voor Apple dat er nauwelijks programma's waren die alleen op ppc64 werkten (omdat dan de laptopmarkt uitgesloten werd), en een G4 veel makkelijker te emuleren is.
Dit is echt niet in een weekendje gedaan hoor. Apple wil de Mac en iPad productlijnen mergen.
Dat gaat over jaren.

Dat ze het "revolutionary" noemen weet ik zeker. Sneller, mwa. Single core absoluut niet. Maar je kan wel een hoop cores kwijt, wat energietechnisch, mits juist toegepast, gunstig kan zijn. Zie de iPad. Het zal ook wel afhangen van de geheugentopologie.

Als x86 zo goed was zat het ook wel in de smartphones, maar er is een energie ondergrens voor x86 die ARM niet heeft.

Ik denk dat het een zinvolle stap van Apple is in het belang van de gehele software wereld. Het is een soort cache flush van de inefficiente plak die we tot nu toe verzameld hebben. Het forceert een hoop software om toch eens nader bekeken te worden omdat een snelheidswinst niet elke generatie meer vanzelfsprekend is.
Ik denk dat ze hier vooral veel winst mee gaan maken nu ze in-house al hun chips kunnen gaan hergebruiken en dus geen dure Intel-chips meer hoeven te kopen.
Denk ik ook. Dat was het argument dat een paar jaar geleden werd geroepen.
X86 kwam uit in 1978 van de vorige eeuw met 64Bit in 2003 en ARM uit 1985. (volgens Wikipedia)

Waarom gaan grote spelers zoals Intel of Apple niet een nieuwe architectuur ontwikkelen met focus op energiezuinigheid?

Edit: Ik lees dat RISC-V mogelijk een toekomstige opties is (zover ik het begrijp)

[Reactie gewijzigd door Lisadr op 9 juni 2020 14:18]

De leeftijd van de oorspronkelijke instructieset zegt vrij weinig over hoe schaalbaar deze is op de langere termijn. x86 heeft bijvoorbeeld het veel recentere PowerPC om zeep geholpen, simpelweg door grotere R&D-budgetten.

Verder is backwards compatibility natuurlijk ook een dingetje. Het is best leuk voor de verkopen om (in theorie) programma's van veertig jaar geleden te kunnen draaien.
Programma's van 40 jaar geleden draai je ook zonder problemen in een emulator, is geen chip support meer voor nodig.

Apple heeft net met Catalina alle 32 bits OS X software om zeep getrokken, dus veel verder dan een dikke 10 jaar terug (als je mazzel hebt) gaan ze niet.
Omdat dat een gok van minstens een paar miljard zou zijn. Op dit moment zou je een nieuwe architectuur denk ik alleen nog als samenwerking tussen hele grote spelers uit de grond kunnen stampen met buy-in van software en hardware boeren zodat afzet gegarandeerd is.
Omdat een compleet nieuwe architectuur een hele grote gok is. Dat is Intel (kuch*itanium*kuch) niet goed bekomen de laatste keer...
Een architectuur is niet alleen een processor. Het is ook compilers, een bibliotheek aan boeken die programmeurs kan opleiden en een leger programmeurs met jaren ervaring hoe ze dingen slim met die architectuur kunnen implementeren.

Een nieuwe architectuur is niet zoiets als een spaarvarkentje onder de hamer zetten, maar vele jaren met veel geld zwoegen om die architectuur in de wereld ingeburgerd te doen raken, waarbij de kans groot is dat de rest van de wereld niets in je architectuur ziet en je heel veel geld nodeloos verspilt.

Aanhaken bij een bestaande architectuur is dan wel zo veilig.
Intels laatste poging voor een nieuwe architectuur (Itanium) is compleet geflopt. AMD is ertoe in staat maar is niet groot genoeg om fabrikanten aan hun zijde te krijgen (zie maar hoe weinig Ryzen chips er in degelijk gekoelde laptops te vinden zijn, ondanks dat ze goedkoper en op vele vlakken zelfs beter zijn).

Apple zou het kunnen, maar zij hebben er toch voor gekozen om bij het vertrouwde ARM te blijven, ook met hun mobiele chips.

RISC-V en POWER9 zijn momenteel de grootste kanshebbers om Arm en AMD64 van hun troont te stoten maar dat gaat nog wel even duren.

Het is overigens niet alsof aan AMD64 stil heeft gestaan sinds 2003, met vectorinstructies zijn deszelfde algoritmen veel sneller en zuiniger uit te voeren dan de processors van tien jaar geleden. ARM is ook diverse malen over de kop gegooid (THUMB en big.LITTLE zaten niet in de standaard van 1985) dus ook daar is het een en ander flink beter geworden.
Waarom? Apple's mobiele ARM chips presteren beter dan alle concurrentie in vergelijkbaar segment.

Apple's eigen A serie chips voor de MacBook gaat resulteren in een terugkeer naar de PowerPC dagen waar Apple hardware weer een performance voordeel heeft tegenover ALLE concurrentie (AMD, Intel of wie dan ook). Integratie hadware, software en alle kunstmatige intelligentie die daar als layer overheen draait.

Ik zie het wel zitten. Al is zo'n overgang altijd een hele klus met wat hobbels op de weg.
Als die PowerPC zo fantastisch was waarom zijn ze dan overgestapt op het X86 platform?
Software compatibiliteit. Daarna kwamen alle x86 apps naar de Mac wat destijds nodig was. Ook zat PowerPC aan een plafond en gaf het destijds meer warme per performance-watt af.

De wereld is nu anders: switch naar ARM zorgt ervoor dat ALLE Apple platformen op dezelfde chip-architectuur komen en er dus meer synergie tussen iOS/watchOS/tvOS/macOS gaat komen op korte termijn.

Imo de enige juiste keuze!

Enige waar dit mogelijk impact gaat hebben is gaming. Kan zijn dat de macOS straks vooral iOS games gaat krijgen en minder PC game ports.
Op het moment dat Apple van powerpc naar x86/64 wisselde, waren Intel's chips snel genoeg om real-time de andere instructieset te emuleren. Er zat, in ieder geval aan het einde, een behoorlijk performanceverschil tussen en dat was niet in het voordeel van powerpc.

Datzelfde trucje gaan ze niet weer doen zonder ontwikkelaars te dwingen al hun software opnieuw te compileren voor ARM, iets dat ze waarschijnlijk wel door zullen drukken.

Games zijn er op Apple gelukkig al amper dus daar zullen ze weinig verliezen. De grafische kaarten en processoren in veel Apple-hardware is ook niet bepaald gaming-materiaal (Intel Iris Pro is snel, maar niet zó snel, en door hun eeuwige ruzie met Nvidia moet zelfs de Mac Pro het met een tragere videokaart doen) dus ik verwacht niet dat dat een groot probleem voor de zal worden.

Een belangrijk ding dat ze wel verliezen is Bootcamp en Parallels voor Windows-ondersteuning, waarmee de apparaten in een klap ongeschikt zullen zijn voor veel applicaties en leeromgevingen.
Hoeveel maakt die architectuur uit voor ontwikkelaars? Zolang de APIs en de compilers hetzelfde zijn, maakt de onderliggende architectuur beperkt uit. Alleen voor wat low-level development, wat het overgrote deel van de ontwikkelaars niet doet. Ik kan het meeste van mijn code in Visual Studio gewoon ineens compileren voor x86, x64 en ARM. Het maakt voor mij echt helemaal niets uit.
Tot dat je gaat kijken naar workstation workload applicaties en zit met optimized libraries die dan net weer niet ondersteund worden op ARM, of super traag zijn omdat het geen NEON implementatie heeft, of helemaal geen instructieset optimalisaties...

Porten is een hoop werk, vooral met complexere applicaties met een hoop dependencies.
Veel bedrijfen hebben al moeite om multi-platform (Windows, Mac OSX, Linux) te gaan, laat staan daar ook nog eens architecture problemen bij te krijgen.
Veel applicaties zijn al geneens beschikbaar op Linux ARM, waar ze wel op Linux x86 supported zijn. En dat terwijl ARM al langer meeloopt op Linux.
Multi-platform is vaak een stuk complexer dan ontwikkelen voor verschillende architecturen. Dat komt omdat overal de API's verschillend zijn en dat het developen van de front-end voor native applicaties doorgaans compleet anders werkt. Tenzij je een framework gebruikt zoals Electron.
Software compatibiliteit.
Niet is minder waar. Apple was enorm teleurgesteld in de progressie van IBM's PowerPC CPU's op allerlei gebied. Ze wilden meer doen dan wat die CPU's konden bieden. IBM kon dat niet bieden, Intel wel. Zie hier het betreffende stukje van de keynote van de WWDC in 2005: https://www.youtube.com/watch?v=ghdTqnYnFyg

Steve Jobs legt er niet alleen kort, bondig en duidelijk uit waarom ze switchen maar ook hoe ze dat gaan doen. Let ook vooral op dat ie aangeeft hoe lang ze er al mee bezig zijn (al 5 jaar aka vanaf het begin van MacOS X).

[Reactie gewijzigd door ppl op 9 juni 2020 22:00]

Was het niet zo dat IBM meer gericht was op de POWER processoren voor servers en niet heel erg geïnteresseerd was in het maken van zuinigere processoren voor een relatief kleine markt voor laptops met lage marges? Ik zou in dat geval als IBM zijnde hetzelfde hebben gedaan, omdat het gewoon de moeite niet waard was.

Het heeft IBM ook benadeeld doordat er geen desktop hardware meer was voor ontwikkelaars om te werken aan optimalisaties voor POWER en daar is nu pas een verbetering in gekomen door het Talos II workstation en Blackbird desktopplatform. Maar IBM kon zich toen onmogelijk afhankelijk maken van Apple.

Later heeft P.A. Semi wel een zuinige PPC chip ontwikkeld en is het bedrijf prompt door Apple opgekocht, waarna het team op het ontwikkelen van chips voor Apple apparaten werd gezet en de PWRficient officieel een stille dood is gestorven, maar waarschijnlijk een nieuw leven heeft gekregen als de in-house ARM SoC.

Een interessant detail is dat IBM tegenwoordig een van de grootste afneners is van Apple hardware en met de nieuwe op ARM gebaseerde Macs opeens ook een van de grootste implementaties van ARM desktops zal hebben met voornamelijk POWER en x86 servers voor de backend.
Compatibiliteit is niet echt de reden wanneer je besturingssysteem al fundamenteel anders is dan Windows. Hooguit voor applicaties waarbij delen geschreven zijn in x86 assembly, maar buiten games om zijn er volgens mij nauwelijks programma's naar de Mac gekomen speciaal vanwege de switch naar Intel. De enige reden waarom Apple zichzelf de overstap naar Intel aandeed was omdat IBM noch Motorola/Freescale een PowerPC G5 konden bakken (niet voldoende budget!) die in een laptop kon werken (ivm temperaturen).

Boot Camp was een leuke bijkomstigheid.
Dat wilde ik net zeggen.

Ik heb een Macbook die ik ook gebruik om op te gamen. Bij voorkeur onder macOS zelf maar ook onder Windows 10 via Bootcamp als een spel niet onder macOS draait.

Ik wil graag macOS blijven gebruiken in de toekomst, dus ik voorzie daar wel wat problemen mee. Als Apple overstapt naar ARM, zal Windows 10 vermoedelijk ook niet meer draaien voor de eventuele spellen.

iOS games op de mac zit ik niet op te wachten. Die speel ik wel op een iPad en bovendien zijn dat doorgaans een ander slag games dan wat ik op de “PC” speel.

Ik vermoed dat ik straks toch weer met twee systemen zit. Een Windows bak om op te gamen en een Macbook voor de rest. Of ik moet nog snel het laatste model met Intel processor kopen, maar daarmee stel ik het probleem alleen maar voor een paar jaar uit.

[Reactie gewijzigd door Jeroen O op 9 juni 2020 16:54]

Als ik me niet vergis was hitte ontwikkeling van de nieuwe ppc chips destijds een groot probleem. Plus het feit dat "off the shelf" cpus zoals x86 ook schaal (en dus kosten) voordelen zou opleveren.
Ze kregen de G5-chips niet in een laptop gepropt, ze werden te veel heet en gebruikten te veel energie. De G4 laptops van toen liepen toen op een gegeven moment hopeloos achter qua performance.
Mogelijk hebben ze dat onderzocht. Ik denk wel dat de hogere temperaturen van AMD wel een breekpunt zijn voor Apple met haar dunne (en volle) behuizingen.
Heb je hier een bron voor? Vroeger was dat misschien zo, maar sinds Ryzen (en zeker de 7nm processors) is dat echt niet meer zo iirc
Wat betreft GPU support zijn ze al min of meer op AMD overgestapt, maar da's vooral omdat ze Nvidia niet zo lief meer vinden.
Moah, als de x86 architectuur nu dus echt end of life is voor alles behalve het enterprise segment heeft AMD daar ook een probleem.

Net nu ze eindelijk weer een comptetieve chip hebben stappen Apple en Microsoft over op ARM.
(sarcasme) Ja, want IA-64 was zó'n succes ! (/sarcasme)

Maar serieus; Ik ben wel benieuwd hoe Intel de toekomst ziet. Nu ARM steeds verder oprukt, AMD (eindelijk) weer een geduchte concurrent is voor x86/x64 ( misschien nog niet financieel, maar in ieder geval technologisch ) en de hele IT markt redelijk onder druk staat vraag ik me af waar een bedrijf als Intel nog groeimogelijkheden ziet. Want zelfs als Intel de gehele x86/x64 markt als legacy zou gaan zien ( voorlopig zéér onwaarschijnlijk, maar stèl… ) dan hebben ze nog genoeg producten om gewoon te blijven bestaan, maar aandeelhouders zijn pas tevreden als er exponentiële groei te zien is.
Herinner je het Itanium fiasco nog?
Dit zou de tweede transitie mbt cpu architectuur zijn die apple doorvoert in pakweg, twintig jaar.

Wat ik vooral opvallend vind, is dat men beweert een arm based cpu neer te kunnen zetten in het hoge segment die net zo goed zou kunnen presteren als zeg een 10e generatie intel core i7. Dat is nogal wat. Ik ben mij van geen enkele arm cpu bewust die zulke prestaties kan neerzetten (omdat ze veelal gebruikt worden voor mobiele toepassingen).

Ik probeer me dan ook ook meteen te bedenken, gezien dit dan een flinke chip zal worden met een veel hogere tdp dan we gewend zijn van mobiele arm cpu's: wat voor package krijgt de cpu? wordt dit een surface mounted bga cpu of toch iets van fcpga? lga lijkt me sterk gezien we dit enkel bij intel zien?

Vooral jammer dat te verwachten valt dat zo'n cpu waarschijnlijk enkel in apple producten te gebruiken zal zijn; we zullen hem niet op een oem matx bordje met open bootloader gaan zien met full linux support, althans , dat vermoed ik.
Wat ik vooral opvallend vind, is dat men beweert een arm based cpu neer te kunnen zetten in het hoge segment die net zo goed zou kunnen presteren als zeg een 10e generatie intel core i7. Dat is nogal wat. Ik ben mij van geen enkele arm cpu bewust die zulke prestaties kan neerzetten (omdat ze veelal gebruikt worden voor mobiele toepassingen).
Ze kunnen natuurlijk iets achter de hand hebben maar ik ben hier toch ook wel benieuwd naar. Een processor die enkel scoort op energieverbruik gaat hem niet worden: gebruikers willen ook betere prestaties. Betere prestaties dan wat Intel momenteel kan brengen maar ook eigenlijk wel betere prestaties dan wat AMD momenteel brengt. Dat zie ik bij ARM nog niet zo.
Apple beweert niets, het zijn geruchten.
Je bedoelt de derde, al was de transitie van 68k naar ppc zo'n 25 jaar geleden.
Wat betekent dit icm een gpu? Een 580rx werkt die alleen bij Intel en amd?

Daarnaast hoop ik snel op nieuwe iMacs!

[Reactie gewijzigd door no_way_today op 9 juni 2020 14:03]

Wat betekent dit icm een gpu? Een 580rx werkt die alleen bij Intel en amd?
Er is geen reden dat PCIe alleen op AMD64 zou werken, behalve dat iedere drive opnieuw moet worden gecompileerd. Dat kan Apple nog wel hij AMD doordrukken als ze maar blijven kopen bij hun (en ze hebben geen keus, want ze zijn veel te zoutig om bij Nvidia aan te kloppen).

Ik denk alleen dat ARM in de eerste instantie voor producten als de Macbook Air zal worden gebruikt, waar het verlies op performance acceptabel is tegenover de winst in accuduur. De iMacs en Mac Pro's zullen nog wel even Intel blijven gebruiken.

[Reactie gewijzigd door GertMenkel op 9 juni 2020 14:49]

Iphones hebben toch ook GPUs? De kernel tussen macOS en iOS is gedeeld, dus in principe zou een opgeschaalde A-chip gewoon moeten werken.
Een iPhone-GPU is goed, maar komt niet in de buurt van veel laptop-GPU's. Ze zouden met accelerator-chips voor dingen als machine learning kunnen gaan werken om zware toepassingen voor doorsneegebruikers te ontlasten, maar eerlijk gezegd vermoed ik dat ze bij AMD zullen blijven als ze hun ARM cores bij hun Pro-lijn behouden.
Nja, beperkt in energie uiteraard. Als ik Anandtech mag geloven schommelen die dingen rond de 5W. Als ze die kunnen verbreden en meer energie geven kan het toch al redelijk uitpakken. De Tegra X1 wordt in de Nintendo Switch gebruikt en consumeert blijkbaar (volledige apparaat) zo'n 15W. En dat is een hedendaagse console. Een heel andere caterogie dan een PS4 weliswaar, maar echt wel geschikt.
Apple heeft volgens het Anandtech artikel al de efficiëntste GPU onder de smartphone SoCs, als ze die verder uitbreiden en weer een node verder zitten bij productie, waarom niet?
Net zoals AMD64 niet schaalt naar mobile (zie de pogingen om Atom in smartphones te krijgen) denk ik niet dat mobiele GPU's zo makkelijk schalen naar desktop. Je kunt ze langer laten draaien met meer stroom/hogere frequenties, maar er zijn andere dingen zoals de geheugenbandbreedte, het aantal rekenkernen en de stroomverdeling op een SoC die toch andere designs vereist dan de klassieke laptop/desktop-GPU's.

De chip van de Switch is dan ook geen echte GPU zoals Nvidia normaal zou ontwerpen, maar een SoC net zoals de Snapdragon- of A-reeks aan chips. Prima voor een Macbook Air, denk ik, alhoewel de performance vab de Tegra X1 niet bijzonder goed is voor dit soort werk (de switch doet niet meer dan 1080p, succes om met die GPU een retinascherm aan te sturen).

Voor wat ik als professioneel gebruik beschouw, moeten ze toch echt eerder de GTX 1070 Max-Q (wat een naam zeg) of de Quadro T1000 zien te evenaren voor de Macbook Pro. Helemaal met de extreem hoge resoluties die Apple op zijn laptops zet, is de grafische kracht nodig om de boel vloeiend te houden.

Aan de andere kant is de Iris Plus al genoeg om nu "pro" genoemd te worden, dus we zullen zien wat er gebeurt. Als Apple die trend aan blijft houden, zouden ze inderdaad hun PowerVR setup nog wel eens naar alle Macbooks en zelfs iMacs kunnen brengen, hoe matig de prestaties uiteindelijk ook zijn.
Als zo'n GPU voor een iPad Pro voldoet dan voldoet hij voor een Macbook Air achtig model dat nu een Intel GPU heeft ook, lijkt me. Zoals je ook al zegt kan ik me niet voorstellen dat we in het hogere segment snel ARM CPU's zullen zien.
Volgens mij de driver aanpassen en compileren voor de arm instructieset.
Als het Bloomberg als bron is, dan is het altijd eerst zien, dan geloven. We gaan ‘t eind deze maand zien. Ik geloof er weinig van dat ze ver genoeg zouden zijn en in deze tijd ‘t risico willen nemen, maar wie weet. :)
Ik ben juist erg te spreken over het trackrecord van Bloomberg (Mark Gurman), naast Jon Prosser en Ming-Chi Kuo.

Ook Jon Prosser spreekt overigens over ARM nieuws deze WWDC.
Bloomberg had natuurlijk een paar jaar geleden het 'The Big Hack' verhaal. Dat is een enorme flater die ze nooit hebben willen rectificeren. Ook Gurman heeft niet meer zoveel credits als in zijn tijd bij 9to5mac. Hij is na zijn overstap een aantal bronnen kwijtgeraakt. Zijn verhalen hobbelen nu vaak achter anderen aan, hebben een grote slag om de arm of kloppen soms ook gewoon niet.
Ik kan inderdaad niet ontkennen dat Gurman veel meer scoops had in de tijd van 9to5mac.
Nu is het inderdaad bevestiging geven op hetgeen wat reeds gegeven wordt of wat voor de hand ligt.
Ze moeten wel developers op tijd een roadmap geven, zodat de software klaar is, zodra de hardware uitkomt.

Dus ik verwacht wel de aankondiging, de wijzigingen die developers moeten doen om klaar te zijn, maar nog geen hardware.
Wat voor een invloed heeft dit op de werking van Bootcamp-Windows?
Dat stopt dan met werken, tenzij Apple besturingssystemen van derden toestaat én Microsoft een build levert die op ieder ARM-apparaat met UEFI geinstalleerd kan worden.
Daar was ik al bang voor ja. Ik gebruik Win10 sporadisch op mijn iMac maar nog vaak genoeg om het niet te willen missen. Aan de andere kant zou ik altijd nog een Win10 pc in de kelder kunnen zetten en die via remote desktop benaderen.
Ze zouden in theorie gewoon Windows 10 ARM kunnen installeren, dan heb je echter wel in windows de beperking dat alleen x86 en ARM compiled software werkt (amd64 zijn ze mee bezig schijnt).

Windows on ARM wordt echter (nog) niet zo vrijgegeven door MS, het is wel te downloaden hier en daar maar officieel is het alleen op een ARM device preinstalled te gebruiken.
Ik zie twee opties:
  • Vergeet het maar, of
  • Traag als dikke stront
Windows is ook serieus in voorbereiding op ARM voor zover ik weet
We zullen het zien, maar dat heeft dan nog maar weinig te maken met Bootcamp zoals @Retawsuna bedoelde.
Anoniem: 84766
@ATS9 juni 2020 14:46
Ik zie optie drie:
Je weet niet waar je het over hebt.

Is een iPhone snel? Is een iPad snel? Yep.

Mag jij uitzoeken op welke software stack alles draait.

@ATS Excuus, scheel in de thread gekeken.

Ik denk traag als dikke stront, dus vergeet het maar. Apple gaat geen bagger leveren.

[Reactie gewijzigd door Anoniem: 84766 op 9 juni 2020 14:50]

Emuleren die x86 software?

Ik weet prima op welke stack i* hardware draait. En dat als je daar native voor compileert dat razendsnel kan zijn. Maar daar ging het antwoord niet over.
Waarom? Windows voor ARM is ook al jaren in ontwikkeling.
Ben benieuwd welk Mac model als eerste een ARM chip krijgt.
Ik neem aan de MacBook Air. Of de 12-inch MacBook keert terug, met een ARM-processor is dat ding een stuk logischer.
Dat klinkt mij ook logisch. Zeker vanwege het zuinigere gebruik en dus langere accuduur. Maar is die MacBook (Air) dan niet gelijk sneller dan een MacBook Pro? Wellicht is daardoor een MacBook Pro juist logischer of eerst een ander Mac model zoals de iMac?
Ik denk dat het voor de professionals belangrijker is om nog een tijdje x86 te hebben gedurende de overgangsperiode voor hun (cruciale) werkgerelateerde software, want het zal ongetwijfeld langer duren voordat die software klaar is voor ARM dan programma's als Word die nu al draaien op ARM. Dus dan is het handig om eerst de 'normale' MacBooks aan te pakken.
Ben ik het ook mee eens. Maar daardoor heb ik dus echt geen idee wat de eerst ARM Mac gaat worden. Ik ben benieuwd.
Ik neem aan de MacBook Air. Of de 12-inch MacBook keert terug, met een ARM-processor is dat ding een stuk logischer.
Dan moeten ontwikkelaars ook 2 verschilde versies van hun software maken een voor arm en een voor x86 waar niet iedere ontwikkelaars op zit te wachten.
Wellicht zelf te weinig ervaring, ik zit nit niet in de ICT. Maar je maakt zoals ik begrijp software voor de Mac met Xcode? Straks compiled Xcode automatisch voor ARM en x86. Geen extra moeite.

Begrijp overigens je reactie niet helemaal? Dat Apple overstapt op ARM is al zeker, alleen de vraag is nog wanneer. Heeft verder niks te maken met welk Mac models als eerste een ARM chip gaat krijgen.

[Reactie gewijzigd door L23 op 9 juni 2020 15:09]

De 12-inch MacBook met ARM-processor lijkt mij een droomkandidaat. Wat mij betreft nog steeds de mooiste MacBook tot dusver.
De MacBook Air is recentelijk geupdate. Ik vraag me af of de MacBook Air wel een logische stap is.
Persoonlijk denk ik de MacBook Pro. Want ze hebben de Pro-users nodig om daadwerkelijk hun software te compileren naar de ARM-bit variant :)
Anoniem: 474132
@Blue-eagle9 juni 2020 15:52
Klopt, en door de Pro direct met ARM uit te rusten maak je ook gelijk een statement dat ARM de 'hero processor' is en in niets onderdoet voor legacy Intel processors. Dan komt de "Mhz-myth" misschien wel weer terug! :D

[Reactie gewijzigd door Anoniem: 474132 op 9 juni 2020 15:53]

Hoe zie de "performance per watt" voor ARM er uit? Dat was het belangrijkste (en meest begrijpelijke) argument voor de overstap van PowerPC naar Intel. Alhoewel ARM zuiniger is geloof ik niet dat dit de (mindere) performance kan compenseren. Ik vermoed ook dat Apple-gebruikers graag vooruit willen bewegen en niet compromissen willen sluiten. Ik hoop voor ze dat Apple een buitengewone processor in de maak heeft om dat te kunnen doen.
Anoniem: 84766
@beantherio9 juni 2020 14:48
Waarom weet jij zo zeker dat de performance minder is? Een iPad is met heel veel taken, veel sneller dan Intel CPU's. Misschien niet de top line, maar dat zit ook niet in de instapmodellen van de MacBook.
Waarom weet jij zo zeker dat de performance minder is?
Daar stel ik nu juist een vraag over met de eerste zin van mijn posting. Ik denk dat de randvoorwaarden van ARM er niet goed uitzien (zoals ik ook al aangaf in mijn posting) maar ik ben benieuwd.
Anoniem: 84766
@beantherio9 juni 2020 17:36
Als we kijken naar de iPad en iPhones dan hebben ze behoorlijk veel vermogen.Uiteraard is nog niet goed te vergelijken met desktop workload, maar de synthetische benchmarks zijn sowieso snel.

Ook kunnen we wel iets zeggen over performance doordat bepaalde workloads wel overeenkomen. Kijk naar browser, renderen van video, manipuleren van afbeeldingen.

Grafische taken zijn zeer geoptimaliseerd, maar ik maak me eigenlijk vrij weinig zorgen over de performance. Ik weet vrijwel zeker dat het door de integratie van hardware en software heel erg snel gaat zijn, zeker in de categorie MacBook Air. Stuk sneller en zuiniger dan de Intel variant. Waarom anders de moeite nemen?
Ik vraag me alleen af wat dit gaat betekenen voor mensen die hun Macbook gebruiken voor Linux en alsook Windows.

Als al die support een steile curve gaat volgen, waarbij het jaren duurt vooraleer de rest kan oppikken, ga ik toch passen voor Macs.
Heb je het over de nieuwe ARM Macbooks of de huidige Intel Macbooks?

Voor zover ik weet draait Linux op alle Intel Macbooks uitgezonderd de laatste met T2 chips, hoewel eraan gewerkt wordt om het daar ook op te laten draaien. Over Windows kan ik niet veel zeggen, maar anderen hier zullen daar wel ervaring mee hebben.

ARM Macbooks zullen over het algemeen probleemloos Linux kunnen draaien, mits de ondersteuning voor de firmware en de hardware in orde wordt gemaakt. Dat dat in de praktijk tegenvalt, bewijzen de Windows on ARM laptops, waarbij slechts langzaam vooruitgang wordt geboekt bij het schrijven van drivers en het draaien van Linux.

Linux draait uiteraard zonder noemenswaardige problemen op ARM hardware die ervoor gemaakt is, vooral wanneer alle code vrij beschikbaar is. Windows op ARM staat echt nog in de kinderschoenen en ik zou zeggen dat er officiële ondersteuning vanuit Microsoft moet komen om het op Apple ARM hardware danwel andere ARM hardware te kunnen draaien.

De pogingen om Windows voor ARM op Raspberry Pi en andere ARM borden te installeren zijn naar mijn mening zonde van de tijd. Er kan dan beter gewerkt worden aan het porten van ReactOS naar ARM64, zodat mensen op meer hardware kunnen genieten van een Windows-achtige ervaring.
Dit is waar ik dus voor vrees, momenteel gebruik ik ook mijn macbook als Windows workstation voor bepaalde zaken met company policy O365 en ook bepaalde VPN software die niet bestaat op mac noch linux.

Mijn vrees is dat Apple er zeker zal voor zorgen dat hun meuk draait op een Arm macbook pro en dat we in een scenario komen, waar de rest gaat moeten bijbenen of niet echt het voordeel van een ARM based architectuur zien. Om eerlijk te zijn, zie ik ook niet echt in hoe een Macbook Pro ARM based zoveel beter zou zijn dan een Intel based of een AMD based CPU.

Het enige wat mij er echt uit lijkt te komen is dat Apple de loop gaat shorten en hun hele eigen hardware productie er tegenaan gooit, om zo het helemaal te controleren. En zo gaat de Macbook stilletjes aan uit het beeld van de professioneel verdwijnen en meer richting de Apple markt only.

Voor iemand zoals mij die veel netwerk beheer en devops doet, gaat het geen interessante keuze meer zijn. Ik kan er perfect naast zitten, dat is gewoon mijn bezorgdheid in dat hele arm-cpu verhaal van Apple.

Ik zou dit wel zien werken als een soort co-processor verhaal, ARM vervangt de T2.

[Reactie gewijzigd door Lyca op 10 juni 2020 11:14]

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee