Adobe brengt Premiere Pro- en Audition-bèta's uit voor Macs met Apple M1-soc

Adobe heeft bètaversies uitgebracht van Premiere Pro en Audition voor Arm-computers. De software draait daardoor zonder emulatie op de nieuwe Mac-computers met Apple M1-chip. De Arm-versies missen nog wel enkele functies en bevatten verschillende bugs.

Adobe heeft zich bij de eerste bètaversies gericht op ondesteuning voor de core-functies en -workflows van Premiere Pro en Audition, zo meldt het bedrijf op zijn website. Het bedrijf voorziet de bètaversie van Premiere Pro daarnaast van ondersteuning voor videocodecs als H.264, HEVC en ProRes. Meer geavanceerde features als multicam-ondersteuning worden eveneens ondersteund in de Arm-versie van de software. Het bedrijf toont ook enkele benchmarks, waarin het prestaties vergelijkt met twee MacBook Pro-laptops met Intel-cpu.

Adobe Premiere Pro-benchmarks op Apple Mac M1
Benchmarks van Adobe Premiere Pro op een Apple MacBook Pro met M1-soc. Afbeelding via Adobe

Het bedrijf stelt zelf dat de gemiddelde gebruiker 'weinig verschil' zal zien met de x86-versie van Premiere Pro, hoewel bijbehorende software als Media Encoder en After Effects niet zonder emulatie werken op Apple M1-chips. De Apple M1-versie van Premiere kan wel met de x86-versies van Media Encoder en After Effects communiceren.

Ook plug-ins van derde partijen worden nog niet ondersteund in de videobewerkingssoftware. De Premiere Pro-bèta bevat ook verschillende bugs, waaronder een probleem die de software laat crashen wanneer een gebruiker de tool selector aanklikt via de touchbar van een Macbook Pro.

Audition biedt eveneens ondersteuning voor veel functies voor Apple M1-systemen. Ook spreekt het bedrijf van prestatieverbetering bij het uitvoeren van veel bewerkingsfuncties. De software mist nog wel ondersteuning voor onder andere MP3-bestanden en plug-ins en vst-effecten van derde partijen.

De bètasoftware is beschikbaar voor alle Creative Clouds-gebruikers met een Apple M1-systeem. Het gaat daarbij om de recent aangekondigde Apple MacBook Pro, MacBook Air en Mac Mini. Gebruikers kunnen daarnaast nog altijd de x86-versie draaien met emulatie. Eerder bracht Adobe ook een bètaversie van Photoshop uit voor Arm-apparaten. Die software werkte op Mac-computers met Apple M1-chip en Windows-apparaten met Snapdragon-soc. De Premiere Pro- en Audition-bèta's werkt vooralsnog alleen op Apple-apparaten met M1-soc.

Adobe Premiere Pro Apple M1

Door Daan van Monsjou

Nieuwsredacteur

21-12-2020 • 20:42

56

Lees meer

Reacties (56)

Sorteer op:

Weergave:

Toch indrukwekkend hoe miniem het verschil tussen de 16” MBP en de M1 13” MPB is, als je meeneemt in de overweging dat de nieuwe M1 vrijwel stil is, een stuk goedkoper is en minder energie verbruikt.

In het begin was ik huiverig voor deze transitie, maar inmiddels ben ik er wel van overtuigd dat dit veel goeds kan brengen in de toekomst!

[Reactie gewijzigd door Stein03 op 26 juli 2024 14:41]

De huidige M1 laat idd zijn potentieel zien, zelfs met Roseta 2 emulatie loopt alles nog redelijk soepel. En dat met een 10watt tdp soc incl ram en gpu!

Native software moet het nog wel doen met iets minder ontwikkelde software maar dat komt wel goed over tijd. Voorlopig blijven power users nog best bij intel cpu’s.

De vraag is dat de ‘M1X’ gaat doen in de toekomstige Macbook Pro 16”. En hoe de GPU acceleratie van een dedicated GPU zich gaat meten met Nvidia en Amd mobile GPU’s.

Ook de Ipad pro zou de M1 chip krijgen. Want wil zeggen dat die tablet zich kan meten met de snelste mobile i7 cpu’s en in de buurt komt van i9 prestaties. Wat absurd is voor een tablet natuurlijk.

Na AMD krijgt intel het zwaar te verduren en nu uit het apple kamp. Er is terug een nieuwe race aan de gang. En naast pure CPU prestaties is er ook nog de intrede van de neural engine. Ook Adobe maakt er gebruik van.

Het ziet er niet naar uit dat AMD en intel efficiëntere cpu’s dan Apple gaat maken, maar mogelijk wel krachtigere. En dan is het maar kijken of Apple ook iets kan betekenen op desktop platformen waarbij wat extra verbruik minder uitmaakt.

[Reactie gewijzigd door Coolstart op 26 juli 2024 14:41]

De huidige M1 laat idd zijn potentieel zien, zelfs met Roseta 2 emulatie loopt alles nog redelijk soepel.
Ware het niet dat Rosetta 2 helemaal geen emulatie is maar een vertaling. Heel wat anders.
En dat met een 10watt tdp soc incl ram en gpu!
1) Het betreft hier geen 10W tdp SoC. Dit is een SoC die namelijk 25W en bij sommigen zelfs 30W trekt en dat voor lange tijd. Die 10W tdp is te weinig. Dit kun je prima zelf meten middels het powermetrics commando wat in macOS zit. Deze geeft aan wat o.a. cpu, gpu en de gehele package doen (huidige stats na 1 meting op mijn M1 Mac mini die vrijwel idle draait):
ANE Power: 0 mW
DRAM Power: 100 mW
Clusters Total Power: 78 mW
GPU Power: 7 mW
Package Power: 85 mW
Dit commando werkt ook op de Intel Macs; je hebt er wel Big Sur voor nodig als ik het goed heb.
2) Zoals je op het door Apple vrijgegeven plaatje kunt zien is RAM geen onderdeel van de SoC. Het zit wel op dezelfde package als de SoC dus de verwarring hier is begrijpelijk.
3) Dat de GPU in de SoC zit is bij Intel en AMD niet anders.
Native software moet het nog wel doen met iets minder ontwikkelde software maar dat komt wel goed over tijd.
Dit is wat je noemt wollig taalgebruik: het is nietszeggende onzin. De native software is ofwel arm64 ofwel Universal 2 (=arm64 + x86_64). Je software daar naar omzetten zorgt niet ineens voor een mindere werking. In tegendeel: software start sowieso al snel op op de M1 Macs maar zodra het native is (arm64/universal) is het nog sneller omdat die hele vertaallaag (=Rosetta 2) er niet meer tussenzit. Bij een electron app als Visual Studio Code is dit echt heel goed merkbaar. Die apps starten normaliter langzamer op dan de rest maar native op de M1 is dat verschil niet meer merkbaar. De applicatie zelf is verder ook prima performant, zowel op Intel als M1 Macs dus daar ga je het verschil niet zien.

Het probleem op dit moment is het bekende kip-ei probleem. Er is nu gewoon nog niet veel software die native op de M1 draait. Ik heb echter wel gemerkt dat het tempo er goed in zit. Je ziet dat veel unix projecten naar arm64 aan het bewegen zijn (waardoor steeds meer dingen van macports, homebrew, etc. native werken) en dat ditzelfde gebeurd bij apps. Van Parallels Desktop en Docker for Mac hebben we inmiddels ook al technology previews. Microsoft heeft al een beta voor Microsoft Office en de Insiders versie van Visual Studio Code draait ook al native. Adobe heeft eerder al native versies aangekondigd en breidt dat nu dus verder uit.
Voorlopig blijven power users nog best bij intel cpu’s.
Definieer power user ;) Het is een nogal brede nietszeggende term. Er zijn inmiddels heel veel power users over op de M1 Macs waarvan een aantal zelfs hun Intel Macs niet meer gebruiken. Je onderschat enorm hoeveel er op dit moment al mogelijk is op deze M1 Macs.
De vraag is dat de ‘M1X’ gaat doen in de toekomstige Macbook Pro 16”. En hoe de GPU acceleratie van een dedicated GPU zich gaat meten met Nvidia en Amd mobile GPU’s.
Ja, de M1 is het instapmodel en dat is een doelgroep die je makkelijk over kunt zetten. Zij hebben niet zoveel rekenkracht nodig en dat is prima op te vangen met de M1. De groep die daarna volgt wordt al wat moeilijker. Dat ga je ook niet even redden met het bijschakelen van wat extra cpu en gpu cores. Hier moet de GPU ook daadwerkelijk het AMD aanbod kunnen evenaren want dat is uiteindelijk ook wat er gebruikt wordt in de modellen die het moet gaan vervangen.
Ook de Ipad pro zou de M1 chip krijgen. Want wil zeggen dat die tablet zich kan meten met de snelste mobile i7 cpu’s en in de buurt komt van i9 prestaties. Wat absurd is voor een tablet natuurlijk.
Zoals Apple inmiddels in diverse interviews heeft aangegeven: nu niet, dan niet, nooit niet. De M-serie is specifiek ontwikkelt voor desktops en laptops. Deze apparaten steken heel anders in elkaar dan de apparaten waar de A-serie voor is bedoeld (smartphones, tablets, smartwatches, set top boxes, etc.). Op een desktop/laptop heb je bijv. de use case dat je van een extern medium moet kunnen booten, die is er niet op een iPad. Daarom is zo'n iPad ook veel geslotener dan de Macs.
Na AMD krijgt intel het zwaar te verduren en nu uit het apple kamp.
Apple slaat nog geen deuk in het pakje Intel boter. Ze zijn maar een kleine speler in het grote Intel-geheel. Intels winst komt namelijk uit de serverwereld en daar speelt Apple geen enkele rol. Bovendien is Intel op diverse terreinen actief en is het dus niet volledig afhankelijk van haar CPU's. AMD zelf heeft al ervaring met ARM, ze hebben in het recente verleden zelf al eens een ARM processor gemaakt.
En dan is het maar kijken of Apple ook iets kan betekenen op desktop platformen waarbij wat extra verbruik minder uitmaakt.
Apple heeft ARM niet gekozen vanwege het verbruik, dat was vroeger zo toen ze op zoek waren naar een energiezuinige processor voor de Newton. De reden waarom Apple nu ARM heeft gekozen is exact hetzelfde waarom Amazon er voor heeft gekozen: waar anderen je een product leveren, kun je bij ARM een licentie nemen op hun technologie en zodoende je eigen product ontwikkelen. Die aanpak zorgt ervoor dat je een SoC kunt ontwerpen die specifiek is voor wat jij er mee voor ogen hebt. Zie dit artikel: AWS Graviton Marks the Emergence of ARM for Cloud Native Workloads. Die laat ook meteen zien dat het prijs argument hier ook al niet opgaat.

In tegenstelling tot wat velen denken is de energiezuinigheid van ARM helemaal geen doel geweest (bron: How an obscure British PC maker invented ARM and changed the world). Ze bouwden een eigen chip voor hun desktopcomputer nadat ze niets hadden vernomen van Intel. Daar kwamen ze stomtoevallig achter dat het ding weinig warmte genereerde en weinig verbruik had. Die energiezuinigheid is dus een bijproduct. Als je alleen maar naar dit aspect kijkt dan doe je ARM echt geen eer aan. Hun technologie is tot veel meer dan dat alleen in staat. Daarom is het ook niet zo heel raar dat die M1 overal zo goed scoort.

[Reactie gewijzigd door ppl op 26 juli 2024 14:41]

De iPad Pro gaat geen M1 chip krijgen. Ik heb dat nog nergens gezien en het is ook nergens voor nodig. De chip is te groot voor de iPad en daarnaast worden er dingen ondersteund in de chip (zoals Virtualisatie) die Apple helemaal niet op i(Pad)OS wil. Daarnaast zijn de A-serie chips gewoon redelijk hetzelfde, maar iets meer geschikt voor de dunnere behuizing.

Apple zal zich prima gaan kunnen meten met Intel en AMD. De reden is simpel, Apple’s processoren zijn zo zuinig en lekken zo weinig warmte dat ze, veel minder dan Intel en AMD last gaan hebben van diminishing returns als er meer cores worden toegevoegd. Apple heeft al een van de snelste cores met de M1, daar kunnen ze er waarschijnlijk gewoon een aantal van bijplakken zonder dat de kloksnelheid omlaag moet. Waarschijnlijk geldt hetzelfde grotendeels voor de GPU, al zullen ze daar nog wat wijzigingen door moeten voeren om echt de snelste te kunnen worden.
Het ging over de iPad Pro, niet de Mac Pro ;)
De M1 heeft een veel te hoge TDP (15 Watt) voor een iPad Pro, waar je in piekvermogen niet eens boven de helft van dat vermogen wil gaan.

Apple zal uiteraard zijn A en M processoren rond dezelfde basis blijven bouwen, maar het zullen chips blijven met aparte doelstellingen/gebruiksscenario's.
De M1 in de Macbook Air is exact dezelfde als in de Mac Mini, maar met 1 GPU-core inactief. Maar het is dezelfde Soc-die, die aan exact dezelfde frequenties functioneert (tot hij begint te throttlen).

Een A14 heeft niet alleen minder CPU en GPU cores, maar ook de memory bus is maar 64bit ipv 128bit bij de M1 en de L2 cache van de A14 is kleiner. Verder is de T2 chip geïntegreerd (SDD controller, video encoding/decoding, encryptie/decriptie, secure enclave...) in de M1, er is geen equivalent in de A14...

Dus ja, de CPU en GPU cores zijn dezelfde, in andere aantallen, maar de opbouw van de Soc-die is toch wel aardig anders.

Uiteraard zal Apple de opbouw van CPU en GPU cores tussen de A- en M- cores zoveel mogelijk gelijk willen houden, maar dat betekent zeker niet dat we nu plots M-chips gaan zin in iPads. Daarvoor zijn de thermische constraints en mogelijkheden van een laptop en een tablet te verschillend.
Pas op met dat extra verbruik op desktop, vroeger was dat ook bij servers, maar die zijn tegenwoordig ook al zuinig.
"En dat met een 10watt tdp soc incl ram en gpu! "
De TDP is 15 Watt (mogelijks 10Watt in de Macbook Air), en dat is zonder de RAM, maar wel met een aantal andere elementen die bij andere chips inderdaad on-board zitten ivm on-die, zoals bijvoorbeeld de SDD controller.
Idd. Heel indrukwekkend. Ik ben heel erg benieuwd waarmee de 16” mbp gaat uitgerust worden en hoe dit zal presteren.
Het is inderdaad indrukwekkend en dan ook nog meegenomen dat dit de eerste versie is. Uiteraard hebben ze wel veel ervaring opgebouwd met de iPad en iPhone chips maar dit is wel nog een stapje verder. Verder is het goed om te zien dat veel software inmiddels geoptimaliseerd is voor de M1, dat geeft me veel vertrouwen dat in 2021 heel veel software klaar is voor M1. Ik heb inmiddels een week of 3 de MacBook Pro M1 en ervaar nauwelijks problemen. Ook de software die via Rosseta2 loopt draait prima.
Wie weet wordt Apple's M1 niet binnen afzienbare tijd gewoon van z'n sokken geblazen door een Risc-V variant. En wat gaat de meerkost worden van het gegeven dat elke fabrikant terug met z'n eigen cpu's gaat werken? We hebben dat tot de jaren 90 meegemaakt - dat was duur, en zorgde voor veel problemen bij het koppelen van systemen. Voor u 't weet zit u terug opgesloten. Dat wil u niet - en dus is Risc-V interessant, dus is x86 interessant. Over ARM heb ik een andere mening, vooral omdat elke fabrikant daar te veel z'n eigen zin kan doen.
Het pc-platform is net groot geworden door de openheid - en zie maar wat IBM er na de PS2 van gebakken heeft - die wilden ook terug naar payware, en licenties nemen, en afpersen.
Juich niet te snel om die m1 die zogezegd beter is (men koopt gewoon de capaciteit op bij TSMC - de dag dat TSMC denkt, wij gaan in zee met Intel of AMD en dat is lucratiever - dan heeft Apple een probleem - er is dan enkel nog Sam Sung). Vroeg of laat zit Apple in de rats.
Wie weet wordt Apple's M1 niet binnen afzienbare tijd gewoon van z'n sokken geblazen door een Risc-V variant.
Dat zou nog wel eens even kunnen duren, ARM is al veel verder ontwikkeld en heeft dat gedaan op de rug van oa. Smartphone, tablets en mini boards. Waar haal je die Risc-V inhaal slag vandaan? Er zijn momenteel geen producten die een dergelijke 'standaard' breed geaccepteerd krijgen.

Hoogstens dat dit een ontwikkelpunt wordt voor de server markt en dan specifiek cloud providers die diensten aanbieden die niet op x86 hoeven te draaien. Maar dat probeert ARM ook al heel wat jaartjes, maar is slechts beperkt geadopteerd: https://www.mininodes.com/arm-server-update-fall-2020/
RISC-V chips worden veel voor embedded toepassingen ingezet, dus die investeringen zijn en komen er heus wel. Maar net zoals ARM tijd nodig had om op het huidige niveau van prestaties te arriveren, zal dat bij RISC-V ook het geval zijn.

Alleen is er binnenkort al een desktopbord van SiFive beschikbaar, dat weliswaar niet al te krachtig is, maar wel degelijk gebruikt kan worden om software voor RISC-V te draaien en te ontwikkelen. Bij ARM heeft dat in dit decennium allemaal wat langer geduurd.
Probleem is dat dat bord erg duur is en RISC-V op dit moment nog erg niche.
ARM had het afgelopen decennium al wel dat het in telefoons en tablets zat, waardoor het wel interessant en noodzakelijk was om daar (open source) ontwikkeling voor te doen.
Hoe veel van de open source projecten zijn al RISC-V compatibel? En hoeveel zijn daarvan geoptimaliseerd? (Denk aan SIMD intrinsics gebruiken om inner loops te vectoriseren)?
Als het enkel in embedded cores gaat komen (vanwege lage licentiekosten), dan verwacht ik niet dat het op de desktop of mobiel een kans gaat maken.
(Ik zou ook verwachten dat als Apple RISC-V als toekomst zou hebben gezien voor de Mac, ze dat gedaan hadden. Ze willen natuurlijk niet binnen 3 jaar weer om...)
RISC-V wordt erg veel voor embedded toepassingen gebruikt, dus daar wordt het ook steeds interessanter om aan native ontwikkeling te kunnen doen. Dat bord vind ik ook nog relatief duur, maar je krijgt er best aardig wat voor terug en ook in vergelijking met de HiFive Unleashed van 2018 liggen de kosten weer een stuk lager. Over een of twee generaties schaf ik er waarschijnlijk een aan, terwijl ik het voor nu met QEMU af kan.

Het grootste gedeelte van de packages in bijvoorbeeld Debian, Fedora en OpenSUSE werkt inmiddels. Aangezien RISC-V geen SIMD heeft, maar alleen vectorinstructies die nog in geen enkele chip zijn geïmplementeerd, is dat wel een punt waar voorlopig nog een flinke achterstand zal bestaan. Maar dat is het punt helemaal niet. Het bestaan van een bord waarmee je een desktop kunt bouwen is al een hele verbetering ten opzichte van de huidige situatie.

ARM is na een begin in de jaren 80 in desktops ook verder gegroeid in embedded chips voordat het in mobiel en uiteindelijk weer op de desktop is terechtgekomen. Naarmate meer extensies vrijgegeven worden en geïmplementeerd worden in chips, zullen die ook geschikter worden voor andere toepassingen. Maar voorlopig is het gebruik in accelerators een markt waar voor RISC-V chips veel marktaandeel te behalen valt.

Eigenlijk is wat Apple doet, niet zo relevant voor de computerindustrie als geheel, hoewel ik wel verwacht dat Apple marktaandeel af gaat snoepen van Wintel machines, omdat je vrij veel waar voor je geld krijgt.
RISC-V wordt erg veel voor embedded toepassingen gebruikt, dus daar wordt het ook steeds interessanter om aan native ontwikkeling te kunnen doen.
Wat is veel? RISC-V bestaat net 10 jaar. In hoeveel embedded toepassingen wordt het dan al gebruikt?
Juist embedded is behoudend.
En welke ontwikkeling doe je op een desktop zodat dat native moet?
Ik werk zelf met een embedded DSP core in een autoradio.
We ontwikkelen de firmware op een desktop, maar testen moet toch echt op een echt device...
Eigenlijk is wat Apple doet, niet zo relevant voor de computerindustrie als geheel, hoewel ik wel verwacht dat Apple marktaandeel af gaat snoepen van Wintel machines, omdat je vrij veel waar voor je geld krijgt.
Ik denk dat je je daar in kunt vergissen.
Voor de meeste mensen is de ISA niet echt interessant en als mensen zien dat Apple computers kan maken die beter performen en veel langer op een accu kunnen werken, zal dat een verwachting wekken in de PC wereld. Microsoft is ook al jaren bezig met ARM maar werd gehinderd door het niet beschikbaar zijn van leuke cores.

Wat je ook zal zien is dat precies wat je zegt over een RISC-V ontwikkelplatform voor developers, het beschikbaar zijn van leuke laptops en desktops met een ARM processor, de ARM server zal aanjagen. De meeste cloud providers zijn bezig met ARM servers.
Developers die een kekke Apple MBP kunnen gebruiken om daar een VM met Linux op te draaien voor ontwikkeling geeft een boost aan ARM servers.
De meeste winst maken Intel en AMD op de serverproducten, dus dat zal wel invloed gaan hebben.
Je hebt verschillende soorten embedded. Western Digital gebruikt RISC-V voor zijn schijfcontrollers, Huami voor fitnessaccessoires, Sipeed voor goedkope AI borden en zo zijn er nog veel meer bedrijven die nu al gebruik maken van RISC-V cores voor productiedoeleinden.
Voor de meeste mensen is de ISA niet echt interessant en als mensen zien dat Apple computers kan maken die beter performen en veel langer op een accu kunnen werken, zal dat een verwachting wekken in de PC wereld.
Dat is een prima ontwikkeling voor degenen die daar behoefte aan hebben en ik verwacht dat Microsoft nog een paar tandjes gaat bijschakelen om soortgelijke prestaties te kunnen leveren op snellere ARM hardware. Maar beide bedrijven zullen nooit de gehele markt kunnen bedienen en dan is het handig om alternatieven te hebben.

Zelf vind ik Linux en BSD veel fijner om mee te ontwikkelen dan Windows en macOS, alhoewel deze laatste me wel iets meer kan bekoren. Ik zou dan ook eerder gaan voor iets als een Honeycomb LX2K bord, maar ook daar verwacht ik een opvolger gebaseerd op een chip met Neoverse N1 en later N2 cores. Wat mij betreft gaat het de komende jaren tussen ARM en x86 met RISC-V als outsider om over een aantal jaar ook een grotere rol te gaan spelen.
Je hebt verschillende soorten embedded. Western Digital gebruikt RISC-V voor zijn schijfcontrollers, Huami voor fitnessaccessoires, Sipeed voor goedkope AI borden en zo zijn er nog veel meer bedrijven die nu al gebruik maken van RISC-V cores voor productiedoeleinden.
Dit lijken allemaal microcontroller achtige zaken. Kleine core, met de bedoeling dat het goedkoop is in licentiegeld en silicon resources.
Absoluut niet iets wat in de buurt komt van een dikke ARM ISA core 'van de sokken blaast' zoals mutley69 verwacht.
Dat is een prima ontwikkeling voor degenen die daar behoefte aan hebben en ik verwacht dat Microsoft nog een paar tandjes gaat bijschakelen om soortgelijke prestaties te kunnen leveren op snellere ARM hardware. Maar beide bedrijven zullen nooit de gehele markt kunnen bedienen en dan is het handig om alternatieven te hebben.
Microsoft is in deze de leverancier van het OS. Dat ze ook zelf hardware leveren is bijzaak.
Er zijn op dit moment 2 desktop OS'en: Windows, dan op grote afstand macOS (en dan op grote afstand Linux). Als Apple kan laten zien dat zij met een ARM een betere PC kunnen maken dan de PC fabrikanten met Intel/AMD x86_64, dan zullen mensen dezelfde performance (of accuduur) ook in hun Windows PC willen.
Zelf vind ik Linux en BSD veel fijner om mee te ontwikkelen dan Windows en macOS, alhoewel deze laatste me wel iets meer kan bekoren. Ik zou dan ook eerder gaan voor iets als een Honeycomb LX2K bord, maar ook daar verwacht ik een opvolger gebaseerd op een chip met Neoverse N1 en later N2 cores. Wat mij betreft gaat het de komende jaren tussen ARM en x86 met RISC-V als outsider om over een aantal jaar ook een grotere rol te gaan spelen.
Ik verwacht ook dat het tussen ARM en x86_64 zal gaan, waarbij ik verwacht dat ARM nog flink zal groeien, gezien de volumes in de mobiele markt. Ik verwacht dat RISC-V een outsider blijft die enkel in kleine embedded systeempjes blijft.
Je ziet nu al dat mensen vasthouden aan x86 op de desktop (Windows op ARM is (nog) niet echt een succes en er zijn mensen die niet Windows op x86 een nadeel vinden van de nieuwe M1 Macs), omgekeerd heeft x86 het niet gehaald in de telefoon en tablet.
Pas als RISC-V een high-end, high-volume markt weet te overtuigen (Zoiets als: "Android 13 is enkel RISC-V en oude apps worden omgezet via een 'Rosetta' achtige laag"), dan zie ik een kans voor RISC-V cores met leuke performance. Wie gaat daar anders de ontwikkelkosten voor betalen?
Risc-V vs Apple M1 zou ik graag wel eens peer reviewed willen zien, want dat is te mooi om waar te zijn voor zo'n klein bedrijf.
Als Risc-V inderdaad zo snel was vraag ik mij oprecht af waarom dat bedrijf niet als is opgekocht door Amazon/Microsoft/Google/Alibaba of andere grote tent.

Ik denk overigens niet dat Apple in de rats zal zitten met TSMC mocht deze willen overstappen, TSMC is simpelweg verplicht capaciteit te leveren aan Apple, voor nu en voor vele jaren. Mocht TSMC er echt uit willen stappen kan dat als het contract is afgelopen en Apple en TSMC hebben dat uiteraard zo afgesproken dat Apple voldoende tijd zal hebben om zelf iets op te zetten of naar een andere leverancier toe te gaan, dat is gewoon business as usual en niets bijzonders.
Wat bedoel je met 'zo'n klein bedrijf'?

RISC-V is een architectuur net zoals ARM, beide gebaseerd op RISC principes. RISC-V is ontwikkeld door de universiteit van California, en is een open source architectuur. Welk bedrijf zou er opgekocht moeten worden dan?

Of bedoel je de foundation waar leden als Nvidia, Alibaba, Google, IBM, Samsung, Huawei, Western Digital, Hitachi, Infinion, Microchip en meer lid van zijn? Te vergelijken met de ARM Foundation toch?

[Reactie gewijzigd door kluyze op 26 juli 2024 14:41]

Uit de bewoording had ik eigenlijk begrepen dat @mutley69 wellicht refereerde aan deze publicatie : https://arstechnica.com/g...ing-performance-per-watt/

Vandaar dat ik het over 'zo'n klein bedrijf' had.
Wie weet wordt Apple's M1 niet binnen afzienbare tijd gewoon van z'n sokken geblazen door een Risc-V variant.
Zozo... en wie gaat (of beter gezegd: kan) dat organiseren (bekostigen) dan? Wie zou daar zo veel belang bij hebben en tevens een eco-systeem bestaande uit hard/ en software hebben wat daar de vruchten van zou kunnen plukken?

Google (dat ze helemaal Risc-V gaan voor hun chromebooks)?

Of Amazon voor hun eigen servers?

Oracle wellicht?

Ben benieuwd welke partij jij zou kunnen noemen, maar eerlijk gezegd denk ik dat niemand ter wereld succesvol een dergelijke transitie kan doen dan Apple. En dat al voor de tweede derde keer zelfs!

Risc-V is leuk, maar vooral voorbestemd een niche leven te leiden. Daar is het simpel weg veel te open voor. Als een ‘grote jongen’ er iets mee gaat doen, dan zou het sowieso een eigen implementatie worden, hetgeen versnippering in de hand werkt.

edit: Inderdaad: 68000 -> Power architectuur helemaal over het hoofd gezien!

[Reactie gewijzigd door OCU-Macs op 26 juli 2024 14:41]

Ben benieuwd welke partij jij zou kunnen noemen, maar eerlijk gezegd denk ik dat niemand ter wereld succesvol een dergelijke transitie kan doen dan Apple. En dat al voor de tweede keer zelfs!
Misschien zelfs de derde keer?
- 68k => PowerPC
- PowerPC => x86
- x86 => ARM
AMD kan dat. Kijk maar naar verleden CEO ;)

Of ze het gaan doen is een ander verhaal. :Y)
Ben benieuwd welke partij jij zou kunnen noemen, maar eerlijk gezegd denk ik dat niemand ter wereld succesvol een dergelijke transitie kan doen dan Apple. En dat al voor de tweede keer zelfs!
Volgens mij ben je nog erg jong, want anders had je wel geweten dat het voor Apple al de derde keer was. Eerst 68K naar PowerPC, daarna PowerPC naar x86 en nu x86 naar ARM.
Hu? Volgens mij zit x86 redelijk vast door het licentiemodel. Er is juist op de andere architecturen wel vrij spel voor fabrikanten om chips te ontwikkelen. Ben wel benieuwd hoe een fabrikant z'n eigen wil kan dan op een architectuur/instructieset ;-).
Het pc-platform is net groot geworden door de openheid - en zie maar wat IBM er na de PS2 van gebakken heeft - die wilden ook terug naar payware, en licenties nemen, en afpersen.
Het PC platform is jaren lang gedomineerd door Wintel. Dankzij AMD is MS nu de dominante kracht op het PC platform; Unix varianten tellen niet of nauwelijks mee-die zijn dankzij arm op mobiele systemen groot geworden.
De ontwikkelingen op het gebied van RISC-V zijn inderdaad erg interessant en hoopgevend. Ik voorzie wel dat ARM en RISC-V langere tijd samen op de markt zullen blijven bestaan, totdat RISC-V chips krachtig genoeg zijn om te kunnen concurreren voor zwaardere workloads.

Verder zie ik vooral een rol weggelegd voor RISC-V in combinatie met open source besturingssystemen, waar ARM voornamelijk voor closed source besturingssystemen gekozen zal worden naast de open source besturingssystemen die al op de verscheidene chips draaien.

De M1 is wel interessant, maar minder voor gebruikers van open source besturingssystemen dan voor macOS gebruikers, die straks niet echt meer een keuze hebben voor iets anders.
Verder zie ik vooral een rol weggelegd voor RISC-V in combinatie met open source besturingssystemen,
Probleem is dat 'open source besturingssystemen' het op de desktop niet goed doen.
Het aandeel Linux en *BSD is enkele procenten. En de meesten daarvan zullen ofwel dualbooten, ofwel draaien op PC/Mac hardware die origineel bedoeld was voor MS Windows of Apple Mac.

Linux is groot in servers en als kernel onder Android (Maar gezien Google's project Fuchsia, voor hoe lang nog?)
Maar vraag is wie RISC-V desktop en server processoren wil maken?
Terwijl voor de desktop dus geen markt is (want geen dual boot en ook geen Windows games. Er was commentaar toen Apple naar ARM ging voor de Mac, 'want je kunt niet dual booten', zoals je zelf ook al opmerkt) en servers al helemaal een niche zijn, waarbij de potentieele spelers nu al zelf ARM processoren maken (bijvoorbeeld Amazon)).
Ik weet niet of een gewone gebruikersdesktop op basis van RISC-V nu al zo belangrijk is. Zolang een ontwikkelaar maar native kan ontwikkelen voor embedded targets (draaiend op open source beturingssystemen), is het voorlopig goed genoeg. Mocht het ooit aanslaan op de gewone gebruikersdesktop, dan is dat een leuke bijkomstigheid. Ik denk dat we ook af moeten van het idee dat iedere chip een doorslaand succes moet worden op de desktop en dat er ruimte is voor meerdere architecturen in de markt.

Esperanto Technologies is een van de bedrijven die RISC-V serverprocessoren maakt en er zullen er in de toekomst meerdere volgen. En ook China en India zetten vol in op RISC-V, hebben mensen van SiFive me verteld. Of die chips dan kunnen concurreren met ARM, x86 en POWER chips is een andere vraag, maar ik heb er wel vertrouwen in.

Het belangrijkste is dat er keuze is en die hebben we heel lang niet gehad op de markt. Overstappen op eigen chips die de ARM instructieset implementeren is voor Apple de juiste keuze op het juiste moment, maar Apple zal nooit de gehele markt kunnen bedienen, net zoals ieder ander bedrijf dat niet zal kunnen doen.
Ik weet niet of een gewone gebruikersdesktop op basis van RISC-V nu al zo belangrijk is.
Dat was wel het statement van mutley69:
Wie weet wordt Apple's M1 niet binnen afzienbare tijd gewoon van z'n sokken geblazen door een Risc-V variant.
Waarom zou je een dikke core nodig hebben behalve voor een desktop of server?
En voor een embedded systeempje is low-cost en/of low-power veel belangrijker.
De reden dat Apple afgestapt is van de PowerPC is dat Motorola zich meer ging richten op de embedded markt met de G4 en IBM enkel een afgeslankte POWER variant had in de G5.
Er was geen zicht op low-power, high performance PowerPC varianten, dus is Apple de Intel Core processoren gaan gebruiken.
En een probleem blijft dat als een core niet wijds gebruikt wordt voor 'zware' toepassingen, er ook geen leuke snelle cores komen en uitgebreide optimalisaties plaats zullen vinden voor een architectuur.
Of die chips dan kunnen concurreren met ARM, x86 en POWER chips is een andere vraag, maar ik heb er wel vertrouwen in.
Dat gaat enkel gebeuren als bedrijven een markt zien om een high-end core af te kunnen zetten.
Waarom zou je er anders (veel) geld in gaan investeren?
ARM is niet gratis, maar het zelf ontwikkelen van een RISC-V core is absoluut niet goedkoop, zeker niet als deze high-end moet worden.
Het belangrijkste is dat er keuze is en die hebben we heel lang niet gehad op de markt.
Klopt. Er was keuze (o.a. Alpha, MIPS, POWER, SPARC en niet-Intel x86), maar die konden niet opboksen tegen de aantallen die de x86 markt kon verkopen (en dan voornamelijk Intel) met de daarbij horende omzet en winst.
AMD is nu voornamelijk terug omdat Intel nog steeds op 14 nm zit.
Open standaard wil ook niet echt garanderen dat iets een succes wordt, MIPS, POWER en SPARC zijn ondertussen open, maar nog steeds geen succes.
Er zijn nu 2 gebruikers ISA's die aantallen maken: x86 en ARM. ARM heeft de grootste markt voor higher end in de telefoon en tablet markt en zal zoals de groei daar nu is qua performance (maar tegelijkertijd zuinig) een goede kans maken om x86 te onttronen.
Grote volumes geven veel invloed en leveren veel geld op.
Ik vraag me af welke markt RISC-V dan gaat bedienen die grote volumes met goede marges gaat opleveren die niet compatibel hoeft te zijn met ofwel x86, ofwel ARM.
Klopt. Er was keuze (o.a. Alpha, MIPS, POWER, SPARC en niet-Intel x86), maar die konden niet opboksen tegen de aantallen die de x86 markt kon verkopen (en dan voornamelijk Intel) met de daarbij horende omzet en winst.
Het feit dat de makers van systemen met die RISC chips niet konden concurreren was juist vanwege de aantallen x86 processoren die verkocht werden, waardoor Intel veel meer geld in het doorontwikkelen van x86 processoren kon investeren. Datzelfde scenario doet zich nu voor met ARM in de positie van x86 en x86 in de positie van de geavanceerde RISC processoren van die tijd.

Misschien uit mutley69 wel de hoop dat er systemen komen met krachtigere RISC-V processoren en die hoop deel ik met hem, maar tegelijkertijd besef ik wel dat dat nog een tijd kan gaan duren. Ik zie wat dat betreft echt meer mogelijkheden in India en China dan hier in Europa. SiFive ontwikkelt steeds snellere cores en heeft met U84 voor het eerst een out-of-order core ontworpen. Je hoeft dus helemaal geen eigen core te ontwerpen, als je daar het personeel en de middelen niet voor hebt.

Voor Windows en macOS is al dat soort hardware niet interessant, dus ik zie meer een niche voor Linux/BSD die nu bijvoorbeeld door veel duurdere POWER systemen wordt vervuld. Dat betekent niet dat die systemen geen bestaansrecht hebben, maar ze zullen net zoals ARM desktopsystemen 10 jaar geleden niet echt gangbaar zijn zoals ze dat tegenwoordig relatief gezien wel zijn.

Ik draai nu een volledige Linux/RISC-V desktop in QEMU en zal die in de toekomst graag op echte hardware willen draaien, zodra die een beetje goed presteert. De HiFive Unmatched is nog een beetje zwak qua processorprestaties, maar een U74 core is niet slechter dan een ARM Cortex A55. Bovendien denk ik dat het een nog maar een voorbode is van wat er in de nabije toekomst gaat komen.
Datzelfde scenario doet zich nu voor met ARM in de positie van x86 en x86 in de positie van de geavanceerde RISC processoren van die tijd.
Precies wat ik bedoel. Ik zie echter niet in dat RISC-V daar enige kans maakt.
Je hoeft dus helemaal geen eigen core te ontwerpen, als je daar het personeel en de middelen niet voor hebt.
Klopt. Maar de bedrijven die het wel doen zullen daar dan gewoon licentiegeld voor willen hebben, net zoals dat nu bij de ARM ISA is, waarbij ofwel ARM ofwel iemand anders de core voor je ontwerpt.
Waarom zou je dan specifiek een RISC-V core willen gebruiken in plaats van een proven ARM core?
Voor Windows en macOS is al dat soort hardware niet interessant, dus ik zie meer een niche voor Linux/BSD die nu bijvoorbeeld door veel duurdere POWER systemen wordt vervuld.
De markt voor POWER is een andere die met aan zekerheid grenzende waarschijnlijkheid niet op RISC-V over zal stappen. De IBM POWER systemen zijn bedoeld voor grote systemen die ofwel IBM's eigen OS draaien ofwel Linux en heel veel CPUs, memory en storage bevatten en specifiek bedoeld zijn voor stabiliteit en lange support contracten. Niet een product wat even omschakelt naar een andere ISA.
Markt is erg klein, maar mag geld kosten.
Bovendien denk ik dat het een nog maar een voorbode is van wat er in de nabije toekomst gaat komen.
We gaan het zien...
Sinds Adobe in de cloud werkt met een abonnement ben ik over naar software uit de EU. Bijzonder om te lezen dat Adobe de markt op ARM ontwerp voor zowel Apple als Windows probeert te winnen.
That’s where the Magix happens;-)
Magix is van Capiton, beide hebben het hoofdkantoor in Duitsland, maar Capiton heeft natuurlijk investeerders over de hele wereld. Daarnaast zijn verschillende Magix producten niet van Duitse makelij, maar overgenomen van oa. Sony die weer over heeft genomen van verschillende andere bedrijven. Het heeft ook kantoren in bv. de VS, dus zou het zomaar kunnen dat de software nu ook niet Duits is. Daarnaast heeft Magix ook gewoon abo's voor hun software en gezien de trend en de huidige eigenaren is het gewoon wachten totdat ze abo only gaan.

Ik zou trouwens Magix producten niet op een lijn willen trekken met Adobe producten, daar zijn veel betere equivalente producten voor te vinden...
Het zou me dan ook niet verbazen dat het in Franse handen is uiteindelijk. En is Sony ook niet van onze oosterburen, uiteindelijk.

Edit: toevoeging oosterburen

[Reactie gewijzigd door DefaultError op 26 juli 2024 14:41]

Ik ben zelf erg tevreden met Affinity Photo
En Affinity Designer en Affinity Publisher :)
Waarom is dit zo bijzonder? Er zijn heel veel designers die graag werken met een tablet (ARM) of met een MBP ( is/word ARM). Adobe moet gewoon met de markt mee.
Uhm, sorry dat ik het niet zo 1, 2, 3 kan opzoeken, maar dit lijkt me langzamer dan Final Cut. Volgens mij is Final Cut op de M1 Macs sneller dan op de 16" intel MBP..... wie kan dit bevestigen danwel ontkrachten?
Nee Final Cut is inderdaad een stuk sneller dan Adobe Premier en Resolve op Mac. Dit was vaak op Intel Macs al zo en nu op de M1 helemaal. Hier laat Apple echt zien hoe goed alles wat ze bouwen voor de M1 geoptimaliseerd is.
Pijnlijk voor Adobe dan, maar goed voor innovatie en productiviteit :). Zelf prima tevreden met Resolve trouwens, voor iemand die af en toe wat edit. Fijne tijden.
Mwa ik denk dat het Adobe weinig interesseert. Adobe software heeft altijd bugs en issues gehad. Als je eens kijkt naar LTT waar Premier bijvoorbeeld meerdere keren in een dag crashed enzo.

Ik gebruik zelf sinds kort ook Davinci Resolve. Eerst lange tijd Final Cut Pro gebruikt maar vind Davinci Resolve ook super goed werken. Heb vooral voor Resolve gekozen omdat ik er externe export server mee kan opzetten en niet op mn MacBook Pro hoef te exporteren.
Final Cut gaat met updates van het OS mee en is al lang niet meer een pakket waar je nog op terug kunt vallen. Het werkt wel prima. Voorbeeld is: als je systeem opnieuw van OS voorzien moet worden dan raak je Final Cut kwijt. Na verloop van tijd raakt ook een nieuwe pc door vernieuwing van het OS verouderd. Behalve als je het installatie pakket zelf kunt downloaden , of op dvd/cd hebt, en zelf kunt installeren. Final Cut blijft ondanks de betaling altijd van Apple.
M1X met 24W tdp kan een superkomputer zijn, maar dan in een normale woning
We hebben al super computers in woningen, het ligt er echter aan waarmee je dat vergelijkt. Mijn 8 core 4800U is veel krachtiger dan de Siemens super computer die ze vroeger bij mijn vader op het werk hadden, maar dat is 30-40 jaar geleden...

Echter een M1X 24W in huis zou nog steeds geen supercomputer zijn ivm. de huidige situatie. Het verschil is nog steeds astronomisch met huidige 'supercomputers' en ook al zou er over 10 jaar eentje uitkomen die dat wel is, dan nog zou men er een veel grotere cluster van bouwen die bestaat uit duizenden van die CPUs...

Jou standpunt gaat kaput! ;-)
Waarschijnlijk zitten er minder bugs in deze arm versie dan in de x86 versie... Nee dit is geen serieuze comment, maar het zou me niet verbazen als het waar is.
Beta's? Alle software daar komt volgens mij niet uit beta...Bij Adobe zijn end-users de betatesters...

Op dit item kan niet meer gereageerd worden.