Arm-overname door Nvidia gaat definitief niet door

De verkoop van de Britse chipontwerper Arm aan Nvidia gaat definitief niet door. Dat schrijven SoftBank, de huidige eigenaar van Arm, en Nvidia. Met de overname was zo'n 40 miljard dollar gemoeid. De bedrijven kondigden de geplande overname aan in 2020.

SoftBank schrijft in het kwartaalbericht dat de overname definitief van tafel is en Nvidia bevestigt dat in een persbericht. SoftBank en Nvidia hebben besloten van de overname af te zien vanwege 'significante regulatoire uitdagingen' die de verkoop in de weg staan. SoftBank houdt een borgsom over van 937 miljoen dollar. Met de koop was zo'n 40 miljard dollar gemoeid.

SoftBank is sinds juli 2020 van plan geweest om Arm te verkopen, waarna volgens verschillende media Nvidia vrij snel interesse toonde in Arm. In september 2020 werd bekend dat Nvidia een akkoord bereikt had met SoftBank over de overname. Nvidia zou Arm overnemen voor 40 miljard dollar, waarvan 21,5 miljard dollar in aandelen en 12 miljard dollar contant. Ook zou SoftBank nog eens 5 miljard krijgen als Arm positieve resultaten zou behalen.

Overname Arm van tafel
SoftBank in het kwartaalbericht over de overname

De overname kon snel rekenen op kritiek van verschillende regulerende instanties. Zo schreef Bloomberg in oktober 2020 dat de Chinese overheid de overname van Arm feitelijk blokkeerde door strenge voorwaarden te stellen aan de overname. In 2021 kondigde zowel de Europese Commissie, als de Britse overheid aan de overname verder te gaan onderzoeken, omdat de overname invloed zou hebben op chipprijzen en concurrentie. De Amerikaanse marktwaakhond FTC startte zelfs een rechtszaak om de overname te blokkeren.

Door alle kritiek ging het gerucht al rond dat de overname niet door zou gaan. Dat zou Nvidia in januari aan partners hebben verteld. In het kwartaalbericht dat SoftBank vandaag gepubliceerd heeft, staat dat de verkoop officieel afgebroken is. Bronnen zeggen tegenover de Financial Times dat SoftBank Arm naar de beurs gaat brengen in Londen of New York. De Financial Times schrijft daarnaast dat Arm-ceo Simon Segars vervangen wordt door Rene Haas, de huidige directeur van de afdeling van Arm die gaat over intellectueel eigendom.

Update 08:50 - De bevestiging van Nvidia toegevoegd.

Door Stephan Vegelien

Redacteur

08-02-2022 • 08:10

129

Lees meer

Reacties (129)

129
129
50
6
0
67
Wijzig sortering
Kan Nvidia ARM straks niet gewoon van de beurs afplukken door daar alle aandelen op te kopen(of toch in ieder geval veel invloed kopen)?
Dan lopen ze weer tegen de zelfde problemen aan als nu.
En dat mag dus juist niet. Als je als bedrijf zijnde boven een x percentage aandelen wilt kopen, moet je dat dus doorgeven aan regelgevende instanties. En daar zijn ze best streng in en brengt voor potentiele kopers best wel wat risico's met zich mee.
Als 1 bedrijf dat doet is er in de VS een probleem, als dat ene bedrijf een dochter onderneming maakt en daar de rest mee koopt is er geen vuiltje aan de lucht.

op die manier zijn een paar bedrijven black rock ed eigenaar van zo wat heel de wereld.
Grote bedrijven hebben helaas een heel leger aan juristen om zoveel mogelijk wetten en regels te omzeilen helaas. Ook zijn sommige bedrijven zo groot dat ze landen kunnen chanteren (FB anyone?)

Dus het is een kat en muis spel en in dit geval is het gelukkig goed gekomen.
Softbank wil het kwijt en het kan veel erger dan nvidia. Oracle of zo.
Dit is goed nieuws op de vroege ochtend!

Ik geloof dat ARM noodzakelijk is om het archaïsche X86 op korte termijn eindelijk vaarwel te kunnen zeggen. (Met Risc-V zou dat ook wel lukken maar dat heeft een achterstand van enkele jaren.)
Het moet daarom beschikbaar zijn voor iedereen. Nvidia heeft in het verleden regelmatig twijfelachtig gehandeld, niet perse reviewers dreigen te blacklisten maar denk aan het partner program. Vanuit dat perspectief wil je niet die partij als gatekeeper hebben voor de technologie waar over 10 jaar alle relevante computer processors mee werken.
Bij processors mag je traditioneel Bij processors geïntegreerd in systemen mag je traditioneel maximaal 2 van de 3 onderdelen kiezen: prijs, prestaties, warmteontwikkeling/accuduur. Apple laat met hun ARM processors zien dat het geen keuze hoeft te zijn. Ik verwacht dat andere fabrikanten soortgelijke ontwerpen kunnen laten zien in een paar jaar.

Gelukkig denken overheden en andere organisaties er ook zo over en lijkt ARM vooralsnog onafhankelijk te blijven!

[Reactie gewijzigd door Faust op 24 juli 2024 19:56]

Anoniem: 392841 @Faust8 februari 2022 08:29
ARM-technologie is goed, maar vooralsnog levert het niet dezelfde piek-prestaties als x86. Het is beter en efficienter bij regulier gebruik, maar als je zware programmas gaat draaien, blijft vooralsnog x86 te prefereren.
Ik blijf die enorme focus van sommige mensen om x86 vaarwel te zeggen altijd apart, beide x86 en ARM kunnen prima naast elkaar bestaan, net zoals nu het geval is.

Ze hebben beide een eigen doel waar ze voor dienen, al denk ik wel dat op ten duur ARM vrij zeker x86 voor de meeste laptops wel vervangt, en dat op laptops met een specifiek doel na, ARM grootste deel overneemt zeker gezien wat Apple M1 voor elkaar heeft gekregen.

Probleem is alleen dat een bedrijf als Apple dat makkelijker voor elkaar kreeg, dan zeg maar Qualcomm of Mediatek kunnen.

[Reactie gewijzigd door Mizgala28 op 24 juli 2024 19:56]

Dat heeft er deels ook wel mee te maken dat we eigenlijk al sinds de jaren '70 werken met x86 architectuur en de rek daar inmiddels ook wel uit lijkt te zijn. Intel lijkt daarmee de markt/innovatie te sturen, daar waar AMD er met moeite bij geraakt of met een andere visie. ARM of RISC is dan ook interessant omdat het wel eens een serieuze optie kan zijn om verder te kijken en zo meer innovatie te drijven. Intel had met Itanium daadwerkelijk een nieuwe architectuur in handen maar heeft deze een eenzame dood laten sterven.
Hoe bedoel je, de rek eruit? Zijn er limitaties? X86 is tegenwoordig sowieso alleen CISC bij naam, en maakt nog significante ontwikkelingen mee. Denk aan instructie uitbereidingen zoals x86-64 en recentelijk AVX512. Klopt dat het een oude architectuur is (bij naam..) en dat ARM en RISC een efficiëntere opzet hebben maar dat maakt x86 geen dood platform.
Intern is een moderne x86 ook een RISC CPU. De CISC x86 instructies worden gedecodeerd en omgezet naar iets wat intern effectief RISC is.
Dat heeft er deels ook wel mee te maken dat we eigenlijk al sinds de jaren '70 werken met x86 architectuur en de rek daar inmiddels ook wel uit lijkt te zijn
Dat roept met al zeker 30 jaar…
Was Itanium dan zo revolutionair? Ik lees op Wikipedia dat het vooral een fiasco was. Ik weet hier verder weinig over, maar wellicht kan je dit toelichten!
Voor zover ik begrepen heb was het destijds een poging om Moore’s Law te doorbreken. Men begint echt tegen de grenzen van de wet aan te lopen. Daarnaast was Itanium puur x64 en niet zoals de 64 bits CPU’s van vandaag een doorbuursel op x86 in de vorm van x86-64.

Of het echt dé doorbraak was geweest is koffiedik kijken, maar het was een andere instructieset, net zoals ARM dat is.
Ja het was in iedergeval een totaal andere architectuur.
Intel had met Itanium daadwerkelijk een nieuwe architectuur in handen maar heeft deze een eenzame dood laten sterven.
Nieuw is niet hetzelfde als beter... Er waren nogal wat praktische uitdagingen...
Komt dat niet ook deels door het feit dat veel van deze zware programma's nog niet geoptimaliseerd zijn voor ARM?
Dacht dat met de tests men specifiek ook vergelijkbare programmas met de ARM-codeset geschreven had om mee te testen als voor x86 en dat ARM gewoon niet dezelfde piek kon halen met de beste chips tov top-end x86 CPUs.

Maar misschien verandert dat later, of is de informatie (ik las het 2 jaar terug dacht ik, vergelijking tussen Apple's M1 en andere top-end ARM-chips en x86-chips?) al verouderd.

Edit: dubbelop woord

[Reactie gewijzigd door Anoniem: 392841 op 24 juli 2024 19:56]

Dacht ... gewoon ... misschien ... dacht ... ? ...
Met andere woorden: je weet het niet, je denkt het!

Ik weet het ook niet, maar ik observeer wel.

De M1 van bijna 2 jaar geleden maakt gehakt van de Intel Core i5 CPU's.
De M1 Max van afgelopen herfst is op alle punten sneller dan de laptop versie van de Intel Core i7 (bron) en is daarbij zuiniger.

Voor 90-95% van de markt heeft Apple een CPU die sneller en zuiniger is dan z'n Intel tegenhanger.

Intel heeft ook nog desktop Core i7 en i9 CPU's. Ik denk dat Apple deze in het vizier heeft voor de komende (i)Mac Pro modellen. We gaan het meemaken!
[...]
De M1 van bijna 2 jaar geleden maakt gehakt van de Intel Core i5 CPU's.
De M1 Max van afgelopen herfst is op alle punten sneller dan de laptop versie van de Intel Core i7 (bron) en is daarbij zuiniger.
Ik vind dit soort vergelijkingen altijd lastig. De chips zijn beiden voor een ander doel geschreven en dus ook voor een ander doel geoptimaliseerd. De M1 zal duidelijk voor het Apple ecosysteem zijn gebouwd, dus dat hij daar goed performed is logisch. Als dat niet zo was, dan hebben de ontwikkelaars wel heel slecht werk geleverd.
Hoe is die test waar je naar verwijst eigenlijk gedaan? Zoals ik het lees, lijkt het op een puur papieren exercitie en niet een praktische test. Dat laatste lijkt me ook erg lastig, omdat echt alles van elkaar verschilt, processor, moederbord, besturingssysteem en de daarop draaiende software. Is een verschil dan te danken aan de processor of aan het besturingssysteem wat wellicht wat lichter is, omdat een deel legacy code weg kan (omdat software die daarvan gebruik zou maken, toch niet native op M1 kan draaien).
Het is niet zo moeilijk hoor. Een cpu is gewoon een rekenmachine die bepaalde berekeningen doet en je kunt meten hoe snel dat gaat. Het is wel iets ingewikkelder maar als je de prestaties van een cpu wilt isoleren van het besturingssysteem en de rest is dat niet zo moeilijk. Het is niet alsof een basis berekening op een Mac Intel sneller of langzamer was dan op dezelfde Windows intel - als het tenminste niet afhankelijk was van besturingssysteem operaties en met gelijke instellingen qua stroom verbruik. Maar er zijn mensen die er hun werk van maken om apples met Apples te vergelijken ;-)

Je kunt inderdaad niet Apple mail op een M1 gaan vergelijken met Outlook op een 12900K en dan iets zeggen over M1 vs 12900K, zo werkt het niet. En er zijn altijd workload optimalisaties, zoals SSE/AVX die zorgen dat het niet zo zwart wit is. Maar daar heb je dan ook benchmark standaarden zoals SPEC voor - die komen als bron code die je zelf kunt compilen en optimaliseren dus dan is het echt vrijwel volledig aan de cpu zelf hoe het presteert.
M1 voor apple ecosysteem. Tot voor kort kon dat desktop ecosysteem gewoon op x86 draaien.
De M1 is ghewoon een arm based cpu met apple tweaks.
De M1 kan dus ook gewoon linux draaien. Linux kan ook op x86 draaien.

Maar deze test: https://github.com/tuhdo/...macs-tutor/zen3_vs_m1.org
Komt tot de conclusie dat M! nog niet vergelijkbaar is met Zen3.
Anoniem: 1322 @bbob8 februari 2022 15:51
Zoals iedereen hier al zegt is het vooral afhankelijk van wat je draait en of het geoptimaliseerd is. Een M1 is niet simpelweg een arm+tweaks. Er zitten dedicated encoder, decoders en 'AI' accelerators op die zullen enkel werken als de software deze aanspreekt. Heeft het nut voor jou? Dat zul je echt zelf moeten testen / controleren.

Als voorbeeld, de data die je aanbiedt is uit 2020, heel veel software is sinds die tijd geupdate en performance is mogelijk heel anders. Reddit (engineering) claimt dat het voor hun Android build times enorm heeft gescheeld. Maar conclusies trekken op basis van reviews is niet slim als je in een transitie zit. reviews zijn namelijk altijd momentopnames...
Intel heeft inmiddels wel laptop chips die op de meeste punten gelijk of sneller zijn dan de M1 Max.
https://arstechnica.com/g...ny-cores-make-light-work/

Power efficiency is echter wel een stuk hoger op de M1 - dit maakt de chip wel bijzonder.

Maar Intel is zich nu weer aan het aansluiten bij de rest. Dat duurt nog even, want ze hebben erg lang verkeerde beslissingen genomen. Met de nieuwe CEO wordt Intel weer echt een innovator.

Als een PC gamer heb ik echter weer bijzonder weinig aan Apple. Iedere keer als Apple (net doet) alsof ze serieuze games serieus gaan nemen (Intel CPU, discrete graphics), maken ze weer een grote draai. Dus het maakt geen klap uit voor mij hoe zuinig die machine is. Het is echt een waardeloze bak voor mij, en veel PC gamers met mij.
Maar Intel is zich nu weer aan het aansluiten bij de rest. Dat duurt nog even, want ze hebben erg lang verkeerde beslissingen genomen. Met de nieuwe CEO wordt Intel weer echt een innovator.
Klopt. Intel heeft jaren stilgestaan, en is z'n beloftes niet nagekomen. Dat heeft onder andere geleid tot het Intel Core i9 thermo throttle debacle van een MacBook Pro, en dat was het zetje dat Apple nodig had om over te stappen op z'n eigen chips.

Intel is nu waarschijnlijk weer op de goede weg.
Als een PC gamer heb ik echter weer bijzonder weinig aan Apple. Iedere keer als Apple (net doet) alsof ze serieuze games serieus gaan nemen (Intel CPU, discrete graphics), maken ze weer een grote draai. Dus het maakt geen klap uit voor mij hoe zuinig die machine is. Het is echt een waardeloze bak voor mij, en veel PC gamers met mij.
Als PC gamer heb je totaal niks aan macOS, ongeacht de CPU / GPU.

Als gamer maakt het helemaal niks uit wat voor CPU er in een machine zit. PC's hebben het altijd moeten doen met Intel x86 / x64, consoles hebben alles gehad, Intel, AMD, ARM, PPC, en wat er ook in zit, de spellen zijn super. Door de beperkte variatie in hardware van consoles valt er heel veel te optimaliseren.

Het is de wil van makers van games om iets uit te brengen voor pc / Mac / Xbox / PS / Nintendo. Als je een game hebt voor de pc, dan is-ie ook bijna klaar voor de Xbox. Een game voor Mac / PS / Nintendo kost meer moeite, en game makers willen geen extra moeite doen, die willen geld verdienen.
Stel je nou eens een samenwerking voor met Nintendo en Apple.
Een Nintendo Switch 2 met M1 chip.
In ruil komen alle Nintendo games ook op Apple systemen uit.

Dat zou de game wereld op z'n kop zetten.
Dat zou mooi zijn. Dat kan de redding voor Nintendo zijn, en kan Apple Arcade levensvatbaar maken.
Alsof Nintendo een redding nodig heeft, de Switch verkoopcijfers liegen er niet om!
Daarbij is zo'n M1 chip heel leuk maar wat heeft een console aan al die accelerators?
Nintendo kan dan beter een variant op de M1 chip van Apple kunnen gebruiken zonder de delen van de processor die voor games toch overbodig zijn, maar ik vermoed dat Apple geen chips zal gaan ontwerpen voor derden.
In een PlayStation zit gewoon een AMD X86-64 APU net zoals in een Xbox.
Klopt. Maar ooit zal er een Cell CPU in de Playstation, en dat is een PPC variant.
Klopt een soort big little variant.
De Xbox 360 had een Tri-core PPC Cpu.

Qua CPU performance was er amper tot geen vooruitgang tussen Xbox 350/PS3 en de Xbox one en PS4
De grootste bottleneck van de PS3 en Xbox360 was de zeer kleine hoeveelheid ram geheugen.
Wat Apple met de M1 heeft gedaan is zeker heel netjes, maar Apple loopt gewoon tegen het probleem aan dat de M1, 4 maal zo veel transistors heeft als vergelijkbare x86 versies. Dat betekend minimaal 4 maal zo duur ( minimaal, want hoe groter de chip hoe groter de kans dat er een fout op zit ). En dit bijt Apple want zij kunnen niet makkelijk nog sneller omdat ze niet makkelijk de cores bij kunnen plaatsen. Daar hebben ze dus een nieuwe node voor nodig. Daar naast is de M1 op 5nm gemaakt en de X86 concurrenten op 7nm zolang Intel en AMD niet zien dat de M1 echt marktaandeel afsnoept hebben zij geen drang om naar 5nm te gaan, wat de watt per performance behoorlijk verbeterd.

[Reactie gewijzigd door amigob2 op 24 juli 2024 19:56]

Wat Apple met de M1 heeft gedaan is zeker heel netjes, maar Apple loopt gewoon tegen het probleem aan dat de M1, 4 maal zo veel transistors heeft als vergelijkbare x86 versies.
De M1 is een SoC, bestaande uit CPU, GPU, RAM en nog wat zaken. Intel maakt CPU's (met een basic GPU) zonder RAM.
Dat betekend minimaal 4 maal zo duur ( minimaal, want hoe groter de chip hoe groter de kans dat er een fout op zit ). En dit bijt Apple want zij kunnen niet makkelijk nog sneller omdat ze niet makkelijk de cores bij kunnen plaatsen. Daar hebben ze dus een nieuwe node voor nodig. Daar naast is de M1 op 5nm gemaakt en de X86 concurrenten op 7nm zolang Intel en AMD niet zien dat de M1 echt marktaandeel afsnoept hebben zij geen drang om naar 5nm te gaan, wat de watt per performance behoorlijk verbeterd.
De M1 wordt op 5nm gebakken, de meeste Intel CPU's op 10nm (AMD bakt al wel op 7nm). Dat houdt in dat een M1 met 4x zoveel transistors net zoveel ruimte inneemt als een vergelijkbare Intel CPU.

Er verhuizen steeds meer zaken naar de cloud. Als iets in de cloud staat, dan maakt het niet uit wat je op je desktop of laptop hebt draaien, als je maar een browser hebt. Mac of pc of ChromeBook, het maakt niet uit. In het x64 kamp heeft Intel last van AMD, de x64 dominantie op de desktop heeft last van mobiele OS-en, die allemaal op ARM draaien.

In het rekencentrum, waar meer rekenkracht betekent dat er een zwaardere airco nodig is, komt ook steeds meer ARM.

AMD en Intel krijgen vanzelf de behoefte (noodzaak) om zuiniger CPU's te maken.
AMD zit op 7nm DUV praktisch twee nodes achter 5nm EUV. De 8 core+SMT Ryzen APUs zouden op hetzelfde proces even groot zijn als de 4+4 Big Little M1. De Max/Pro zijn helemaal gigantisch.

Apple's grote voordeel is dat ze veel hogere marges hebben, ze hoeven per mm2 niet concurrerend te zijn en ze kunnen veel duurdere nodes betalen. Dat geeft ze een heel andere ontwerp ruimte dan Intel/AMD.

Microsoft is kreupel door hun hardware (niet alles in de hand) en software model (30 jaar aan software moet draaien). Google datamined hun gebruikers, dus die kunnen ook niet echt mee. Apple heeft geen echte concurrentie op niveau, dus niemand kan hun marges evenaren.
In 2021 klopt dat. Als aanvulling: Dit jaar komt wel Rembrandt, die is op TSMC N6 met 5 lagen EUV:

https://www.tomshardware....have-zen-3-rdna2-and-ddr5

N5 voor zover ik ergens las is multiple EUV patterning met SADP, dus een stap moeilijker ten opzichte van N6.

Het leuke vind ik wel dat ondanks geld, Mediatek en niet Apple de eerste gaat zijn op N4; dus geld zegt inderdaad heel veel maar net niet alles.
De intel 10nm is bijna gelijk aan TSMC 7nm.

5nm node heeft een vele lagere yield als een 7nm of 10nm node
En die yield wordt alleen maar slechter hoe groter de chip is, omdat bij kleine
chips een fout dus invloed heeft op een kleinere oppervlakte van de wafer.
Dat is te kort door de bocht.

Welke TSMC 7nm, DUV of EUV?
Welke Intel 10nm, Cannon Lake, Ice Lake of Alder lake?

TSMC N7+ (EUV) met 36nm MPP is absoluut niet te vergelijken met Ice Lake (40/44nm MPP, DUV).

En TSMC N5 heeft een veel hogere yield dan Ice Lake 10nm, en vermoedelijk ook hoger dan Alder Lake 7nm.
Maar zodra een gpu bij de test betrokken is zijn er al snellere pc laptops. Ook is de 12th gen Intel alweer op wat vlakken sneller dacht ik. Accuduur en relatief verbruik is beter bij de mac. Ik heb overigens een MacBook pro M1 maar zie mijn desktop plus dedicted gpu nog niet zo gauw inruilen. Ligt ook deels aan mijn afkeer tegen macos/apple

[Reactie gewijzigd door CR35 op 24 juli 2024 19:56]

Door optimalisatie is zeker winst te behalen, al moet je dat niet overdrijven. De prijs van optimalisatie is vaak dat het aantal CPUs waar je op kunt draaien, minder wordt. D.w.z. als optimalisatie gebruik maakt van feature XYZ van je CPU, kun je alleen CPUs gebruiken met die feature. Als dan de hardware cyclus een jaar of 5 is, dan is adoptie van specifieke features voor betere prestaties soms een zaak van lange adem.

ARM is niet 1 pot nat. Er zijn daar ook allerlei features die selectief in CPUs komen. En veel software komt van een ander platform (x86 ;-)). Programmeurs zitten niet te wachten op platformspecifieke optimalisaties. Dat is lastig(er) qua onderhoudbaarheid, je moet er de hardware voor hebben en alles apart testen.

In het verleden ben ik bezig geweest met optimalisatie op x86, met allerlei foefjes als slimmer compileren, en de winst viel bar tegen in real life (< 10%). Veel tijd kwijt, voor weinig winst. En ik merk ook dat tig-GB memory, disk, veel CPU power, niet uitnodigend werkt voor ontwikkelaars om tot het naadje te gaan. Veelal is het niet lonend qua tijd/geld.
Wat je eigenlijk zegt is: momenteel bestaan er x86 chips die honderden watts aan energie mogen gebruiken, terwijl bij Apple ARM chips de cpu beperkt is tot 40 watt?

Overigens zegt Anandtech het volgende erover, na oa server benchmarks op Apple silicon gedraaid te hebben;
" this allows the M1 Pro & Max to achieve performance figures that simply weren’t even considered possible in a laptop chip. The chips here aren’t only able to outclass any competitor laptop design, but also competes against the best desktop systems out there, you’d have to bring out server-class hardware to get ahead of the M1 Max – it’s just generally absurd."
https://www.anandtech.com...-max-performance-review/7

"Apple kan nooit een telefoon chipje opschalen tot een laptop chip" is nu "Apple kan nooit een laptop chipje opschalen tot een workstation chip".
Iets genuanceerder.

Er zijn nergens server benchmarks gedraaid. Kan niet eens want die M1 kan totnogtoe geen honderden gigabytes aan geheugen aanspreken. Kan gewoon niet. Apple heeft dat in deze iteratie niet mogelijk gemaakt. 64GB is schattig, een Lenovo P50 uit 2016 kan 128GB aan.

Ik geloof dat die specifieke quote over geheugenbandbreedte gaat. Zie ook:
The fp2017 suite has more workloads that are more memory-bound, and it’s here where the M1 Max is absolutely absurd. The workloads that put the most memory pressure and stress the DRAM the most, such as 503.bwaves, 519.lbm, 549.fotonik3d and 554.roms, have all multiple factors of performance advantages compared to the best Intel and AMD have to offer.

The performance differences here are just insane, and really showcase just how far ahead Apple’s memory subsystem is in its ability to allow the CPUs to scale to such degree in memory-bound workloads.
Afhankelijk van je doeleinde kan het nodig zijn om meer geheugen te hebben of meer bandbreedte óf beide.

In sommige andere tests ligt het dan weer niet zo ver voor dat er over server-class hardware gesproken moet worden. Een desktop chip die 1 node achter zit doet het dan nog beter. Vergeet niet dat Apple veel geld over heeft voor de beste chipproductiemethode op de wereld en dan alsnog veel grotere chips maakt dan de concurrentie.
Wat in de ARM ISA zorgt er volgens jou dan voor dat het fundamenteel onmogelijk is betere prestaties te halen dan x86 ?
De instructieset zal niet het verschil maken. Chips kunnen wel kleiner door weglaten van legacy stuff, wat tal van voordelen oplevert.

Je allernieuwste i9 start nog altijd op als een 16-bit 80286, IBM PC compatible.
De instructieset maakt wel degelijk uit. De instructie decoder in x86 is ontzettend complex, en omdat instructies een variabele lengte hebben maakt dit het moeilijk ze parallel te decoderen, wat het weer lastiger maakt een grote reorder buffer gevuld te houden, wat het weer lastiger maakt on alle execution units bezig te houden.
ARM-technologie is goed, maar vooralsnog levert het niet dezelfde piek-prestaties als x86. Het is beter en efficienter bij regulier gebruik, maar als je zware programmas gaat draaien, blijft vooralsnog x86 te prefereren.
Hoe kom je aan deze wijsheid? Kun je dat onderbouwen?
Dat vind ik nogal een statement als 's wereld snelste supercomputer ARM draait.
Mic. Lol grote grappenmaker. Arm is rete snel. Juist x86 heeft veel oude meuk en maakt het traag.
Ik verwacht dat andere fabrikanten soortgelijke ontwerpen kunnen laten zien in een paar jaar
Ik verwacht het niet. Qualcomm en Mediatek laten al jaren zien dat ze niet in staat zijn om dit te doen. Samen zijn ze verantwoordelijk voor 60+% van de ARM chip markt.
Tuurlijk zijn ze wel in staat om dat te doen, maar er is op dit moment geen vraag voor dit soort chips. De M1 serie chips zijn door hun grootte een stuk duurder om te produceren dan de chips die Qualcomm ontwerpt. Dus voor Qualcomm is het nu helemaal niet interessant om deze te produceren, want wie gaat ze afnemen? Een Chromebook heeft dit soort chips helemaal niet nodig, en voor Windows is er nog onvoldoende vraag naar dit soort devices. Apple heeft het voordeel dat ze dit gewoon in hun hele reeks er doorheen kunnen duwen en dat de software er snel voor aangepast wordt. Dat gaat Microsoft niet zo snel lukken. Tuurlijk er zit een goed design achter de M1, maar het is geen technologisch wonder, zoals sommigen willen geloven. Het is een kwestie van budget dat je wilt spenderen aan een chip en hoe modulair je het wilt maken (bv geheugen geintegreerd in de SoC).
Ik begrijp jouw perspectief; de rest probeert het niet en ze willen en hoeven het niet en daarom presteren hun chips ondermaats maar als ze zouden willen dan konden ze makkelijk een m1 achtige chip produceren die dan minstens even snel zou zijn.
Immers is de M1 'geen technologisch wonder', maar slechts 'een kwestie van budget'.

MS heeft in samenwerking een chip gemaakt met qualcomm en speciaal een versie van windows ontwikkelt ervoor.
reviews: Microsoft Surface Pro X - Nieuw concept is niet voor iedereen

De werkelijkheid is echter dat de honderden euros goedkopere MacBook Air, 2-3 keer betere prestaties neerzet dan de surface pro x... en dat is met windows in een virtuele machine.
M1 => "kwestie van Budget"

Dus je begrijpt niet zoveel van Chip ontwerp?

Heel simpel er is nog geen enkele ARM chip (wel X86)die niet van Apple zijn die sneller zijn dan Apple's M1, en MS heeft een onderhuidse deal met Qualcomm over Windows exclusief gebruik.

https://www.theverge.com/...ivity-deal-windows-on-arm


Surface Pro X single core score:

https://browser.geekbench...corporation+surface+pro+x

700 to 800

M1 Macbook Air single core score

https://browser.geekbench.com/v5/cpu/search?q=Apple+M1

1600 to 1750

jaja

[Reactie gewijzigd door obimk1 op 24 juli 2024 19:56]

De MS deal met QCOm loopt af en Mediatek zal de eerste zijn op N4, niet Apple. Mediatek loopt achter maar gaat nu denk ik net hardste vooruit, QCOM wordt voorbij gestreefd.

Voorheen was het dus moeilijk om proces voorsprong van Apple te onderscheiden van chip ontwerp-voorsprong, maar dat wordt dus makkelijker Mediatek.

Helaas blijft het wel zo dat compiler en besturingssysteem wel verschillend blijven tussen Mediatek en Apple; dus appels en appels blijft moeilijk. Daar heb ik al lange discussies over gehad, er is daar helaas weinig objectieve data over dus dat blijft gissen.
Apple heeft al de laatste V8 ARM.chip gemaakt. (A15)

https://en.wikipedia.org/wiki/Apple_A15

Apple is al een tijdje bezig met ARM chips.

https://en.wikipedia.org/wiki/Apple_silicon

M2 wordt waarschijnlijk V9.
Goede opmerking, want ook daarmee loopt Apple achter op zowel Mediatek als Qualcomm.

Zowel de QCOm 8 gen 1 als Mtek Dimensity 9000 hebben een Arm Cortex X2 met ARMv9, producten (smartphones) zijn waarschijnlijk vlak na MWC verkrijgbaar. Vandaar ook mijn bewering dat Mediatek harder vooruit gaat dan Apple, dat klopt dus zowel qua instructie-set als qua proces technologie.

[Reactie gewijzigd door kidde op 24 juli 2024 19:56]

Apple loopt zo achter dat Qualcomm ex Apple chip engineers heeft overgenomen.

https://www.tomsguide.com...uild-new-chip-to-rival-m1

Dit YT filmpje legt ui: "verstorende innovatie" door M1 ontwerp.

https://www.youtube.com/watch?v=OuF9weSkS68

En Apple M1 chips zijn nog steeds sneller dan Qualcomm of Mediatek ARM chips. Er zijn voldoende benchmarks omdat te bewijzen
Daar zeg ik toch niets over, het is hier toch geen Apple of Qualcomm commercial of wedstrijd of zo.
Ja, tot nu toe waren Apple SocS (als geheel systeem) sneller, en dat zal vermoedelijk nog wel minstens een jaar blijven.

Bij Apple liepen de engineers recent over naar Nuvia, Tesla, Meta* etc, dat is de reden dat de innovatie daar nu niet meer zo snel gaat. De A15 durfde Apple niet eens te vergelijken met A14. ** Dus wat ik wil aangeven is niet wie voorop ligt maar het snelste gaat, en waarom.

En tevens dus rakende aan het onderwerp, wie de nieuwste ARM ontwerpen gebruikt en ervan profiteert dat ARM zelfstandig blijft.

* https://abc7.com/apple-bo...s-meta-facebook/11402298/
** Slechts 2% sneller, dus staat praktisch stil: https://nanoreview.net/en...ionic-vs-apple-a14-bionic

[Reactie gewijzigd door kidde op 24 juli 2024 19:56]

2% of 12% dat is wel een verschil.

Dit staat in het gelinkte artikel VAN JOUW.

Dus je kunt niet eens lezen?

Key Differences:

Main differences and advantages of each chip. Pros of Apple A15 Bionic

- Announced 1-year later
- Shows better (up to 12%) AnTuTu 9 score – 800K vs 715K

En vertrouw Anandtech toch meer dan een "Tweaker Expert"

https://www.anandtech.com...iew-faster-more-efficient

[Reactie gewijzigd door obimk1 op 24 juli 2024 19:56]

Ja ik kan lezen, maar hartelijk bedankt voor uw bezorgdheid over mijn geletterdheid, erg schattig.

De Antutu score is inclusief RAM en IO (staat erboven dus dat had u al gelezen) en gaat direct de prullenbak in, want we hadden het over chip-ontwerp, en Apple ontwerpt geen RAM.

CPU 2% vooruitgang, batterij 0. En ook dat had u al gelezen, maar u moest en zou iets zoeken om er tegenin te brengen. Waarvoor mijn dank.

En wat betreft Anandtech, ze schrijven: "This year’s announcement of the A15 was a bit odder on Apple’s PR side of things, notably because the company generally avoided making any generational comparisons between the new design to Apple’s own A14. "

Hmm ra ra raadsel waarom ;)

[Reactie gewijzigd door kidde op 24 juli 2024 19:56]

Ik kan nergens die 2% zien (ook niet bij Geekbench) Er zijn andere benchmark scores die variëren tussen 7% en 27% . En de A15 heeft een executie unit meer. (moet ik dat ook uitleggen??) Als voormalige ASML'er die in verschillende FAB's is geweest begrijp ik natuurlijk niks over computers (1984, eerste computer). En als Apple al "achterloopt met innovatie", waar zijn al die andere "nieuwe" ARM processors die beter en sneller zijn dan M processors van Apple?

Je weet natuurlijk wat een SOC is, en wat "unified memory" is en hoeveel geheugen kanalen dat "niet innoverende Apple" heeft, en wat de voordelen zijn.

[Reactie gewijzigd door obimk1 op 24 juli 2024 19:56]

En u, en zeker als ex-ASML werknemer met eerste computer uit 1984 (hoezo moet u zich daar nou weer op beroepen? Zo onzeker over uw standpunten?) weet waarschijnlijk, dat waar Apple een zuinige 15% vooruitgang boekt, Mediatek in hetzelfde jaar 100% vooruitgang boekt. Zoek maar na, Dimensity 9000 VS 1000+.

En dat was de stelling: Apple ligt voor, maar andere bedrijven innoveren veel sneller.
Hey expert, lees:

https://nanoreview.net/en...-plus-vs-apple-a15-bionic

https://nanoreview.net/en...-9000-vs-apple-a15-bionic

En het verschil is, ik werk bij ASML en jij onderhoudt de tuin van ASML.
Nutteloze reactie, we hadden het over Dimensity 9000 (4nm, EUV, ARMv9) en hoe hard de fabrikanten vooruitgaan.

Maar kennelijk is dat iets wat u zich liever voor afsluit, waarvoor mijn dank dat u dat bevestigt. Vandaar dat u komt met een Dimensity 1000 uit 2019, ARMv8 op 7nm, DUV.

Kirin 9000 (geen Mediatek Dimensity 9000) is een leuk voorbeeld ook, Huawei liep keihard in op Apple en er was een politieke sanctie voor nodig om dat tegen te gaan.

Gefeliciteerd dat u voor ASML werkt, ik kan u vertellen dat het uitzicht vanuit de tuin fantastisch is!

Van alle ex-ASML / NXP'ers en toeleveranciers die bij mij werken of ernaar toe gaan / gingen weten ze niet eens wie Mediatek is; dus waar je werkt zegt weinig over of je de klant van de klant kent of begrijpt. Maar ik ben blij dat u zich door dat labeltje gesteund voelt, om nog steeds te ontkennen dat de concurrentie harder vooruit gaat dan Apple.

Ed: Mijn excuses, ik schreef dat Apple voor ligt, maar alleen afgaande op AnTuTu is dat kennelijk niet eens meer het geval: https://nanoreview.net/en...-9000-vs-apple-a15-bionic

Dus duidelijk wie het hardste vooruit gaat.

[Reactie gewijzigd door kidde op 24 juli 2024 19:56]

Hey "expert", Dimensity 9000 is aangekondigd maar bestaat nog niet eens, De A15 wel; en Apple loopt al achter op een aangekondigde chip die nog niet bestaat?

Dus je begrijpt ook niks over inovatief chip design?

nieuws: MediaTek kondigt high-end Dimensity 9000-4nm-soc aan met Cortex X2-core

https://www.arm.com/compa...-unparalleled-performance

En Apple heeft 5nm proces node van TSMC opgekocht.
V9 op 4nm moet nog gemaakt worden, (er bestaat nog geen enkele CPU op 4nm) en weet je ook weet het verschil is tussen de "nieuwe" EUV machine is? (niet het $150 miljoen EUV model). En TSMC zou niet eens kunnen bestaan zonder Philips.

Vrienden bij ASML, werken in R & D en hebben patenten op hun naam.

Voordat je meer onzin over ARM spuit kijk dit eerst;

https://www.youtube.com/watch?v=OuF9weSkS68

[Reactie gewijzigd door obimk1 op 24 juli 2024 19:56]

V9 op 4nm moet nog gemaakt worden, (er bestaat nog geen enkele CPU op 4nm)
ARMv9 Zijn gewoon hier te koop:

https://de.aliexpress.com/item/1005003743677519.html

4nm processoren worden op 18 Februari verwacht, dus natuurlijk bestaan die nu al en zijn ze uiterlijk half januari uit de assemblage gekomen en opgestuurd naar de fabrieken van Xiaomi, want anders konden ze nooit deze maand uitkomen.

Dus zoals gezegd, Apple loopt achter; alle Apple-M1 reclame (ik hoef die reclame niet te kijken, ik kan prima zelf mijn tijd verspillen) ten spijt.

Wat zit u zo dwars als ik vragen mag? Vanwaar alle frustratie over patenten, ASML, vrienden en Apple? Vanwaar de bewijsdrang, en dat u mij tuinman moet noemen? Dat moet niet meevallen om daaronder gebukt te gaan (ik ken het zelf dus leef met u mee); ik hoop van harte dat u die spanning een beetje los kan laten.

[Reactie gewijzigd door kidde op 24 juli 2024 19:56]

Er zijn nu 4nm processors en ARMV9 CPU's ik geef je dat,Apple gaat volgende maand M2 met ARMv9 architectuur introduceren. Maar dat Apple achterloopt op CPU design en maken dat klopt totaal niet, en is niet correct. Begrijp je helemaal niks van computergeschiedenis.

En als Apple al "achterloopt", waarom zijn Qualcomm, Mediatek en MS zo gebrand en dus dom om Apple CPU engineers aan te trekken?

Of zijn ze compleet idioot geworden, want Apple loopt al achter?

En Apple is in 2008 al met ARM processors begonnen, en de PPC had ook een RISC instructie set.

[Reactie gewijzigd door obimk1 op 24 juli 2024 19:56]

> Bij processors mag je traditioneel maximaal 2 van de 3 onderdelen kiezen: prijs, prestaties, accuduur.

> De M1 serie chips zijn door hun grootte een stuk duurder om te produceren dan de chips die Qualcomm ontwerpt.

Dus eigenlijk klopt het niet wat @Faust zegt en is de M1 wel degelijk duur? (En dus toch 2 van de 3 onderdelen.) Apple heeft natuurlijk ook het voordeel dat ze, als het idd een dure chip is, ze eventueel 1 serie wat minder marge kunnen pakken om het ecosysteem te kickstarten. Maar geloof niet dat er echt weinig marge zit op de huidige macbooks 😄.
Bij processors mag je traditioneel maximaal 2 van de 3 onderdelen kiezen: prijs, prestaties, accuduur
Die stelling is in mijn ogen wat kort door de bocht en ben het daar ook niet mee eens.
M1 Mac mini is de beste prestaties voor die prijs
M1 MacBook Air is de beste prestaties voor die prijs

Kan je met een Chromebook van 200 euro ook op internet? Dat klopt. Maar dit kan ook met een 2010 Asus EEEPC van 30 euro via marktplaats. Dat maakt de Chromebook niet duur, net zoals de Chromebook de M1 apparaten niet duur maakt. Voor de prijs hebben ze de beste prestaties, geen enkele review zal iets anders beweren.
Laatst een Ryzen hexacore Lenovo aanbevolen aan iemand voor 799,- dacht ik.
Die kwam wel in de buurt van een M1 Macbook air. Was ook ongeveer even zwaar.(100-200 gram meer)

Echter er zijn wel een paar grote verschillen
De Macbook air is passief gekoeld en haalt de maximale prestaties zelfs dan voor de volledige accuduur gedurende een gehele werkdag.

Dat kan je met de Lenovo Yoga echt vergeten.
Daarnaast bepaalde applicaties is de M1 echt belachelijk snel voor het geld en het stroom gebruik.
Met name video editing.

Dus hoewel er echt nadelen hangen aan de ARM chip. Compatibiliteit en games met name.
Kan ik er ook niet omheen dat het het beste overall product is in z'n klasse.
ben het wel mee eens, zo werkt "binning" niet.

[Reactie gewijzigd door obimk1 op 24 juli 2024 19:56]

Huh, waar zeg ik dat? Het is juist geen budget chip. Ik zeg dat het een dure chip is.
dus een System On a Chip (SOC) van Apple is een "budget chip"

dus op een "budget chip kun je geen:

- 8 x DDR4 geheugenkanalen hebben. (door unified memory, vrij uniek in Chip design)
- 4 x Performance cores
- 4 x Efficiency cores
- 16 x Neural cores
- 7 of 8 GPU cores.

Als voormalige ASML'er ben ik wel nieuwsgierig naar jou definitie over "Budget chips.", en Apple was de eerste met 64 bits ARM en bepaald chipontwerp van de M1 heeft ook wat "firsts"
nogmaals, want je andere reactie is aangepast:
Huh, waar zeg ik dat? Het is juist geen budget chip. Ik zeg dat het een dure chip is.
Verkeerde persoon, sorry!
Ah no worries, it happens!
Intel en AMD wordt hiermee bedoelt als ik die aanname mag doen. Ik zie nadat Intel de gpu markt heeft betreden. Een herintrede in de tablet/mobile markt wel een volgende stap. En niet meer op basis van een atom chip maar op basis van ARM.
Intel zal alleen ARM intreden als het niet meer daarmee kan concurreren met x86-64 op de server/desktop/laptop markt, het heeft al heel lang mogelijkheden om ARM technologie te produceren.

Intel zou knettergek zijn om een zelf-gecontroleerde markt te verruilen voor één waar concurrentie heftig is en architectuur in handen van een ander is.

Intel's fabs moeten dan concurreren met niet-TSMC en ook de ontwerpdivisie kan voor een groot gedeelte de deuren sluiten.
Bij Quallcomm willen ze het niet doen omdat ze toch al aan de top zitten
" Apple laat met hun ARM processors zien dat het geen keuze hoeft te zijn."

Zullen we hiervan even lekker het volgende van maken: Smartphones and Google (Chromebooks) laat zien dat het geen keuze hoeft te zijn.
En zelfs dat is niet 100% accuraat waarschijnlijk.

"Ik verwacht dat andere fabrikanten soortgelijke ontwerpen kunnen laten zien in een paar jaar."
Dat hebben ze al laten zien. Apple loopt er achteraan.

[Reactie gewijzigd door B4llistic op 24 juli 2024 19:56]

Ook daar moet je, net als bij Apple trouwens, ook gewoon die keuzes maken. Een goedkope Chromebook heeft immers ook maar vrij matige prestaties vergeleken met de topmodellen, net als bijvoorbeeld goedkope telefoons vergeleken met de topmodellen. Ook in die segmenten is gewoon van toepassing dat als je de beste prestaties wil combineren met de beste accuduur dat je dan in het duurste segment van de markt moet shoppen.

[Reactie gewijzigd door Dennism op 24 juli 2024 19:56]

Op een M1 MacBook Air van rond de 1000 euro kan je met gemak 8K video bewerken;
https://www.youtube.com/watch?v=C7M7k-LBOms

1000 euro is veel geld voor veel mensen, maar voor zulke prestaties is het weinig. Dat je er een gratis laptop met toevallig de beste accuduur ooit en perfect gekalibreerd scherm bij krijgt is dan een bonus.
Ik begrijp dat het een troll is, maar jouw reactie kan je niets aan het volgende veranderen:
https://www.anandtech.com...-max-performance-review/5
Als het geen troll is dan kan je met bovenstaande link je kennis over dit onderwerp aanzienlijk verbreden, dus doe ermee wat je wilt :)
Zullen we hiervan even lekker het volgende van maken: Smartphones and Google (Chromebooks) laat zien dat het geen keuze hoeft te zijn.
En zelfs dat is niet 100% accuraat waarschijnlijk.
Bedoel je hier dat er smartphone/chromebook processoren zijn die krachtiger zijn dan de Apple M1 (Max)?
Dat hebben ze al laten zien. Apple loopt er achteraan.
Kan je dat effe verduidelijken, ik begreep namelijk dat de M1 erg goed was.
Besef dat x86 niet de enige processorarchitectuur is hè? En oud is niet perse hetzelfde als archaïsch.

RISC processoren zijn er al lang (net zoals CISC) en hebben zo hun eigen zaken, al is het verschil tussen RISC en CISC door de jaren heen kleiner geworden. Het was toen al zo en is nu ook zo, dat niet 1 platform de waarheid in pacht heeft. Het hangt maar net af van de toepassing. Voorbeelden van teloorgegane RISC processoren: HP met PA-RISC. HP kwam in samenwerking met Intel met iets nieuws: Itanium. En ook dat is geflopt, c.q. technieken uit de Itanium zijn in de Xeon gekomen. HPE (verwar dat niet met HP voor consumenten, dat is altijd al louter x86 geweest) is nu een x86 club.

Oracle (of beter: voormalig Sun) heeft de SPARC. Ook een RISC-achtige processor (ook door Fujitsu gebruikt). Ook min of meer ter ziele, c.q. door Oracle is x86 omarmt.

Je laatste zin laat al zien dat je een specifieke doelgroep op het oog hebt, nl. mobiele apparaten (anders zou je niet over accuduur spreken). Meer algemeen: energieverbruik speelt wel een rol, ook in systeemruimtes. En prijs is/was vaak, zeker voor de grote server boeren (IBM, HP, Lenovo, Dell etc) een ondoorzichtig gebeuren. Het gaat dan meer over prijs/prestatie (en beheerbaarheid/onderhoud/stabiliteit) dan louter de prijs.

Resume: een nieuw processor platform moet heel wat massa hebben om gebruikt te gaan worden. Overstap van een bestaand (of dat x86 is of wat anders) naar een ander platform is voor een software bedrijf een kostbare zaak. Zelfs Linux, waar dus wel dezelfde x86 hardware gebruikt kan worden, heeft maar een beperkt marktaandeel tegen Windows. Dat zit bijvoorbeeld vast op systeembeheerders i.c.m. de organisatie waar Linux minder goed in past, samen met de tekortkomingen van Linux (denk aan het project in München).

Kortom: ARM heeft zeker potentie/antwoorden op dingen die x86 laat liggen (al staat ook die markt mbt energiezuinigheid vs prestaties niet stil), maar dat een nieuw platform serieus marktaandeel krijgt, is een zaak van (heel) lange adem.
Feitelijk is er alleen nog RISC. Ook CISC processoren zijn feitelijk van binnen gewoon RISC processoren met een CISC "front-end."
Dat is een beetje alsof je zegt dat een auto eigenlijk een motorfiets is maar dan met 4 wielen. Die front-end heeft namelijk wel een grote impact op het ontwerp van de chip en de prestaties. Of anders gezegd: die front-end is precies het pijnpunt van x86.
PowerPC, itanium zijn ook pogingen geweest om x86 te vervangen. Is ook nooit gebeurd. Of ARM het gaat lukken dat zal de tijd moeten uitwijzen.

Je ziet wel dat er weer stappen worden gemaakt. Maar of dat komt door de komst van Apple ARM of toch de concurrentie tussen Intel en AMD. Dat is de vraag.
Dit is goed nieuws op de vroege ochtend!

Ik geloof dat ARM noodzakelijk is om het archaïsche X86 op korte termijn eindelijk vaarwel te kunnen zeggen.
Je bekijkt het te veel door een PCbril.
ARM zit vooral in kleinere microcontroller toepassingen welke stuk voor stuk relatief hoge ontwikkelkosten hadden. Als een almachtige ARMeigenaar ineens de royalties verhoogt of een andere eigenwijze koers gaat varen zijn die allemaal de sjaak.
Het is noodzakelijk dat die ARMontwikkelomgeving neutraal blijft. Breng ARM als zelfstandig bedrijf naar de beurs.
Want een beurs genoteerd bedrijf heeft geen enkele reden om de winst te maximaliseren door licentie kosten te verhogen?
Want een beurs genoteerd bedrijf heeft geen enkele reden om de winst te maximaliseren door licentie kosten te verhogen?
Afgezien van het feit dat een beursgenoteerd bedrijf ook afhankelijk is van z'n klanten, en dus ook rekening moet houden met wat die nog wel en wat ze niet meer zullen slikken, gaat het helemaal niet om een prijs-verhoging per-sé.

Waar het om gaat, is dat bij een zelfstandig ARM de klant voorop staat. Alle klanten. Alleen de grotere klanten iets verder vooraan dan de kleinere, maar niet zo ver vooraan dat ze de kleinere klanten dwars zullen zitten. Bij ARM+nVidia zullen niet de belangen van de klanten voorop staan, zelfs niet van de grote klanten, maar de belangen van nVidia. Dus waar een zelfstandig ARM bijv de prijzen niet te veel zal verhogen, kan nVidia jusit beslissen om die wél te veel te verhogen, waardoor nVidia op ARM-gebied een concurrentievoordeel krijgt t.o.v. andere ARM licentienemers. Ze kunnen ook beslissen om bepaalde 'vervelende' concurrenten van ze, die afhankelijk zijn van ARM, met gebruik van ARM dwars te zitten. Bijvoorbeeld door nVidia eerder informatie te geven, en die concurrent pas later, waardoor die concurrent niet goed can concurreren, of door bepaalde features die de concurrent wenst, maar nVidia zelf niet nodig heeft, niet te implementeren (terwijl een zelfstandig ARM dat wel zou doen). En er zijn vast nog veel meer slinkse manieren. Dat alles is niet in het voordeel van ARM, want welk bedrijf gaat z'n klanten nu dwars zitten. Maar het is dus wel in het voordeel van nVidia, die de schade aan ARM dan maar voor lief neemt.
Dat is een prefect voorbeeld van een voorwaarde die aan een overname gesteld kan worden. En dan heb je een echte afspraak, in plaats hopen op het beste zoals bij een beursgang.

Daarnaast is je voorspelling voor Nvidia wel wat overdreven. Het is voor Nvidia juist heel goed als ARM zo groot mogelijk wordt in zo veel mogelijk markten. Omdat Intel en AMD een ijzeren greep hebben op x86 en nooit concurrentie toe gaan staan.
Dat is een prefect voorbeeld van een voorwaarde die aan een overname gesteld kan worden
Welke voorwaarde ? Dat ze ARM-klanten niet zullen benadelen ? Dat is nooit hard te maken, ze kunnen altijd zeggen dat er goede redenen zijn voor een bepaalde beslissing, maar dat ze die uit concurrentieoverwegingen niet kunnen vertellen. En als ze het slim genoeg spelen is het tegendeel nagenoeg niet / helemaal niet aan te tonen. Indien gedwongen zullen ze altijd een reden geven waarvan niet aangetoond kan worden dat die niet klopt. Zelfs als ieder normaal mens duidelijk inziet dat een beslissing concurrievervalsend is, dan nog betekent dat niet dat dat ook juridisch hard te maken is. Voorwaarden moeten hard zijn, en objectief en juridisch afdwingbaar.
En dan heb je een echte afspraak, in plaats hopen op het beste zoals bij een beursgang
Hoezo is het bij een beursgang hopen op het beste ? Je weet dan in ieder geval zeker dat de beslissingen van ARM in het belang van ARM zullen zijn, en in het belang van het ARM-ecosysteem en de ARM gebruikers. Want dat is waarmee ARM geld verdient. In tegenstelling tot nVidia, die ook veel geld verdient met andere zaken.
Het is voor Nvidia juist heel goed als ARM zo groot mogelijk wordt in zo veel mogelijk markten
Dát wel, maar in markten waar ze al groot zijn, niet tegen x86 op hoeven boksen, en waar nVidia ook andere belangen heeft, zal het voor nVidia juist belangrijk zijn om zijn concurrentie tegen te werken.

En daarbij: de beste garantie voor een groot en sterk ARM ecosysteem, is als ARM niet overgenomen wordt. Want hoe je het ook wendt of keert, niet alle ARM klanten zijn enthousiast over het idee van de overname, en met die overname zullen veel directe concurrenten van nVidia toch minstens gaan nadenken over mogelijke alternatieven (ihb Risc-V), waarbij ze niet afhankelijk zijn van hun concurrent. Zelfs al zou nVidia zich voorbeeldig gedragen, bedrijven zijn liever niet afhankelijk van hun directe concurrent...
Daarnaast is je voorspelling voor Nvidia wel wat overdreven
Het schijnt dat nVidia historisch gezien lang niet vies is van oneerlijke spelletjes. En dat geldt overigens voor veel grote en machtige bedrijven (Intel, Facebook, Volkswagen, etc. etc.). Denken dat dat niet veelvuldig gebeurt is naief - als een bedrijf niet regelmatig de grenzen van het toelaatbare verkent, en soms overschrijdt, dan is de kans groot dat uiteindelijk het onderspit delft tegenover de concurrenten die wél die grenzen actief en doelbewust verkennen, en soms overschrijden, en dus een voordeel hebben. De truuk is om te zorgen dat je oneerlijke spelletjes niet aantoonbaar oneerlijk zijn, of dat je je er, met genoeg advocaten uit kunt kletsen, of dat het voordeel al behaald is, en de eventuele boete en straffen minder hoog zijn dan het behaalde voordeel.
(Met Risc-V zou dat ook wel lukken maar dat heeft een achterstand van enkele jaren.)
Niet voor lang meer: https://liliputing.com/20...risc-v-international.html

Trouwens, wat is er niet “archaïsch” aan ARM? Het is inmiddels bijna net zo oud als x86.
Iets uitgebreider:

https://www.bbc.com/news/business-60297874

Benieuwd wat dat met de koers gaat doen.

[Reactie gewijzigd door no_way_today op 24 juli 2024 19:56]

Naar mijn mening is dit een golden oppurtunity om te kopen. De chipmarket is tot 2025 stijgende en kan je een leuke profit opleveren. Als de roadmap goed is stap ik in.

Imo is het een slimme stap van ARM. Zo kan je nog meer waarde aan het merk geven.
Daar is ook niet alles over gezegd.


Nvidia heeft een flinke omzet stijging gehad gedurende corona,
echter is hun portfolio erg mager. Het is videokaart en Tegra. En de huidige tekorten zijn er omdat er geen productiecapaciteit is,
Nvidia kan niet ineens meer opdrachten aannemen.


Automotive loopt niet zoals ze hadden gehoopt en fabrikanten zoeken/hebben alternatieven. China vb gaat massaal die chips zelf ontwikkelen en in de EU zal het ook zoveel mogelijk intern worden verdeeld.
Ook komt Intel met een eigen GPU en al zal die niet super zijn, die zal ook een deel van de markt afsnoepen.
Als de Tegra nou windows zou gaan ondersteunen zou het misschien interessant zijn maar dan nog heb ik twijfels als ze soc’s gaan uitbrengen als GPU’s. Dat doet Intel al en daar gaat het ook niet echt goed mee 😄


Als er een flinke dip komt eventueel aankopen en even aanhouden maar wel altijd met het idee dat je die zo wegdoet. Nvidia is fabless en zal op een compleet andere manier zaken moeten doen om hier uit te komen op lange termijn. Rechten kopen en geld uit licenties gaat voorlopig in de ijskast.
Ik heb het niet Nvidia, maar over ARM die de beurs op wilt gaan. Nvidia is niet meer van belang alhoewel deze vandaag ook wel een dip zal zien na dit nieuws.
Of het als aandeel interessant is hangt voornamelijk af van hun licensing contracten. Ik weet niet of zij per ontwerp of per verkochte chipset betaald worden. In het eerste geval is voorlopig business as usual. In het laatste geval kan het een hele interessante investering worden.
Naar mijn mening is dit een golden oppurtunity om te kopen.
r/wallstreetbets is deze kant op. :+
De reactie van @Yzord is echt veel te veel analyse voor WSB. :+

edit: typo

[Reactie gewijzigd door dehardstyler op 24 juli 2024 19:56]

Ook @Yzord - dit zat allang in de koers verwerkt sinds de eerste geruchten uitlekten via Nvidia en de zeer kritische benadering door toezichthouders.

En als je wilt kopen ivm chiptekorten ben je in feite al te laat, dat zal een jaartje of twee inmiddels al verwerkt zitten in de koersprijzen. Er zal een stijging nog wel komen, maar niet spectaculair. Dan had je al veel eerder in moeten stappen.
Niet volledig mee eens. ARM wil de beurs op, dus een nieuwe speler op de beurs waarin degene die dachten te laat zijn ingestapt alsnog gaan instappen.

Van die stijging profiteer ik graag mee.
Anoniem: 392841 @Yzord8 februari 2022 08:31
Hou er rekening mee dat, tenzij SoftBank ARM wel heel erg hoog in zet, inschrijvingen massaal overschreven zullen worden. Ten eerste zal je daar tussen moeten zien te komen, ten tweede zal een openingskoers van een paar honderd Euro per aandeel door de marktgekte me compleet niet verbazen.
Vandaar niet instappen op dag 1, maar wachten op de eerste cashouts.
Toch wel jammer voor nvidia,

even een miljard weg gooien zonder er ook maar iets voor terug te krijgen,

Leuk dat iedereen hier Pro Arm is maar als dat de visie is hadden ze nooit een verkoop mogen starten en zouden ze dus eigelijk Nvidia geld moeten betalen voor misleiding,

Blijkbaar kan niemand ARM kopen voor dat geld die al geen major speler is en dus concurentie beding veroorzaakt.
Ja persoonlijk zie ik in deze overname niet heel veel verschil met AMD die ATI overgenomen heeft.
Sterker nog als Intel straks met eigen dGPU's komt voor PC heb je dus 3 partijen waarvan 2 er dus voordeeltjes voor zich zelf kunnen ontwerpen als je alles van hen gebruikt.
Maar NVidia mag dan geen processor ontwikkelaar overnemen ok.
Weet niet voor mijn gevoel waren ze bij NVidia in betere handen dan een willekeurige Amerikaanse of Chinese investeringsmaatschappij.
Het verschil zit hem denk ik in het feit dat ARM heel veel klanten heeft die licenties afnemen. Hierdoor kan Nvidia dus heel makkelijk concurrentie dwarsliggen door de licentie niet meer te verschaffen.
Maar NVidia mag dan geen processor ontwikkelaar overnemen ok
nVidia mag zeker wel een processor-ontwikkelaar overnemen. Of ze ontwikkelen zelf een processor. Of ze gaan samenwerken met een bestaande ARM-gebaseerde ontwikkelaar (Apple ? Samsung ?). Wat ze niet mogen is de eigenaar van de belangrijkste processor-architectuur in de embedded en mobiele markt overnemen, waarvan nagenoeg alle processor-ontwikkelaars in die markt afhankelijk zijn, waaronder veel concurrenten, of potentiële concurrenten van nVidia.

Ze kunnen heel goed, net als Apple, zelf een ARM-gebaseerde CPU ontwerpen. Dat is alleen lastiger concurreren, omdat veel anderen dat ook doen, maar ze hoeven dan niet het hele ecosysteem te ontwikkelen. Ze kunnen ook voor OpenPower gaan. Zeer krachtig spul, maar helaas is het ecosysteem minder ontwikkeld, en dan zullen ze direkt met x86 moeten concurreren, en in tegenstelling tot ARM is de CPU-markt voor desktops en servers nog niet zo open dat het de gebruikers niet echt uit maakt welke architectuur ze gebruiken.
Ze verkopen gewoon 10 RTX 3090 TI's en het geld is weer terug. :+ :+
De fout is al vele jaren geleden gemaakt toen ARM naar de beurs werd gebracht. Toen had men kunnen weten dat de aandeelhouders wilden gaan cashen en dat het bedrijf een keer verkocht zou worden voor veel geld.

Als een bedrijf heel veel geld betaald voor ARM willen ze ook waar voor hun geld door bijvoorbeeld hun concurrenten totaal klem te kunnen zetten. Anders kan je zo'n aanschaf nooit legitimeren bij je aandeelhouders. Misbruik van de macht is daardoor feitelijk een gegeven, maak niet uit hoeveel garanties ze afgeven.

Daarom hebben de autoriteiten feitelijk de overname geblokkeerd.
De fout is al vele jaren geleden gemaakt toen ARM naar de beurs werd gebracht. Toen had men kunnen weten dat de aandeelhouders wilden gaan cashen en dat het bedrijf een keer verkocht zou worden voor veel geld.
Dat was geen fout. Ze kunnen niet elke actie in de markt blokkeren om zulke redenen die misschien ooit in de toekomst zullen optreden. En dat was ook helemaal niet nodig. Want de onwelkome overname is dus nu gewoon geblokkeerd. Dat kon gewoon. Geen enkele reden dus om al vele jaren eerder op die eventualiteit, die zich misschien niet eens zal realiseren, voor te sorteren.
SoftBank houdt een borgsom over van 1,25 miljard dollar.

Dat is lekker verdienen!!!
Anoniem: 392841 @the iMad8 februari 2022 08:44
Niet helemaal. Ik heb het al aan de redactie teruggekoppeld, maar per het jaarverslag - 25% van die borgsom behoort tot de investeerders via het investeringsvehikel van SoftBank, dus netto 937,5 miljoen USD. Nog steeds een mooie som, maar scheelt toch al zo'n 325 miljoen USD.

[Reactie gewijzigd door Anoniem: 392841 op 24 juli 2024 19:56]

Niet vergeten dat dit ook voor een groot deel naar de bank en juristen gaan die de fusie begeleiden.
Waarom geen Europees consortium van bedrijven die ARM overneemt? Lijkt mij toch geen slecht idee met de EU haar chipset plannen.
Welke Europese bedrijven hebben zo veel baat bij een volledig onafhankelijk ARM dat ze daar 40 miljard dollar voor willen en kunnen betalen?
Omdat "Europa" niet bestaat. De EU is feitelijk een virtuele organisatie.

Wat wel bestaat zijn 27 kikkers in een kruiwagen die allemaal hun eigen belangen hebben. Daarnaast is er op elk gegeven moment in de helft van de landen een linkse regering en de andere helft een rechtse regering aan de macht waardoor de standpunten te ver uiteen liggen.

Zo'n consortium zou een groot gedeelte van haar tijd kwijt zijn over het vechten over belangen tussen de lidstaten, waar de fabrieken komen, de hoofdzetel etc. Dat gaat nooit werken.
Volgens die redenering bestaat SoftBank ook niet, dat is een virtuele organisatie. Wat wel bestaat is zijn grote aandeelhouders die hun eigen belangen hebben.

Het werkt ook met Airbus, dat is ook ontstaan door Europese overheden en bedrijven die accepteerden dat internationale samenwerking nodig was om tegen Boeing e.d. op te boksen.

Wel eens dat het zomaar oprichten van een consortium niet meteen de beste optie is en erg complex kan blijken. Zo gaat het nog niet helemaal lekker met GAIA-X.

De vraag is ook of ARM zich wel gebaat voelt bij zo'n overname, er is juist vanuit het VK ook enorme kritiek op de overname vanuit de VS gezien de werkgelegenheid, innovatie en concurrentiepositie die het bedrijf het VK brengt.
De vraag is wie dan? We hebben in Europa chipgiganten als STMicroelectronics maar als die ARM zouden overnemen krijg je eigenlijk hetzelfde probleem als met NVIDIA dat STM een chipfabrikant is en er dus marktverstoring kan optreden.

Je moet dus een partij of consortium hebben die dit soort bedragen bij elkaar kunnen krijgen, er belang bij hebben om ARM te bezitten, maar die niet concurrent zijn van de klanten van ARM.

Begrijp me niet verkeerd, ik ben ook voorstander van dit soort technologie in Europese handen houden, de vraag is vooral hoe dan? Misschien is het makkelijkste nog te hopen dat ARM in London/Parijs/Amsterdam/Frankfurt/Milaan naar de beurs gaat en het hoofdkantoor in Europa houdt.

[Reactie gewijzigd door Maurits van Baerle op 24 juli 2024 19:56]

Dit is echt een zeer goede zaak voor de consument en technologische vooruitgang !
Voor nu wel ja, maar er komt vast en zeker een andere partij die het ook wilt proberen.

Waarom willen ze het eigenlijk verkopen? ARM lijkt me de komende jaren nog steeds verder te groeien, wat is de reden om het nu als investeerder weer te verkopen? Verkoop je niet dingen als je weet dat ze (weer) gaan dalen in opbrengst?
Ik denk dat ARM voor altijd een speelbal van de beurs zal blijven.

Omdat er iemand nu eenmaal veel geld voor heeft geboden zullen de aandeelhouders blijven proberen het bedrijf te verkopen om te kunnen cashen.
Beperkte groei, gigantische investeringen voor hun eigen cores terwijl hun twee grootste klanten custom cores maken (Qualcomm en Apple) en hun grootste klant de infrastructuur heeft om zo van ISA te veranderen en bezig is zo veel mogelijk onafhankelijk te worden van derden.

ARM heeft kleine winst en weinig ruimte om de prijzen te verhogen.
Nvidia zou Arm overnemen voor 40 miljard dollar...
En de EU kondigde net aan dat het 40 miljard Euro wil investeren in chipproductie... ik zie een link. :+

Alle gekheid op een stokje, het zou volgens mij betere zijn mocht het bij een Europese speler belanden dan bij een Amerikaanse.

[Reactie gewijzigd door IStealYourGun op 24 juli 2024 19:56]

Dit is het beste computer nieuws van 2022 tot dus ver.

Ik gruwelde al vanaf het begin dat ARM over genomen zou worden. Arm moet een onafhankelijk zelfstandig blijven waar ieder bedrijf processoren kan laren maken.

Nu nog wat doen aan vijandige overnames waar dit toch wel heel veel van weg had. Dat dit in de toekomst niet meer kan gebeuren.
Dat dit in de toekomst niet meer kan gebeuren.
Hoe bedoel je ????

Wat moet er in de toekomst niet meer gebeuren ? - Er is nu toch ook niets gebeurd ? Het systeem heeft in dit geval prima gewerkt, en de voor de markt ongunstige overname is niet doorgegaan. Er is dus geen reden dat er hierom ergens wat aan gedaan zou moeten worden.
vijandige overname.

Op dit item kan niet meer gereageerd worden.