Gerucht: Nvidia wil Arm kopen

Nvidia zou interesse hebben in de overname van chipontwerper Arm. Dat zeggen bronnen die daarbij betrokken zijn tegenover financieel persbureau Bloomberg. Vorige week kwam naar buiten dat SoftBank, de huidige eigenaar van Arm, een verkoop overweegt.

Nvidia heeft volgens de bronnen van Bloomberg in de afgelopen weken toenadering gezocht bij Arm over een mogelijke overname. Er zouden volgens de bronnen nog andere bieders naar voren kunnen komen, maar details daarover zijn nog niet bekend.

The Wall Street Journal bracht vorige week naar buiten dat het Japanse SoftBank Arm Holdings in zijn geheel of gedeeltelijk wil verkopen. Ook zou een beursgang onderzocht worden, waardoor het bedrijf zelfstandig verder kan. SoftBank nam Arm in 2016 over voor 24,3 miljard Britse Pond. Destijds zo'n 29 miljard euro.

Bloomberg stelt dat een eventuele overname van Arm door Nvidia de grootste overname in de chipindustrie zou kunnen worden. Nvidia is in de afgelopen vier jaar ongeveer acht keer zoveel waard geworden. Het bedrijf, dat videokaarten maakt, groeit vooral dankzij zijn gpgpu's voor datacenters. Door Arm in te lijven zou Nvidia in theorie zelf complete systemen voor datacenters kunnen maken, met zowel cpu's als gpu's. Nu combineert Nvidia zijn datacenter-gpu's met Epyc- en Xeon-cpu's van AMD en Intel.

Volgens Bloomberg heeft SoftBank ook Apple benaderd. De bedrijven zouden gesprekken hebben gehad, maar Apple zou niet van plan zijn om een bod uit te brengen op Arm. Het businessmodel van Arm bestaat grotendeels uit het uitgeven van licenties op chipontwerpen aan andere bedrijven en dat zou niet passen bij de strategie van Apple.

Een overname van Arm door een ander bedrijf uit dezelfde branche komt vermoedelijk onder een vergrootglas te liggen bij regelgevende instanties en mededingingsautoriteiten. Veel bedrijven zijn nu afhankelijk van de licenties die ze bij Arm afnemen om chips te maken.

Door Julian Huijbregts

Nieuwsredacteur

23-07-2020 • 08:10

218

Submitter: TheVivaldi

Reacties (218)

218
208
124
25
2
65

Sorteer op:

Weergave:

Door de consument jarenlang te naaien door veel te hoge prijzen voor hun chips en videokaarten te vragen heeft Nvidia nu zoveel geld dat ze ARM kunnen kopen. Walgelijk!
Er is geen enkele dwang om NVIDIA te kopen, de markt is open en vrij. Je kunt zeker Nvidia niet de schuld geven van hun prijzen, die word tenslotte bepaald door de vraag. Je kunt de kopers idioten noemen maar ja, als Nvidia goede kwaliteit bied voor het geld (en waarom zouden mensen het anders kopen?) lijkt me dat ook niet onredelijk. Dit gezeur over hun prijzen is echt super dom. Als je het te duur vind koop je het toch niet? Het is niet alsof je geen keus hebt. En ja amd kaarten zijn langzamer maar ja dat Nvidia beter producten maakt is hun schuld toch niet? Ik vind sowieso iedereen die meer dan 200 euro aan een video kaart uitgeeft de weg kwijt maar goed dat vind ik ook van mensen met een dure auto. Ieder zijn of haar keus.

[Reactie gewijzigd door Superstoned op 23 juli 2024 07:21]

Dat is het hem juist. Je hebt GEEN keus als je een high-end kaart wilt zoals de 2070 Super. Er is een monopolie van Nvidia id high-end wat nooit goed is en ze zoveel kunnen vragen als ze willen en dat blijkt. Vroeger kostte een kaart klasse 2070 €400, nu is dat >€500 wat geen normale prijzen meer zijn. Als je nu beneden de €500 wilt blijven moet je een 2060 Super nemen maar dat is niet genoeg om deftig te gamen. Dus ja, je bent verplicht om Nvidia te nemen en dat heeft niets met vraag te maken, je kan niet anders als je een beetje deftig wilt gamen. Wees maar zeker dat er niemand graag >€500 aan een videokaart uitgeeft.
Er staat in het artikel “Het bedrijf, dat videokaarten maakt, groeit vooral dankzij zijn gpgpu's voor datacenters”. Het feit dat jij (te)veel hebt uitgegeven aan een videokaart is dus niet de hoofd reden dat Nvidia het zo goed doet. Zij hebben recentelijk ook Mellanox en Cumulus overgenomen, beide spelers in de datacenter markt. Dat laat ook wel een beetje zien wat hun strategie is en waar ze hun markt positie en producten willen versterken.
Ik heb niet te veel uitgegeven voor mijn Nvidia grafische kaart. Ik heb ze gekocht op Black Friday toen de prijs tijdelijk onder de €500 kwam. €480 als ik eht mij goed herinner voor een 1070Ti. Nog te veel naar mijn goesting maar toch onder mijn max grens van €500 die ik wil uitgeven voor een grafische kaart.

Ze groeien vooral door hun gpgpu's maar dus ook door hun overpricede gpu's voor gamers.
Waarom is Intel niet op overnamepad eigenlijk? Intel had allang AMD en ARM moeten kopen, omdat ze weten dat Apple (snel) en Microsoft (langzamer) ook naar ARM een overstap maken.
Intel wil AMD niet hebben omdat dat hun positie te sterk zou maken. Het is beter om een (zwakkere) concurrent te hebben dan om alleenheerser op de x86 markt te zijn.
Maar het zou wel goed voor ze zijn om ARM te kopen, want daarmee blijft zowel Apple als Microsoft klant als beiden de overstap hebben gemaakt. Ik denk dat iedereen weet dat x86 een eindigende architectuur is.
Intel dacht met een compleet nieuw Itanium ontwerp ook een einde aan hun eigen x86 ontwerp te kunnen brengen. Ironisch genoeg versloeg de doorontwikkelde x86 architectuur het nieuwe Itanium design.

Door nieuwe ontwikkelingen is de x86 architectuur telkens mee geëvolueerd en niet meer te vergelijken met de eerste generaties.
De ARM architectuur verliest het dan ook nog steeds van de x86 architectuur.
Bij Itanium speelde een aantal andere overwegingen mee:

1. Vrijwel alleen x86 specifieke software voor Windows, die nooit beter zou draaien op Itanium.
2. Geen compilers die goed overweg konden met de Itanium instructieset.
3. Code die geschreven was voor conventionele CISC en RISC processoren.
4. Beperkingen in het ontwerp van Itanium processoren in vergelijking met bijvoorbeeld Elbrus.

Je kunt niet zeggen dat de ARM architectuur het over de gehele linie verliest van de x86 architectuur. Je kunt hooguit zeggen dat de huidige ARM-compatibele processoren het op bepaalde gebieden afleggen tegen x86-compatibele processoren. Maar dat zal andersom ook het geval zijn.
Bij het ontwerp van de Itanium wist men van tevoren dat lang niet alle software er op zou draaien.
Dat heeft men bij voorbaat al voor lief genomen en zou niet onoverkomelijk zijn voor de high-end server en HPC toepassingen waar de Itanium met name voor bedoeld was. De performance winst zou alles goedmaken was de gedachte.

Dat de Itanium performancewinst echter behoorlijk tegenviel t.o.v. de toen uitgebrachte x86 lijn, was al een teken aan de wand. Qua prijs/prestatie verhoudingen was de balans al helemaal zoek en sterk in het voordeel van de x86.
Toen AMD in 2003 ook nog eens kwam met de 64 bits AMD64 uitbreiding en Intel wel door Microsoft zwaar aangespoord werd om dit ook te implementeren in z'n eigen x86 processoren (EMT64) was achteraf gezien eigenlijk al de 'doodsteek' voor de onder presterende Itanium lijn.

Men heeft zich bij HP en Intel simpelweg vergist in de snelle doorontwikkeling van de x86 architectuur.
Tot Intels pijn heeft Microsoft destijds aangegeven dat de x86_64 implementatie van AMD toen ook nog eens beter was dan die van Intel, maar er was een nieuwe de facto 64 bits standaard ontstaan voor de x86 architectuur. Later is de IPC van de x86 architectuur nog verder verhoogd en had de Itanium eigenlijk al geen bestaansrecht meer.

De ARM architectuur is voornamelijk vanuit de mobiele apparatuur sector ontwikkeld en pas sinds kort krijgt deze door de ontwikkelingen ook langzaam voet op de desktop/server markt.
De ARM architectuur heeft zeker zo z'n voor en nadelen. Doordat er echter beweerd werd dat deze beter is dan de x86 architectuuur (ook op de desktop/server), heb ik doelbewust aangegeven dat zelfs de snelste ARM het verliest qua integer en floating point performance van de high-end x86 processoren.

Concurrentie is echter altijd goed en het forceert om het duopolie van AMD / Intel niet stil te zitten qua R&D. We hebben de afgelopen jaren gezien wat er gebeurt op de desktop/server markt indien er geen concurrentie is.
> Doordat er echter beweerd werd dat deze beter is dan de x86 architectuuur (ook op de desktop/server), heb ik doelbewust aangegeven dat zelfs de snelste ARM het verliest qua integer en floating point performance van de high-end x86 processoren.

Dat verschil is nu al zo klein dat het in de single digits is en kan elk moment omslaan dus doen alsof er iets speciaals is aan arm waardoor het achter loopt slaat echt nergens op. En ja ik denk dat veel mensen die opmerking (en andere, vergelijkbare opmerkingen van andere mensen) zo lezen. Het is een instructieset waarmee je snellere of langzamere chips kunt maken en de instructieset maakt tegenwoordig echt niets meer uit. Het is überhaupt amper duidelijk wat nu echt de snelste x86 is (Intel of amd? Hangt af van de workload) en arm zit daar maar net iets achter. Of voor, als je een amd of intel chip beperkt tot 3 of 4wat - dan presteren ze slechter dan in elk geval de chips van Apple. Op zich logisch, ze zijn daar niet op getuned, maar het geeft wel aan hoe dicht bij de twee zijn. Ook de Qualcomm in de Samsung Chromebooks doet het vrijwel even goed als de Intel variant. En qualcomm loopt flink achter op Apple, ofwel de beste arm chips. Op een “level playing field” is arm dus absoluut niet slechter, waarschijnlijk zelfs al sneller, het is alleen zo dat nog niemand een arm cpu met ~75 watt stroom verbruik en een focus op redelijke single threaded prestaties heeft gemaakt. Maar goed, dat komt binnen een jaar ouzo dus dan kunnen we deze discussie eindelijk stoppen.
Ok een paar dingen.

1. Vergelijken met Itanium is een heel slecht idee, omdat de redenen om nu te switchen naar ARM anders zijn (n.l. energie efficiëntie gecombineerd met semi-desktop-class prestaties in een mobiele package, iets dat de x86 familie nooit zal lukken, niet dat Intel het niet geprobeerd heeft) dan de redenen destijds waren om te switchen naar Itanium (enkel betere prestaties, die x86 uiteindelijk kon overwinnen onder invloed van met name Moore's Law)

2. Natuurlijk doet een smartphone onder voor een desktop, dat heeft meer te maken met hoeveel power de respectievelijke devices kunnen leveren en tevens aan hitte kwijt kunnen. Dat is gewoon beperkter bij een telefoon, en zpi niet anders zijn met een x86 cpu erin.
Gegeven wat Apple van plan is, en de chip die ze hebben zitten in hun developer kit voor desktop ARM-based macs,, is de aanname dat ARM onder gaat doen voor Intel chips een hele gevaarlijke. Ik heb geen speciale kennis van Apple intern, maar ik kan je garanderen dat ze geen miljarden uitgeven aan inferieure-of-uiterlijk-gelijke prestaties.
Intel heeft in het verleden al eens een x86 processor voor de mobiele markt gemaakt. Deze kon qua performance/watt concurreren met alle destijds aanwezige ARM processoren. Ook die uitspraak is dus niet geldig over de x86 architectuur.

Het blijft echter een beetje appels met peren vergelijken indien je het over ARM en x86 hebt. Concurrentie is echter altijd goed.
Deze kon qua performance/watt concurreren met alle destijds aanwezige ARM processoren.
Bron? Elke indicatie die ik destijds kreeg was precies het tegenovergestelde namelijk. Intel's chip bleef ver achter qua prestaties en prestaties/watt tov ARM. Ik vond het daarom ook niet vreemd dat Intel het maar 1 of 2 generaties heeft uitgehouden.
With its combination of power, performance, and packaging, Medfield is a genuinely viable smartphone platform. Atom has always had the performance it needed to compete in this space, and now it also has the low power and high integration to tackle Cortex A9 head on
Te bedenken dat Medfield nog gebaseerd was op de relatief trage Intel Atom, die nog niets eens over out-of-order executie beschikte. De performance/watt was al goed, terwijl de SoC nog duidelijk voor verbetering vatbaar was met wat aanpassingen. Intel kon toen indien nodig zelfs nog naar een kleiner procedé dan de ARM concurrentie stappen met een bijkomend voordeel.

Intel heeft het toen niet op techniek verloren in de mobiele sector, maar op het destijds gevoerde beleid (waar men zich natuurlijk ook terdege van bewust was).
Fabrikanten kijken niet alleen naar de specs en kosten van een chip, maar ook naar levering op de langere termijn met "second sourcing" . AMD is zelfs ontstaan vanwege die reden. Indien je de mogelijkheid hebt, wil je natuurlijk niet van één leverancier afhankelijk zijn.

Indien ARM overgenomen zou worden, kunnen er ook nieuwe voorwaarden en omstandigheden voor fabrikanten ontstaan waar men niet op zit te wachten...
Dat appels met peren, dat snap ik niet. De instructieset is bijna totaal irrelevant tegenwoordig. Je hebt gelijk dat de atoms verschillende malen in hetzelfde “ballpark” zaten vergeleken met de arm chips qua efficiency al was de rest van het platform bij Intel niet zo goed - de gpu bijvoorbeeld. Of kijk naar de eerste generatie Atom laptops - waarbij de cpu snel en efficiënt was maar de chipset actieve koeling nodig had!!! Echt een scenario “Ferarri met de handrem aan” dus... arm of x86 kunnen allebei alles qua efficiency en prestaties, iemand moet er gewoon een chip en platform voor bouwen. Intel is nooit goed geweest in low power en arm is altijd juist daarop gefocussed maar dat is alles...
Een kleine aanvulling. X86 instructieset is nooit hun eigen ontwerp geweest. In 1969, toen ze vooral geheugenproducent waren en bezig waren met de 4004, wat technisch gezien nog geen processor was, kwam een Texaans bedrijf bij ze langs genaamd CTC/datapoint. Die waren bezig met de datapoint 2200, een revolutionair ontwerp. Aan de investeerders werd het gepresenteerd als een domme terminal om investeringen te kunnen krijgenm maar hun idee was een desktop computer. Het als zelfstandige machine te laten draaien. Op de werkplek zonder een mainframe. Een eigen instructieset die ze met TTL hadden ontwikkelde wilde ze graag als geintegreerd circuit zien. Texas Instruments kon het niet. INTEL wel, maar hadden het niet op tijd af. En de snelheid voldeed niet aan het ttl ontwerp. TTL bleef tot begin jaren 80 nog door Datapoint in gebruik. Intel kocht de rechten voor 10.000 dollar om door te mogen gaan en dat werd de 8008. Wordt weleens als slechtste businessdeal ooit weggezet. Dezelfde Datapoint engineers hebben Intel met geholpen met problemen tijdens het ontwerp van de 8080. Er is over heel deze geschiedenis weinig bekend maar paar jaar terug is er een boek over verschenen. Zeer interessant om te lezen.
De Datapoint 2200 wordt inderdaad wel gezien als de allereerste Personal Computer en voorloper van de IBM PC.
Heb zelf nog de Z80 in assembly geprogrammeerd en die instructieset stamt weer af van de 8080.
Ik denk dat iedereen weet dat x86 een eindigende architectuur is.
Voor high-performance personal computing is er in de nabije toekomst nog geen alternatief. Een ander probleem is backwards compatibility, die ontbreekt met ARM.

x86 gaat voorlopig nergens heen. ARM komt erbij, maar gaat het niet vervangen.
De snelste supercomputer ter wereld draait nu echter al wel op ARM...
Dus ik denk dat het ook nog wel meevalt ;)
Da's een aparte manier om iets te verklaren. Er is *een* (?) supercomputer op ARM en dat verklaart waarom x86 architectuur eindig is? Misschien even eerst naar de werkelijke toegepaste aantallen kijken?

Er zal een verschuiving naar low power, low performance, high graphics, intreden vanwege gecentraliseerde virtualisatie oplossingen (Citrix, RDP). En da's vooral leuk voor "algemene" zaken (Office, browsen, generieke bedrijfsapplicaties). Voor iedereen die echte rekenkracht en (backward) compatibiliteit nodig heeft, zal x86 voorlopig de klok slaan.
Ik denk dat dat nog wel eens sneller kan omslaan dan je denkt,

Zie apple die overgaat naar ARM
De chip in de ipad pro geeft menig x86 proc het nakijken op een kwart van het tdp.

ARM is gewoon een modernere instructieset en vrij van krappe telefoon tdp’s gaan deze dingen denk ik nog wel eens heel veel mensen verbazen
Apple neemt al heel wat jaren de zakelijke "pro-user" markt niet serieus meer. Voor een gemiddelde gebruiker is ARM ondertussen ruim voldoende, net als X86 dat al een jaar of 10 is. In sommige workloads is ARM krachtiger dan X86 bij hetzelfde vermogen, maar dit zijn hele specifieke workloads.

Wat ook niet helpt is dat huidige Intel chipjes het zelfs op bepaalde berekeningen gewoon afleggen tegen een 10 jaar oudere AMD Phenom ( https://www.youtube.com/watch?v=Rp6_bfZ4nuE ).

Maar over de gehele breedte heen is een X86 per watt nog altijd een stukje krachtiger dan ARM en belangrijker, een heel stuk veelzijdiger. X86 heeft belachelijk veel instructies vergeleken met een ARM, waarvan er ook genoeg zijn waar een X86 chip voor 1 berekening op 1 instructie in 1 clockcycle van alles uitvoert, waar het op ARM een tiental clockcycles nodig heeft.

[Reactie gewijzigd door batjes op 23 juli 2024 07:21]

@freaq het CISC vs. RISC debat is oud. Erg oud. Feit is dat de legacy van Intel nog lange, lange tijd door zal denderen, zeker in het datacenter. Maar. Met de enorme stappen mbt abstracties die de afgelopen tien, twintig jaren gedaan zijn is het voor veel client systeem absoluut niet interesant meer welke architectuur er op een device draait, als de functionaliteit maar kan meeschalen met de behoefte van de gebruikers.

Datzelfde (gaat) gelden in het DC en in Cloud. Niet gelijk, maar de abstactie van bijvoorbeeld container services creert een laag waar de service het laagste punt is in een IT infrastruktuur en het dan niet belangrijk of interesant is of er wel/niet Intel/AMD/ARM onder draait.

En dat is logisch: een Intel chip van nu kan nog steeds de 286 code draaien van Wolfenstein 3D uit 1993. Is dat nuttig in een Enterprise omgeving ? Nee. Genereert die en andere legacy verplichtingen een hoop dark silicon waar de klant wel voor betaald ? Ja. Dus word en niet snel maar wel geleidelijk ook in de enterprise hoek gekeken en gewerkt aan alternatieven die zonder verstoring voor de klant ingezet kunnen worden.

Ook intel gaat voor een deel afscheid nemen van de uitgebreidere instructie set met de introductie van de BIG/small architectuur waarbij bijvoorbeeld AVX512 en FP16 niet gebruikt kunnen worden wanneer de little cores aan staan. maar Intel zal niet snel (nooit?) een RISC chip uitbrengen als complete vervanging van zijn/haar product lineup. En precies daar zit het marktaandeel van ARM, en dat word groter. Ook in het DC.
.oisyn Moderator Devschuur® @ataryan23 juli 2020 12:29
het CISC vs. RISC debat is oud. Erg oud.
En vandaag de dag bovendien grotendeels irrelevant. Een instructieset is tegenwoordig niet veel meer dan "gewoon een manier om de opdrachten te encoderen voor de CPU", en zegt het weinig over hoe hij die intern afhandelt. Want hedendaagse x86-cpu's zijn intern tegenwoordig ook gewoon RISC, met microcode die de complexe instructies vertalen naar meerdere stappen en een veel grotere register file dan het aantal "virtuele" registers dat de instructieset aanbiedt. Het 1 instructie = minstens 1 cycle verhaal klopt ook niet, want verschillende instructies kunnen tegelijkertijd zelfs in omgekeerde volgorde worden afgehandeld.

Zo is de REP CMPSB uit @batjes' voorbeeld eigenlijk best een slecht voorbeeld, aangezien dezelfde of soms betere performance te halen valt door de loop uit te schrijven, met slim gebruik van grotere registers. Specifiek STOS (store string) en MOVS (move string) hebben sinds Intel's Ivy Lake dan wel weer een update gehad door de cache te bypassen voor de store, wat hetzelfde is als zelf handmatig een MOVNT instructie te gebruiken ipv een standaard MOV, met bijkomend voordeel dat je met de REP MOVS/STOS veel minder bytes nodig hebt om de opdracht te encoderen waardoor er meer instructies in de instruction cache passen.

Hoe dan ook, er zitten ontzettend veel nuances aan uitvoeren van CPU instructies, en een x86 CPU van nu is echt compleet anders dan de originele 8086 terwijl de instructieset nagenoeg hetzelfde is gebleven.

[Reactie gewijzigd door .oisyn op 23 juli 2024 07:21]

ff terug ontopic; NV heeft met een (eventuele) aankoop van ARM een stuk toekomst gekocht waar het de Ultra Highend HPC segment beschikbaar gaan maken voor 'Jan met de datacenter-Pet' wat waarschijnlijk in een appliance achtige setup aangeleverd gaat worden; vergelijkbaar met de DXG's van nu. Zonder Wolfenstein 3D. En met, naar mijn verwachting, wederom enorme snelheids winst en $$$ besparingen.

RISC vs. CISC is een oud debat, zo oud, het word weer nieuw; minder relevant voor de klant van nu :)
En dat is logisch: een Intel chip van nu kan nog steeds de 286 code draaien van Wolfenstein 3D uit 1993. Is dat nuttig in een Enterprise omgeving ? Nee
Hoewel ik weinig bedrijven ken die Wolf3d in hun kantoren zullen waarderen denk ik dat je onderschat hoeveel (grote) bedrijven nog steeds programma's gebruiken die ontworpen zijn voor een 8086 of i386. Sterker nog, het is nagenoeg de enige reden waarom Microsoft nog steeds een 32-bit versie van Windows onderhoudt (oké, vooruit, er zal vast ergens nog wel een gek rondlopen die Windows 10 wil draaien op zijn 32-bit Yonah Core Duo 8)7 )
X86 heeft belachelijk veel instructies vergeleken met een ARM, waarvan er ook genoeg zijn waar een X86 chip voor 1 berekening op 1 instructie in 1 clockcycle van alles uitvoert, waar het op ARM een tiental clockcycles nodig heeft.
Kan je dat uitleggen? Wat voert die X86 dan uit op basis van die 1 berekening, 1 instructie, 1 clockcycle? Ik snap m niet.
Heel kort samengevat: x86 is een architectuur die werkt met een CISC-instructieset (de x86-instructieset is CISC). ARM is een architectuur die werkt met RISC-instructieset.

Wat dat exact inhoudt is nogal lastig uit te leggen, maar het heeft te maken met het aantal verschillende instructies dat de processor per klokcycle kan uitvoeren. Bij RISC instructiesets is het aantal verschillende instructies beperkt en zijn de instructies eenvoudig van aard. Bij CISC instructiesets is het aantal verschillende instructies een stuk groter en kunnen deze instructies ook een stuk complexere taken vervullen.

Zie het zo: een CISC-instructie zou kunnen zijn: zaag een balk in drie gelijke delen. Een RISC-equivalente operatie zou dan de volgende instructies bevatten:
- Neem een balk
- leg deze op de zaagtafel
- meet totale lengte balk L
- deel L door 3 en verkrijg x
- zet zaaglijn op afstand x van 0
- zet zaaglijn op afstand 2x van 0
- zaag op gemarkeerde zaaglijnen

Waarom dit een belangrijk verschil is, is omdat de RISC-processor in totaal 7 klokcycles nodig heeft om deze operatie uit te voeren, en de CISC slechts 1. Dus voor de specifieke workload “zaag een balk in drieën” is een CISC processor veel beter geschikt en derhalve sneller en efficiënter.

Omgekeerd, als de instructie van de processor slechts zou zijn “zaag op aangegeven zaaglijnen”, dan is dat een instructie die zowel voor de RISC als de CISC processor 1 klokcycle duurt. Alleen komt dan om de hoek kijken dat een CISC processor een veel grotere overhead heeft door zijn uitgebreidere ontwerp. In zo’n geval is een RISC-processor zoals ARM maakt weer sneller.

Dat is waarom je ARM en x86 nooit één op één kunt vergelijken. De prestaties zijn in zeer grote mate afhankelijk van het type workload dat de processor moet uitvoeren.
Het is helemaal niet waar dat CISC chips per definitie al die instructies in 1 klok cycle kunnen uitvoeren.

Sterker nog, Intels x86 chips zijn intern een RISC, de instruction decoder vertaalt van de CISC x86 instructies naar de interne RISC instructies. Voor de complexere instructies wordt er gewoon een procedure gestart vanuit een stuk ROM dat er in die decoder zit.

Anderzijds, een moderne chip kan meer dan 1 instructie tegelijk uitvoeren, omdat de memory unit en ALU los van elkaar kunnen opereren. Vaak zijn er ook nog meerdere arithmetic units, waardoor er dus gewoon meerdere berekeningen tegelijkertijd kunnen gebeuren. Voorwaarde is natuurlijk wel dat een degelijke Out-Of-Order executie niet het resultaat aanpast, dus het is volledig afhankelijk van de workload.

In ieder geval, het aantal instructies dat nodig is om een berekening uit te drukken in verschillende instructie sets zegt niet per se veel over de executieduur.
Even een voorbeeld hier van: https://stackoverflow.com...hitecture-differ-from-x86
An example comparing instruction set architecture:

For example if you would need some sort of bytewise memory comparison block in your application (generated by compiler, skipping details), this is how it might look like on x86

repe cmpsb /* repeat while equal compare string bytewise */
while on ARM shortest form might look like (without error checking etc.)

top:
ldrb r2, [r0, #1]! /* load a byte from address in r0 into r2, increment r0 after */
ldrb r3, [r1, #1]! /* load a byte from address in r1 into r3, increment r1 after */
subs r2, r3, r2 /* subtract r2 from r3 and put result into r2 */
beq top /* branch(/jump) if result is zero */
1 'simpele' berekening voor Intel is dan 1 instructie dat in 1 clockcycle uitgevoerd wordt.
Diezelfde berekening is op ARM 5 instructies en meerdere clockcycles over de CPU heen, wil je daar nog fout tolerantie bij op ARM, komen daar nog een paar instructies meer bij kijken. Je zit zo heel snel aan tig instructies op ARM dat in 1 enkele handeling op X86 uitgevoerd wordt.

Al is dit voorbeeld misschien niet de beste voor het uitvoeren van de instructie in 1 clockcycle bij X86, kunnen wel eens meer cycles kosten in dit geval. Maar ik ben helaas geen cpu instructieset expert.

[Reactie gewijzigd door batjes op 23 juli 2024 07:21]

Daarmee zeg je dat ARM geen instructie sets heeft wat niet correct is. X86/ X86-64 gebruiken allemaal instructies om zaken sneller uit te voeren. (dat is ongeveer ook wat je uitlegt) Maar ARM heeft die ook. dus dat zegt niets over de snelheid. kijk een op Geekbench en verbaas je dat er een hoop ARM chips sneller zijn dan de i5 en een aantal sneller dan de i7 van Intel. ;)
ARM's instructies zijn veel simpeler van opzet, vandaar dat je voor de x86 equivalent al snel een handje vol instructies nodig hebt om datzelfde op ARM uit te voeren.

ARM instructies zijn op zichzelf vaak een stukje sneller dan instructies op x86, maar zelfs al zijn ze 2 keer zo snel, als je dan 5 keer zo veel instructies nodig hebt om hetzelfde te bewerkstellen, schiet je daar niet al te veel mee op.

ARM is in een aantal situaties nogal wat sneller dan huidige X86, maar dat zegt (zoals ik eerder al aangaf) niet denderend veel. Er zijn ook 10 jaar oude X86 chips die in bepaalde handelingen een stuk sneller zijn dan moderne x86 chips (zie phenom vs intel video).

Dat zo'n benchmark ook aangeeft dat de krachtige ARM net de middenmoot van Intel weet bij te benen, tja. Boven die i5 en i7s zit nog een i9, Xeon, Ryzen, Threadripper en EPYC.
Als je het over de huidige stand van zaken hebt dan klopt dat. Maar da's een kwestie van tijd. 5 jaar geleden deed een arm hooguit 20% van een i7 qua performance en dat gat is op procenten na ingelopen. Dat bewijst 2 zaken:
1: Dat Intel niet snel genoeg is met ontwikkelen dat ze ARM met gemak achter zich kunnen houden.
2: dat de ARM community alles behalve stil heeft gezeten en grote stappen heeft gemaakt.

Als je over 5 jaar kijkt en ARM blijft diezelfde ontwikkeling doormaken dan is ARM marktleider en dat gaat zeker gebeuren als grote tech bedrijven als Apple, Microsoft, Google en AWS zich er mee gaan bemoeien. Ze willen in hun datacenters af van power hungry X86 CPU's. ARM gebruikt een fractie van de stroom van een X86.
Er zijn inderdaad nette stappen gezet door ARM chipbouwers de afgelopen 5-10 jaar en het gaat zeker de goede kant op.

Maar je loopt ook gewoon tegen limieten op van CISC vs RISC (al is x86 ook een soort RISC), die niet zo maar op te lossen zijn door er meer cores en/of hogere clocksnelheden tegen aan te gooien. Want dan loop je tegen oppervlakte en verbruiks problemen aan en AMD (straks Intel?) kan er ook gewoon meer cores tegenaan blijven gooien, zie EPYC met 64cores/128threads. Als je naar de gemiddelde performance per watt kijkt, is X86 helemaal niet zo power hungry.

Het zit voor een deel puur in de instructie sets. Die van ARM zijn platgezegd, gewoon te simpel voor veel complexe taken. Er zijn situaties en usecases waar ARM het wint en daar zal ARM ook steeds meer ingezet worden. Maar X86 gaat in de nabije toekomst echt helemaal nergens heen en zal zeker niet van de troon gestoten worden bij de grote cloud boeren, datacenters, workstations en gamePC's.

Apple en Microsoft willen voornamelijk gewoon van die afhankelijkheid bij Intel af. Apple legt de afhankelijkheid bij zichzelf neer en Microsoft legt de afhankelijkheid minder bij Intel, maar meer bij zowel AMD als ARM.
Fijn dat er met jou wel te discussieren valt! top!

/On topic: Welke limieten bedoel je precies in het verhaal CISC vs RISC? Want in feite is die limiet hardwarematig (1 slimme vs meerdere eenvoudige cycles) het is aan de softwarebouwer om daar slim mee om te gaan en goede performance mee te behalen. Linux draait al enkele jaren perfect op ARM. Zeker als je Kubernetes en Docker draait. Dit is één van de redenen voor serverbouwers om over te gaan naar ARM socs. zuiniger, minder complex en beter schaalbaar.
Lees deze eens: https://www.anandtech.com...-gen-arm-server-processor
Daar zie je dat ARM steeds meer terrein Wint op X86. ARM is overigens ook beter horizontaal schaalbaar dan X86. daarbij zal altijd enige mate van performance verlies optreden echter is die decline veel minder steep dan van X86. Ook de complexiteit is lager aangezien een RISC maar 1 instructie per cycle doet. Dus de workload is makkelijker te verdelen.

Lees ook deze eens: https://www.techpowerup.c...ough-to-replace-the-giant

Aan de mobile/ desktop kant: Apple heeft bijvoorbeeld in de A12X 8 cores hebben zitten waarvan 4 zuinige cores en 4 performance cores. Zodra de workload hoger wordt dan worden die laatste cores ingeschakeld. Ook zitten er 8 GPU cores in die opgeschaald worden zodra de workload hoger wordt. Dit betekend per definitie dat de CPU's over langere tijd zuiniger zullen zijn. standaard 0,7 watt en een max van 7 watt als alles full-blown draait. Da's wat anders dan een vergelijkbare i5 die alsnog 65 Watt vreet bij maximale belasting en 14 watt bij lage/ Idle workload. en dan praten we over 2 chips met dezelfde ruwe performance (dus even afgezien van welke software hier op draait) toch wel significant. ook de prijs is erg verschillend. de ARM kost ongeveer 85$ en de Intel chip 235$. ook heb je bij de Intel chip nog een Chipset nodig om de interfaces te faciliteren terwijl de ARM dit niet nodig heeft.
Dit is idd. een heel fout voorbeeld want cmpsb heeft sowieso al 5 clockcycles nodig ( http://faydoc.tripod.com/cpu/cmpsb.htm ) en dus met een repe 9+4N.

Het is helemaal niet handig zo risc vs. cisc te bekjken.
Het CISC/RISC debacle is allang gesettled: intern is iedere hedendaagse x86 processor gewoon RISC, de decoder maakt van alle instructries micro-ops die erg simpel zijn. Die 1e instructie worden er intern ook een stuk of 5.
x86 is CISC hoor.... ARM is een RISC processor.
Zoals ik al zei, intern is het geïmplementeerd als zijnde een RISC cpu. Wat je er in stopt qua instructies is niet echt relevant, want het eerste wat de decoder doet is een micro-ops cache vullen met gedecodeerde instructies, die meer RISC-style zijn.
Zoals ik al zei, dat is niet hoe een x86 intern werkt! Van binnen, dus niet de instructies die je er in stopt maar wat de CPU daadwerkelijk doet, is het precies een RISC zoals je link vertelt.

Kijktip om zelf je huiswerk te doen: https://www.youtube.com/watch?v=lY5kucyhKFc

[Reactie gewijzigd door markiemannie op 23 juli 2024 07:21]

Het Risc vs Cisc debat is niet alleen heel oud, maar zoals @.oisyn al zei ook volstrekt achterhaald door de adoptie van micro-ops in X86 silicon.

Overigens is dat debat ook altijd heel merkwaardig gevoerd. Alsof er iets instrinsiek beter zou zijn aan een architectuur die alleen simpele instructies kon verwerken. Integendeel!

Vergelijk het met een compiler. In the old days moest je om een lijn te tekenen een serie assembly instructies opnemen om een punt te zetten op het scherm en dan een routine om die punten zo te plaatsen dat ze de gewenste lijn opleverden. In een volgende fase had de compiler een graphics library die je gewoon kon vragen een lijn van A naar B te zetten. Hoe dat dan uitgevoerd werd was compleet geabstraheerd en het kon dus ook prima uitgevoerd worden door dedicated hardware.

Hoe hoger level je een compiler kunt aansturen, hoe minder werk en hoe optimaler die zijn werk kan doen. Vertel dat je eigenlijk een cirkel wil en de hardware kan dan de juiste shortcuts maken vs die lijn. Vertel dat het een bal is met oppervlak x en licht y en de compiler > hardware levert die een prachtig geraytraced beeld op met gebruikmaking van alle mogelijke optimalisaties.

Als ik de CPU een instructie kan sturen om een complexe taak uit te voeren kan deze de best mogelijke combinatie van micro-ops gebruiken om zo efficient mogelijk tot het resultaat te komen. Ik hoef niet na te denken over het beste algorithme gegeven een bepaalde cache implementatie, de compiler hoeft niet te puzzelen op SIMD vertalingen, elke specifieke CPU kan zijn eigen optimale pad kiezen. In een ideale wereld zou een toekomstige ISA juist nog een abstractielaag toevoegen.

Het enige echte voordeel wat RISC had was dat je met minder silicon toe kon als je ook echt alleen maar simpele dingen wilde. Die besparing op de die kon je dan gebruiken voor meer cache/registers/multiple cpu's. En als je dat niet deed was je die kleiner en ergo je idle stroomverbruik lager. De goedkoopste hardware voor eenvoudige taken was altijd RISC.

Voor complexe taken is een CISC frontend (of VLIW a la Itanium dat ik er voor het gemak onder schaar) de ideale oplossing. Dat in de praktijk de die dan wat groter wordt is nauwelijks meer relevant op het totaal aantal transistors. Dat het minimum stroomverbruik iets hoger ligt is alleen in gelimiteerde omstandigheden een pluspunt en Intel is hard bezig dat te mitigeren met agressieve power states.

Er is voor generieke toepassingen principeel geen enkele reden om voor een RISC ISA te kiezen. \

(Dat nieuwere architecturen als Risc-V daar toch voor kiezen heeft andere redenen die deels in het onderwijs liggen)

Net zoals we geen assembler meer gebruiken maar slimme compilers.

En ja, die slimme compilers zouden die leuke Australische video van een assembly benchmark die @Batjes aanhaalt véél sneller gemaakt hebben. Al die 100 miljard instructies doen natuurlijk helemaal niets en dat zou elke high level compiler dus gewoon vervangen heb met 'do niks', output 'klaar', 0.0 secs.

(take note voordat je tijd stopt in een ARM test @psychicist)

[Reactie gewijzigd door max3D op 23 juli 2024 07:21]

Ik heb net even naar de code gekeken en die ziet er inderdaad simplistisch uit tot het punt dat het helemaal niets doet en eenvoudig weggeoptimaliseerd kan worden (wat is het nut van (1024*1024*1024)/128 berekenen en dan alle registers met 1 ophogen in plaats van meteen het resultaat berekenen). Misschien is er ergens anders een zinnigere benchmark te vinden die vrij toegankelijk is en wel verschillende onderdelen van een CPU stresst.

Ik ga de code toch porten om een beetje aan mijn assembly programmeervaardigheden te werken, maar die houd ik dan wel voor mezelf. Verder ben ik het wel met je eens dat een CISC of VLIW frontend de ideale oplossing zou kunnen zijn, ware het niet dat daar niet zoveel onderzoek naar lijkt te worden gedaan (misschien met uitzondering van de Mill processor).
Ik heb je video bekeken en dan rijst bij mij de vraag op waarom je per se zou moeten kiezen voor een moderne Intel chip, als je het bij wijze van spreken ook af kan met een 10 jaar oudere Phenom, waarvan ik zelf overigens nog een exemplaar in een moederbord in een doos heb liggen, al dan niet gecombineerd met een moderne GPU.

Ook de code voor die benchmark heb ik gedownload en ik zal er de komende tijd mee aan de slag gaan door deze te porten naar ARM64, zodat ik beter in kan schatten of het klopt wat je zegt over x86 en ARM. Ik ben er namelijk niet van overtuigd dat alle instructies in x86 nuttig zijn en daarnaast is ook de ARM instructieset vrij uitgebreid en niet een klassieke RISC instructieset, zoals MIPS en RISC-V en tot op zekere hoogte SPARC dat wel zijn.
Thanks voor deze. Ik loop zelf flink tegen de x86 is superieur muur aan. Ik ben benieuwd wat er uit jou test komt! :D
+2 voor jou.
Ik ben het helemaal met je eens. Gelukkig hier op T.net de meesten ook. Op andere fora/sites is de Intel haat/teleurstelling helaas zo groot dat die blind maakt.
Apple heeft in 2019 nog een nieuwe Mac Pro uitgebracht. Die machine is nog steeds ongeëvenaard wat betreft desktop processing.
Kun jij me uitleggen op welk front de Mac Pro ongeevenaard is? Want de Mac Pro blinkt alleen maar uit in hele specifieke usecases en heeft voornamelijk een hele hoge pats-factor.

Grafische capaciteit komt het tekort om de simpele reden dat ze Radeon VII's gebruiken. Ook al draag ik AMD een warm hart toe, Nvidia is op dit moment sterker.

De Xeon's die Apple gebruikt kan je ook niet echt aanhalen als een krachtpatser.

Hoewel de hardware optimalisaties in MacOS heel goed zijn, kan een PC met Windows die optimalisatie vrij simpel bruteforcen door de brute kracht van een Threadripper te combineren met wat Nvidia geweld.

Om het nog heftiger te maken voor Apple, een dergelijke machine kost waarschijnlijk minder dan een volledig gespecte Mac Pro.

Dan blijft de hoofdreden overeind waarom mensen bij MacOS blijven en dat is omdat hun workflow om Final Cut, Logic Pro of andere platformafhankelijke software is gebouwd en het hen veel zal kosten om daar vanaf te stappen ivm tijdverlies.

Kortom, de Mac Pro is ver van ongevenaard. Het was al geevenaard voordat de machine gelanceerd werd.
De Mac Pro valt in hetzelfde segment als workstations van HP en Lenovo, die ongeveer hetzelfde kosten. Dat is niet iets eigen aan de Mac Pro, maar zo'n beetje al die machines hebben vergelijkbare specs en kosten.

Jij zal dat misschien zelf niet zo zien als je naar je eigen usecases kijkt, maar de Mac Pro (en ook de andere genoemde merken met hun workstations) is niet gericht op gamers, basis DTP'ers of thuisgebruikers. Boven dien is dat ding ontworpen voor dat Zen 2 uit kwam en Zen 1 was nou niet bepaald geweldig stabiel. Niet slecht, maar ook niet beter dan de Xeon serie. (en dat was ook niet te compenseren met meer cores)

Een ander punt is dat het erg populair is om Apple hardware naast alle andere hardware te leggen, maar dat men Apple niet puur komt om dat de hardware een paar specifieke nummertjes heeft, maar om dat ze het platform als geheel in een workflow gebruiken die niet op eenzelfde manier te reproduceren is. Dan kan een ander systeem op papier nog zo goed zijn, het maakt dan gewoon al niet meer uit. Neem bijvoorbeeld een case waar je low-latency audio nodig hebt en niet zelf met linux wil knutselen. Dan kan je al geen Windows meer gebruiken en blijft eigenlijk allen Apple over. Als je dat in een workflow doet waar je meer power nodig hebt om dat het over veel sporen tegelijk gaat, of als je er beeld bij doet, dan zijn je opties toch erg beperkt. Je zou haast kunnen stellen dat het ongeëvenaard is.

Dat ding is ook niet gepositioneerd om miljoenen te verkopen, maar om die niche te bedienen. Net als dat supercomputers een niche zijn, en non-gamers die toch Ryzen chips gebruiken een niche zijn. In de praktijk, en vooral de wereld van commerciële productie is het niet zo interessant wat iemand op z'n slaapkamer kan bouwen, en vooral interessant wat een grote leverancier kan leveren, en op dit moment is dat qua hardware voor workstations voornamelijk Intel. Het is wel goed om daar bij te stellen dat de Quadro's daar dan weer populair zijn en niet de GPUs van AMD, maar dat is in het geval van de Mac Pro niet relevant op specs om dat Apple en Nvidia op business niveau op dit moment de relatie niet hebben om samen te werken. Hardware leeft niet in een vacuüm, context is belangrijk.

Er is altijd wel hardware te vinden waar je dan lekker met 'coolere' hardware tegenover kan staan, maar dat is in veel gevallen totaal niet relevant. Een Ryzen of Threadripper wint het altijd van een C3xxx series Intel SoC, maar die SoC is in veel grotere aantallen aanwezig, levert meer geld op, en kan je niet vervangen met je AMD chip in de situatie waar ze gebruikt worden. Net als dat je een voertuig met een PC104 bordje niet gaat vervangen om dat er een betere GPU of CPU in zou kunnen. Maar men denkt vaak om dat iets van de productielijn rolt en 'lijkt' op iets wat ze kennen, ze er ook meteen een goede vergelijking mee kunnen maken, of weten wat het doel van het apparaat is. En dat is vaak gewoon niet zo.

[Reactie gewijzigd door johnkeates op 23 juli 2024 07:21]

Heb jij een linkje naar de machines die je noemt; ik kan ze niet vinden dus ben erg benieuwd waar je die info vandaan haalt! dank je wel!
Bijvoorbeeld een Lenovo P920 of een HP Z8 gaan qua prijs vlot dezelfde kant op als je er twee Quadro 8000, 1TB RAM en nog wat andere toeters en bellen die de Mac Pro ook heeft er in configureert. Wat je bij Apple niet en bij de andere opties wél bij koopt voor dat bedrag is reparatie binnen één werkdag met monteur op locatie.
top! Heb je een link naar benchmarks van dat soort machines?

Ik merk dat je nog nooit met de Business solutions tak van Apple gesproken hebt. Je kunt gewoon een contract afspreken dat men binnen 2 uur met vervangende hardware voor de deur staat. Geen probleem. wellicht duurder dan voor een Lenovo of HP; maar zij verkopen dan ook veel meer contracten.
Voor de Lenovo P920 https://www.servethehome....vidia-quadro-workstation/. De Apple Business Solutions zijn imo niet vergelijkbaar met wat Lenovo/HP/Dell aanbiedt qua geografische dekking en diensten. Heb meerdere malen onder Apple Business Solutions de response gekregen dat onderdelen niet voorradig waren en de reparatie pas een week later plaatsvond.
Je moet natuurlijk wel het 2 uur on-site contract afnemen. Als je gewoon belt zonder contract kost het bij HP of Dell ook 1 of 2 weken. ;)
Je kan dat ook zelf opzoeken he, internet is gewoon beschikbaar ;-) Pak bijvoorbeeld een HP Z8 G4 of als je instappers wil vergelijken een HP Z4 G4.
Gedaan.. en max 49.000 Euro zonder korting..zie mijn reacties.
€56.000 is niet eens zo duur voor een high end werkstation, HP Z8's zijn bijvoorbeeld veel uitgebreider te configueren dan de Mac Pro (en zijn dan ook een stuk duurder. die komen makkelijk boven de €100.000 bij een beetje configuratie). Nee, de Mac Pro is bij lange na niet het duurste workstation en ook bij lange na niet het workstation met de meeste performance.
Cool! dat wil ik zien! Ik ben net op de HP site geweest met als resultaat:
Z8 workstation met onder andere:
2x de duurste Xeon van ruim 12.000 euro Ex.
1,5 TB RAM (max)
2x de duurste NVIDIA Quadro GV100 32GB (4)DP GFX van 9100 ex.
4x (duurste) 2TB PCI-E Storage (900 per stuk)
Dan kom ik 49.000 ex BTW uit. en dat ik de prijs zonder korting want zakelijk gezien kan ik 28% krijgen op de retail prijs. = 35250 ex.

Heb je voor mij die door jou genoemde config van boven de 100.000€ ? Want die kan ik niet vinden. Dank je wel!
Ik gebruik de interne calculator die wij zakelijk gebruiken voor offertes met HP apparatuur. Daar die afgeschermd is kan ik daar niet zomaar naar linken.

Maar hier kun je het op een enigszins vergelijkbare calculator zelf proberen: https://store.hp.com/us/e...819&urlLangId=&quantity=1

De maximale config zit daar zonder korting op zo'n $135.000, met korting zo'n $110.000, dat is omgerekend +-€90.000, gooi daar de BTW overheen die wij hier kennen en je zit ruim boven de €100.000

De Nederlandse calculator op de HP site is voor ik weet wat beperkt (o.a. geen 2de GPU mogelijk), daar kom je maximaal maar aan zo'n 60k ex uit mijn hoofd. Ik gebruik die in ieder geval nooit daar ik daar vrijwel nooit dezelfde configs netjes uit krijg dan uit de HP configurator voor partners.

[Reactie gewijzigd door Dennism op 23 juli 2024 07:21]

Zoals je in mijn reactie leest heb ik 2x de duurste NVIDIA Quadro GV100 32GB (4)DP GFX van 9100 ex. geconfigureerd. Maargoed, ik heb de amerikaanse calculator gebruikt en kom alsnog net boven de 60.000$ uit. Ik begrijp dus niet wat je doet.
Dan ben ik zeer benieuwd wat je doet, zo lastig is het immers niet.

Zie: https://imgur.com/13H7XvK en dat is nog niet eens de maximale config.

Ik weet dus niet wat je doet op die calculator, maar iets gaat er niet goed bij jou als je maximaal op $60k komt.

[Reactie gewijzigd door Dennism op 23 juli 2024 07:21]

Damn! Je kunt zelfs een machine van een Miljoen Configureren. Wat zat ik er naast zeg!

https://imgur.com/CvlfeEx

Je had helemaal gelijk.

[Reactie gewijzigd door RockmanX op 23 juli 2024 07:21]

Sorry... maar hoezo diskwalificeerd dat woordje mijn opmerkingen?

Het apparaat heeft een hoge pats-factor.

Dat is niet persé negatief bedoeld, ik begrijp het zelfs in een aantal gevallen. Als jij een highend geluidsstudio hebt met een (rackmounted) Mac Pro, dan past dat gewoon in je bedrijf. Dit geldt ook voor videoproductie etc.

Dat gezegd hebbende, de Mac Pro is wanneer je workflow platform onafhankelijk is eigenlijk nooit de beste optie, nooit de meeste 'bang-for-buck'-optie, je betaalt altijd de Apple-tax voor Apple producten.

Ik zeg ook niet dat het een slechte optie is, ik denk niet zo zwart-wit.
Ik hoop niet dat je echt denkt dat de mensen die een machine van 56.000 Euro kopen dat apparaat kopen om aan hun maatjes te showen toch? :) Sterker nog: ik ken een bedrijf die heeft er een stuk of 20 en die hangen allemaal in het datacenter omdat hun mensen daar remote op inloggen (met hun MacBook ;) ). Niemand die die apparaten ooit ziet.. maar jij kijkt wel elke dag naar de resultaten daarvan.. op T.V., in 4K of in de Bioscoop.

"Apple tax" bestaat niet. Dit is net zo'n denigrerende opmerking als "pats-factor". Je betaald iets meer voor een mac omdat je die apple user experience wil. En geen gedoe wil met Windows.
En "geen gedoe wil met Windows" is misschien nog wel denigrerender, wat daat kun je op geen enkele wijze iets positiefs mee bedoelen.

Je doet net of ik zeg dat de Mac Pro waardeloos is, wat ik absoluut niet doe. Ik zeg alleen dat het vanuit een hardware perspectief niet de beste optie is. Wanneer je platform onafhankelijke software kiest is het nooit de beste optie.

Wat jij zegt klopt, maar dat heeft niet persé te maken te windows "gedoe". De mensen die met die apparaten werken zijn gewend aan de workflow van MacOS en de platformafhankelijke software die het biedt, kortom gewenning.

Het kost letterlijk geld om een bestaande workflow om te leggen en dan is de Mac Pro de beste optie voor die gebruiker/dat bedrijf.

Maar puur vanuit een hardware perspectief is de Mac Pro nooit de beste optie, is het ook niet de beste machine en is die eigenlijk iedere keer achterhaalt nog voor deze uitkomt.

Je betaalt voor een Mac Pro de hoofdprijs, dat erken jij ook in een eerdere reactie. De hardware is niet het beste van het beste dat je kan krijgen. Dus betaal je extra voor het Apple-sausje (dat is wat ik bedoel met de Belasting van Toegevoegde Waarde met Apple-tax). Klopt het in jouw beleving wel wanneer ik het "de aanvullende kosten van het Apple Design" noem?

ps. Volgens mij denk jij dat ik nog nooit met een Mac of MacOS heb gewerkt en dan heb je helemaal ongelijk. De Macbook Pro uit 2015 is tot een jaar geleden mijn daily driver geweest en ik ken het systeem en hoewel er een aantal dingen in zitten die heel sterk zijn, vind ik de platformafhankelijkheid die het systeem creert vreselijk en ben ik weer terug gegaan naar Windows machines. Meer bang-for-buck, zeker omdat alle software die ik heb geleerd platformonafhankelijk is.

[Reactie gewijzigd door HandheldGaming op 23 juli 2024 07:21]

Ondertussen zou je toch van tweakers mogen verwachten dat ze weten dat lineair schalen in de computerindustrie absoluut niet de norm is. Dus nee, 50x3200 is niet gelijk aan 160000. Je kan een desktop pc niet vergelijken met een supercomputer die speciaal ontworpen en gebouwd is voor één of twee taken. Alleen al een desktop moederbord ontwerpen waar al die ARM chips op zouden kunnen én dat een aanvaardbare fysieke grootte heeft, zou al een serieuze uitdaging zijn.
Ik heb niet geroepen dat het 160.000 zou zijn toch? Dat is jou interpretatie. ik heb aangegeven "iets hoger" uit te komen. ;)
Ik heb geen -1 gegeven, maar wil graag toch even reageren.
Het bedrijf waar ik werk doet veel CAD werk en dat is dus quasi single threaded (behalve het renderen, maar dat doen wij bijna nooit).
Wij kopen dus met plezier (overpriced) Xeon cpu's aangezien deze het snelste zijn voor deze taak.
50 ARM chips hebben geen enkele meerwaarde voor deze toepassing.
Ik ben dus heel benieuwd wat er de komende jaren gaat gebeuren, maar het lijkt mij sterk dat ARM opeens single threaded supersnel gaat worden.
Maar dan praat je dus over een zeer specifieke situatie. Op dit moment is er ook geen CAD applicatie geschikt voor ARM dus heeft het inderdaad weinig zin. Maar het kan best dat als deze gemaakt wordt (net als Photoshop voor ARM) dat er benefits zijn. ARM is een RISC processor wat voor CAD applicaties een benefit zou moeten zijn. Interesting case!

In plaats van iedereen een dikke Xeon machine geven op de werkplek kunt je het ook anders doen: Ik heb ooit voor een klant een CAD farm ontworpen. CAD werd gedaan op een Shared farm (Datacenter) en de desktop zaken werden gedaan op simpele HP i5 machines. Dit omdat de meeste van de CAD mensen niet eens de helft van de dag met CAD bezig waren maar ze wel 100% van de tijd de hardware en de licentie aan het gebruiken waren. Deze consturctie leverde een veel lagere TCO op dan als we alle werknemers (rond de 90) met een HP Workstation met 2x Xeon zouden uitrusten.
Autodesk (of andere) zal niet investeren in het ARM platform zolang er geen winst te halen valt, maar zeg uiteraard nooit nooit.

Overigens zijn alle intel en AMD cpu's intern ook RISC.
Het is vooral de vraag hoe ARM zich in de toekomst gaat ontwikkelen.
nVidia heeft in het verleden pogingen gedaan om x86 cpu's te mogen maken, dus lijkt het mij niet ondenkbaar dat ze ARM willen kopen om zo een totaalpakket te kunnen leveren voor zowel server als consument.
.... je cad software gaat multithreadend worden

*badaboem-tss* :)
Naar het schijnt kan dat niet... *badaboem-tss*
Jouw definitie van "ongeëvenaard" en die van mij zijn toch echt anders als je voor de helft van het geld een krachtigere versie van de Mac Pro kan maken met niet Appletaxed meuk.
Het gaat niet om prijs per cpu, maar cycles per Watt. Een kast aftanken met processoren kan iedereen, het energieverbruik (=warmteproductie) binnen de perken houden is heel wat moeilijker. Dat is een discussie die hier genoeg mensen willen aangaan. Maar niet meer met jou.
De chip in de ipad pro geeft menig x86 proc het nakijken met bepaalde workloads op een kwart van het tdp.
FTFY.

Dit "argument" wordt te veel en te makkelijk rond gegooid. Het eerste probleem zit al meteen in de software. De meesten baseren dit argument op "benchmarks" op iOS, die simpelweg niet 1:1 vergelijkbaar zijn met de x86 tegenhangers van die benchmarks. Zelfs dingen als Kraken kun je niet vergelijken, want dat draait men dan in verschillende browsers. Apple's Safari is sterk geoptimaliseerd voor ARM en de JS engine is wel snel, maar bevat ook grove fouten. Die browser wint aan snelheid door sommige dingen op onjuiste wijze te doen, wat kan leiden tot hele vreemde bugs. Ziet er op papier leuk uit, maar het geeft devs dan alleen maar kopzorgen.

Vervolgens kom je gewoon aan bij hetzelfde als benchmarks tussen x86 CPU's: ze hebben elk hun sterke punten. Je kunt niet zomaar zeggen dat Intel of AMD sneller is dan de ander; dat hangt van de workload af. Als AES bijvoorbeeld belangrijk is in je workload dan wil je absoluut niet Intel hebben. Datzelfde geldt voor vergelijkingen tussen ARM en x86. Vector instructies doe je liever op een recente x86 CPU; bij ARM moet je sowieso al hopen dat je de vector extensies hebt en zelfs dan is de performance vaak niet geweldig. Sowieso is dat met ARM een groter "probleem" dan met x86; ondersteuning voor extensies loopt heel erg uiteen.

Het allergrootste probleem is echter beschikbaarheid: er zijn geen ARM processors die je zomaar even aanschaft. Ja, je kunt dingen als Raspberry Pi's en dergelijke gebruiken, maar dat zijn nou niet bepaald de snelheidsmonsters waar je dingen op wilt ontwikkelen. En uitgerekend Apple gaat daar geen reet aan veranderen, hun chips komen alleen in Macs.

We kunnen nog helemaal niets zeggen over hoe Apple's A12 zich verhoudt tot Intel en AMD. Het is hoogstwaarschijnlijk de enige ARM chip die daadwerkelijk competitief zal zijn, maar ik verwacht dat de chip die we straks in Macs zien een stuk meer sap nodig heeft dan de chip in de iPad Pro en dat het zeer zeker geen "landslide" zal zijn qua performance. Daar zal veel meer nuancering nodig zijn.

[Reactie gewijzigd door Werelds op 23 juli 2024 07:21]

Zie apple die overgaat naar ARM
De chip in de ipad pro geeft menig x86 proc het nakijken op een kwart van het tdp.
Ik vraag niet snel naar linkjes maar ik ben wel eens benieuw een link test te zien waaruit blijkt dat een apple arm een actuele inte of amd x86 het nakijken geeft.
Waarbij ze dat dan met 1/4 van het verbruik doen.
Je zegt dus dat de performance per watt bij arm 4x hoger is dan een vergelijkbare x86.
De snelste supercomputer ter wereld draait nu echter al wel op ARM...
• De snelste computer ter wereld is geen personal computer.
• De snelste computer ter wereld hoeft geen rekening te houden met backwards compatibility.

Beide zaken die ik noemde in mijn reactie.
Ik denk dat dit ter illustratie is van de ARM revolutie die er aan zit te komen; niet direct als vergelijk met een desktop.
De "snelste computer" is een heel relatief begrip.
De zogenaamde supercomputers zijn in de praktijk in parallel geplaatste cpu's die geoptimaliseerd zijn voor programma's die met veel threads werken. Van zodra je daar een single threaded applicatie op gaat draaien is een 'simpele' i9 10900k sneller (en dat is geen grapje).
De snelste supercomputer ter wereld draait nu echter al wel op ARM...
Wat een kulargument, dan kan je dus ook stellen dat er nog zat rek is in X86 omdat er (X86)supercomputers zijn die 1000den keren krachtiger zijn dan een PC :)

Supercomputers zeggen helemaal niks over de PC op/onder je bureau...

[Reactie gewijzigd door watercoolertje op 23 juli 2024 07:21]

De snelste supercomputer ter wereld draait nu echter al wel op ARM...
Omdat die bedacht is voor de AMD Epyc server CPU's en intel tot die tijd op zijn luie gat zat geld binnen te harken.

Mainstream desktop PC performance is in 3 jaar tijd verviervoudigd. Dat is de inhaalslag geweest van x86 van intel's stagnatie. Met dank aan AMD. En op de server market hebben ze pretty much het zelfde gedaan (en nu op de mobile markt hebben ze de performance meer als verdubbeld)
Omdat die bedacht is voor de AMD Epyc server CPU's en intel tot die tijd op zijn luie gat zat geld binnen te harken.
Dat heeft er helemaal niets mee te maken. Het is Fujitsu dat de SPARC64 VIIIfx voor de Riken K supercomputer heeft aangeleverd en de A64FX ARM processoren voor de nieuwe Riken Post-K supercomputer.

Wat betreft mainstream laptop-, desktop- en serverprocessoren heeft AMD inderdaad een grote slag geslagen en krijgt de consument die een x86-compatibele processor wil, eindelijk weer waar voor zijn geld. Maar het is een kwestie van de juiste hardware gebruiken voor de juiste toepassing. Soms is dat x86, soms is dat ARM en soms is dat iets anders zoals POWER.
Dat heeft er helemaal niets mee te maken
ik geloof niet dat je begrepen hebt wat ik bedoelde. Toen die super computer werd ontworpen (in ontwikkeling since 2014) was AMD Epyc er nog niet, en was het enige alternatief dat beschikbaar was CPU's van intel die al bijna jaren niks zat te doen. daarom dat arm, op dat moment, interessant leek.

inmiddels heeft de super computer een hoop critiek gekregen want hij is flink duurder geworden, en gaat snel ingehaald worden door goedkopere en ook zuinigere (epyc based) super computers.

ja, Arm is nu, heel even, de snelste, maar tegen een hele hoge prijs, een hoog verbruik, en maar voor hele korten duur. al met al is het juist geen goede reclame voor ARM.
Ik heb precies begrepen wat je bedoelde en het doet er niet toe wat Intel of AMD voor producten zouden kunnen leveren, want ze zouden altijd voor systemen van Fujitsu met de eigen processoren van het bedrijf hebben gekozen. Die waren eerst gebaseerd op de SPARC instructieset en nu op ARM, maar zijn verder volledig eigen ontwerpen van Fujitsu. Dat is dus hetzelfde verhaal als bij Apple Silicon.

Of AMD nu betere processoren voor supercomputers kan leveren, is een ander verhaal en wat dat betreft kan ik zeggen dat AMD met Epyc een goed product heeft neergezet. AMD zou net zo goed processoren uit kunnen brengen die de ARM of RISC-V instructieset implementeren, maar dat gaat het bedrijf hooguit doen, als de markt dat vereist. Tot nu toe is dat nog niet het geval en daar kan AMD de komende jaren nog van blijven profiteren.

De grootste rekenkracht voor een supercomputer wordt sowieso uit GPU's en andere accelerators gehaald tegenwoordig. Fujitsu's A64FX is een specifieke implementatie voor HPC en ook pas de eerste generatie. Ik verwacht dat eventuele opvolgers al in ontwikkeling zijn.

Het heeft weinig zin om over ARM, x86, RISC-V, POWER, SPARC etc. in het algemeen te praten, maar je zou altijd individuele microarchitecturen moeten benoemen en met elkaar vergelijken. Anders hebben we het over appels, peren en nog allerlei andere soorten fruit die logischerwijs van elkaar verschillen en niet eens proberen op elkaar te lijken.
[...]
Voor high-performance personal computing is er in de nabije toekomst nog geen alternatief. Een ander probleem is backwards compatibility, die ontbreekt met ARM.

x86 gaat voorlopig nergens heen. ARM komt erbij, maar gaat het niet vervangen.
iki geloof dat de jongens bij apple die memo even hebben gemist, want die gaan intel over de komende +/- 2jaar helemaal droppen. ook praat je over backwards compatibillity en ook daarvan vind apple dat je ongelijk hebt, gezien ze in ieder geval voor xcode (heet het geloof ik), een emulator hebben gemaakt die aanzienlijk beter werkt dan menig andere op dit moment.
Bedenk daarbij wel dat apple redelijk wat ervaring heeft opgedaan ten tijde van de migratie van PPC naar x86.

uiteindelijk is het al vaker gezegd (ook tijdens talloze ontwikkel conferenties: x86 is gewoon niet bepaald geweldig en bovenal overmatig complex. Nu loop je met een migratie naar iets simpelers natuurlijki altijd het risico dat men ARM dan gaat aanpassen aan de nieuwe 'eisen' van dit moment met extra lagen en toevoegingen .... zodat we over 10 ~ 15 weer op 'dit' punt staan, maar voor nu begrijp ik die move naar ARM wel...

misschien wordt het eens tijd om schoon schip te maken in x86-land en een hoop legacy meuk eruit te trappen maar dan nog krijg ik het idee dat x86 langzaamaan de rol krijgt die archs als itanium en sparq oooit vervulden, het zou in ieder geval goed zijn voor het wereldwijde stroomverbruik.
iki geloof dat de jongens bij apple die memo even hebben gemist, want die gaan intel over de komende +/- 2jaar helemaal droppen. ook praat je over backwards compatibillity en ook daarvan vind apple dat je ongelijk hebt, gezien ze in ieder geval voor xcode (heet het geloof ik), een emulator hebben gemaakt die aanzienlijk beter werkt dan menig andere op dit moment.
Bedenk daarbij wel dat apple redelijk wat ervaring heeft opgedaan ten tijde van de migratie van PPC naar x86.
In het PC landschap is Apple een relatief kleine speler en een enkele (uitzonderlijke) partij met een eigen ecosysteem waardoor vergelijken lastig is. Voor hen is het veel makkelijker om een eigen koers te varen zonder klantaandeel te verliezen.

Apple gaat over op ARM, en past daarom in het laatste deel van mijn reactie:
x86 gaat voorlopig nergens heen. ARM komt erbij, maar gaat het niet vervangen.

[Reactie gewijzigd door The Zep Man op 23 juli 2024 07:21]

De grote vraag is hoe relevant de PC-markt nog blijft de komende 10 jaar. Afgelopen 10 jaar is de markt veel minder belangrijk geworden en die trend gaat versnellen. PC's zullen er wel blijven natuurlijk, maar kijk naar MS met Windows, begin 2000 was dat hun motor. Nu is het gratis.

Ik denk dat de groei snelheid van het Apple eco-systeem en software en impact veel groter gaat worden de komende jaren doordat ze kunnen innoveren met hun Silicon. Ze gaan heel hard de enterprise in. En dat vindt MS ook prima, die verkopen alles er omheen wel.

Windows is een grote speler, maar minder en minder relevant en daarmee is WinTel minder relevant, dus Intel ook.
De grote vraag is hoe relevant de PC-markt nog blijft de komende 10 jaar. Afgelopen 10 jaar is de markt veel minder belangrijk geworden en die trend gaat versnellen.
10 jaar geleden zei men dat ook.
PC's zullen er wel blijven natuurlijk, maar kijk naar MS met Windows, begin 2000 was dat hun motor. Nu is het gratis.
Windows is niet gratis. Het wordt OEM verkocht ('in licentie gegeven') en in grote getallen aan organisaties.
Ik denk dat de groei snelheid van het Apple eco-systeem en software en impact veel groter gaat worden de komende jaren doordat ze kunnen innoveren met hun Silicon. Ze gaan heel hard de enterprise in.
Ondertussen in de echte wereld zie je Apple op enterprise-niveau nog geen deuk in een pakje boter slaan. Verder nam hun marktaandeel op PC gebied langzaam af de afgelopen jaren.

[Reactie gewijzigd door The Zep Man op 23 juli 2024 07:21]

Sterker nog het aantal x86 chips dat er verkocht wordt stijgt nog steeds. Intel kan al meer dan twee jaar niet aan de vraag voldoen terwijl amd ondertussen ook flink is gegegroeid.

Dus de pc en x86 is misschien wel minder dominant dan 10 jaar geleden maar als markt aan zich groeit ie gewoon nog steeds alleen arm is harder gegroeid door hun dominantie in Smartphones terwijl de groei van x86 naar verplaatst is naar servers en socs voor netwerk toepassingen waar vroeger speciale ASICS voor gebruikt zouden worden.
De markt groeit wel, maar de relevantie voor innovatie is een stuk minder. Wie wordt er nog beperkt door te weinig geheugen, te langzame cpu, continue crashend OS?

Welke productiviteit hebben we de afgelopen 10 jaar verkregen, ten opzichte van de 10 jaar er voor? Of de de jaren '90 daar voor? Het zit niet meer in de PC. De PC wordt nog wel gebruikt om bepaalde innovatie en productiviteit te verkrijgen, maar het zit niet meer in de PC hardware zelf.
Ben ik het mee eens er is aan de pc weinig baan brekends veranderd maar hetzelfde kan gesteld worden voor arm devices na de introductie van de touchscreen smartphone is daar ook weinig veranderd -> de iPhone werd immer ook al in 2012 geïntroduceerd.

We zitten qua baan brekende innovatie op dit moment meer in een adoptatie fase van de techniek dan snelle revolutionaire veranderingen.

Het is in die zin net zoals met de auto industrie nadat er de eerste 40 jaar van die industrie heel veel verschillende technieken en concepten werden geprobeerd begon er daarna consensus te ontstaan rondom de beste standaard layout en technieken en daarna zijn veel verbeteringen ook niet revolutionair te noemen.
Ja, 10 jaar geleden zei men dat ook. Welke innovatie en verandering van gebruik is er de afgelopen 10 jaar geweest? Ik zeg niet dat PC's verdwijnen en dat zeiden ze 10 jaar geleden wel, maar de innovatie is er amper.
Ondertussen in de echte wereld zie je Apple op enterprise-niveau nog geen deuk in een pakje boter slaan.
Je ziet met BYOD meer Apple producten dan ooit in de S&P 500. Als de iPad net als een Surface onder PC verkoop zou vallen is Apple de grootste PC leverancier van de wereld. Apple gaat deze werelden nu samenbrengen. Dat is de visie. Ik weet niet welk pakje boter je bedoelt in de Enterprise? Grijze dozen schuivers? Of server gerelateerder zaken als Exchange? Of een iPad wel of niet in de categorie moet vallen is een andere discussie, maar ze hebben wel degelijk een impact op IT inrichting van de enterprise.

Kijk naar de grote leveranciers van PC's. Dell, HP, Acer. Het zijn allemaal dozen schuivers. 0 innovatie, amper marges. Intel exact hetzelfde. Rommelen in de marge.
Welke marges bedoel je? Als ik deze even bekijk draait Intel een stuk hogere marges dan Apple:

https://ycharts.com/companies/INTC/gross_profit_margin tegenover https://ycharts.com/companies/AAPL/gross_profit_margin

of

https://ycharts.com/companies/INTC//profit_margin
https://ycharts.com/companies/AAPL/profit_margin

Verder zie ik ook geen bronnen dat Ipad verkopen nu zo enorm goed zijn, ik zie alleen maar bronnen die juist aangeven dat de verkoop van ipads al jaren op hun retour zijn na een piek eind 2013 / begin 2014.

Dat is trouwens ook wat ik in de praktijk zie, destijds moesten wij bij vrij veel bedrijven ineens overall de laptops uitfaseren, ipads leveren. Bij vrijwel al die bedrijven is dat inmiddels volledig omgekeerd, ipads worden weer uitgefaseerd of enkel nog voor specifieke niche doelen ingezet terwijl laptops weer "booming" zijn. Het enige waar ik ipads eigenlijk nog vrij veel gebruikt zie worden zijn scholen, maar zelfs daar lijkt die trend af te nemen.
Ik doelde in deze niet echt op Intel, meer op Dell en HP etc. Intel doet nog steeds erg goede zaken.
PC's zullen er wel blijven natuurlijk, maar kijk naar MS met Windows, begin 2000 was dat hun motor. Nu is het gratis
Windows is niet gratis, kost je - voor een legale versie - toch zo vanaf een 90-100 euro. De upgrade naar 10 was (is) gratis, maar dat is heel wat anders.
Verwijderd @sus23 juli 2020 11:16
Oké het is niet gratis, maar ik heb ook jaren geleden een Windows 10 licentie gekocht. Vroeger kocht je een licentie voor Windows 95, 98, XP. Vaak zat het bij een nieuwe PC, maar nu ben je als consument een stuk minder kwijt.

@joco

[Reactie gewijzigd door Verwijderd op 23 juli 2024 07:21]

gratis? apart, net een nieuwe laptop gekocht en heb toch echt 115 euro betaald voor een licentie.
Wow, gezien je die ook legaal online voor een tientje ofzo kan kopen, mijn vrouw heeft die voor het werk. Ze is verder Linux gebruiker maar ja op Windows testen is soms nodig dus een pro licentie gekocht.
Dat zijn niet echt officiële... Dat zijn oem bulk serienummers.. Die als Microsoft dat zou willen gewoon ingetrokken kunnen worden..

Je leest dit ook best veel bij die verkopers van bv Amazon die die licenties verkopen (eventueel via USB stick)
Nou ja, mocht het onverhoopt toch mis gaan dan kopen we een andere ;-)

Maar die licentie werkt al twee jaar ofzo uitstekend, dus geen probleem.
Heb je wat onderbouwing voor de talloze argumenten die je aanhaalt?
Ik zou graag wat onderbouwde of liefst wetenschappelijke studies zien die north-/southbridge van x86 vergelijkt met de ASB + Peripheral bridge opzet. Van veraf lijkt het op elkaar, maar in detail zitten er nogal wat verschillen.
iki geloof dat de jongens bij apple die memo even hebben gemist, want die gaan intel over de komende +/- 2jaar helemaal droppen.
Dat was een beslissing deels ingegeven door intel's 10 jaar lange stagnatie. Maar ik denk dat die beslissing gewoon gaat betekenen dat apple uit de high-end notebook markt stapt.
Dat niet alleen Apple wil al langere tijd af van de 2 eco systemen. x86 en arm. Door naar Arm gebaseerde CPU's te gaan waar ze hun eigen design van hebben kunnen ze de hele x86 lijn droppen en zo focusen op 1 ecosysteem voor al hun apparaten.
Apple's laatste bastion in de "pc" wereld de DTP, image en video processing is ondertussen ook al niet meer hun domein. Dus de high end x86 markt hebben ze niet meer nodig en bij de kantoorslaven die met veel minder af kunnen kunnen ze zo een heel ecosysteem leveren. Al het spul in de cloud en apple cpu (ARM based) laptops met Iphones (arm based) en voila alles kan onder 1 vlag.

Ik snap hun beleid wel maar ben blij dat wij niet zo cloud focused zijn.
Het lijkt me sterk dat Apple geen opvolger van hun pro series MacBook uit brengt. En die zal zeker een stuk sneller zijn. En arm gebaseerd. Voor zomer volgend jaar. Als je echt denkt dat dat niet zo is heb je de laatste 5 jaar niet opgelet...
Beter als de oude 9th gen intel die er nu in zit? Heel misschien. En dat is niet bepaald een hoge lat.
Beter als wat er in de rest van de markt te krijgen is op dat moment? Zeer zeker niet.
Beter als de oude 9th gen intel die er nu in zit? Heel misschien. En dat is niet bepaald een hoge lat.
Beter als wat er in de rest van de markt te krijgen is op dat moment? Zeer zeker niet.
Dat zou ontzettend onlogisch zijn.

Apple heeft besloten om zelf CPU's te gaan bakken voor hun laptops, omdat de roadmap van Intel niet ambitieus genoeg was. Ze zullen die beslissing 2-3 jaar terug hebben genomen - wellicht ietsje korter geleden. Die roadmap gaf hen een target, en hun CPU ontwerp team moet heel zeker geweten hebben dat ze het beter konden doen dan wat Intel ging doen volgens de roadmap. PLUS dat ze gedacht moeten hebben dat ze dat voordeel vast konden houden.

Er zijn dus twee manieren waarop Apple's aankomende ARM laptops langzamer zouden zijn Intel laptops:

* Apple doet het een stuk slechter dan was geplanned/verwacht
* Intel doet het een stuk beter dan hun roadmap van 2 jaar terug liet zien

Wat betreft dat eerste punt - dat lijkt me sterk. Ze hebben vollop ervaring, nu, en laten enorm voorspelbare en regelmatige prestatieverbeteringen zien. Ik heb geen enkele reden aan te nemen dat Apple haar prestatiedoelstellingen niet gaat halen.

Hoe doet Intel het vandaag, vergeleken met hun roadmap van 2-3 jaar terug? Een stuk slechter, he...

Dus als de Apple chips langzamer gaan zijn dan Intel is dat omdat Apple geplanned heeft om het slechter te doen dan Intel.

En dat lijkt me ECHT sterk... Plan to fail? NO way.
En 8 core laptop chip stond niet op Intel's roadmap 3 jaar terug. Daar stond niet eens een 8 core desktop chip op.
Maar er stonden wel veel betere, snellere chips op op 7 nanometer - volgens beloften waren die veel sneller en zuiniger dan wat we nu hebben - en elke roadmap liet meer en meer vertraging zien.
misschien wordt het eens tijd om schoon schip te maken in x86-land en een hoop legacy meuk eruit te trappen maar dan nog krijg ik het idee dat x86 langzaamaan de rol krijgt die archs als itanium en sparq oooit vervulden, het zou in ieder geval goed zijn voor het wereldwijde stroomverbruik.
Ik ga er niet van uit dat dat echt op grote schaal zal gebeuren, want dan verlies je eigenlijk het enige wat de x86 architectuur nog in stand houdt, namelijk backward compatibility. Dan ga je je ook wel afvragen backward compatibility met wat en met welk doel. Ik kan me voorstellen dat er veel toepassingen zijn waarvoor die backward compatibility helemaal niet belangrijk is en dan hoef je ook geen toegang te hebben tot allerlei oude en wellicht onefficiënt geïmplementeerde instructies.

Ook denk ik dat het in technische zin en qua marktwerking beter is als vrij licentieerbare instructiesets zoals ARM, RISC-V en POWER volledig gesloten en niet licentieerbare instructiesets zoals x86 vervangen, omdat er dan veel meer innovatie plaats kan vinden en nieuwe bedrijven tot de markt kunnen toetreden, zoals nu eigenlijk al het geval is. Volgens mij wordt het belang van Windows en de x86 instructieset overschat, zoals op de algehele processormarkt de afgelopen 10 jaar ook wel te zien is geweest.
Op langer termijn zal x86 marginaliseren / verdwijnen. De cloud boeren kopen massaal ARM. Apple gaat helemaal over.

Windows op ARM is ook al een ding.

Het is een kwestie van tijd.

Als je ziet dat een iPad cpu passief gekoeld al zoveel performance haalt...

x86 wordt legacy.

[Reactie gewijzigd door Q op 23 juli 2024 07:21]

Iedereen ? Ik denk dat AMD en Intel daar anders over denken.

[Reactie gewijzigd door Ome Ernst op 23 juli 2024 07:21]

Dat was wel even anders toen Windows RT uit kwam. Commercieel een flop (door Intel), maar technisch een groot succes. Windows kon eindelijk weer op andere platformen draaien en de RT variant kon 12 uur werken op de accu, de Intel variant slechts 4 uur.

Omdat Microsoft dus liet zien serieus te zijn en al half vreemdging, is Intel eindelijk afgestapt van hun zo-veel-mogelijk-performance en zijn ze meer naar energieverbruik gaan kijken. Omdat Microsoft dus aan het vreemdgaan was. Alleen omdat Intel weer met zuinige chips kwam, is Windows RT afgeschoten. Echter nu is Microsoft toch weer half aan het vreemdgaan bij ARM en Apple ligt zelfs in een scheiding. Of Intel gaat nu ineens heel hard innoveren, of x86 is eindigend. Maar AMD en Intel zijn wel hard aan het beven. Bang voor hun huwelijken.
Je hele verhaal heeft veel meer te maken met de dwalingen van Microsoft, dan dat AMD en Intel aan het beven zijn voor het einde van x86. Ik denk dat AMD op dit moment sowieso niet "beeft" Intel wel meer, maar meer voor AMD dan het "einde van x86" of ARM.
Windows RT commercieel een flops door intel? Kan je dat eens uitleggen? Mijn inziens is Windows RT gewoon geflopt omdat er geen annimo voor was, vooral door gebrek aan software. Windows x86 heeft een heel rijk ecosysteem aan applicaties, dat opgeven voor Windows RT deed niemand.. met verstand van zaken dan. :)

Windows 10 ARM is een nieuwe poging, nu met x86 emulatie, ook 64 bit, wordt een ander verhaal. Maar het is nog maar de vraag hoe dit weer aan gaat slaan. Persoonlijk zo ik op dit moment geen Windows ARM willen, gewoon lekker x86.
Windows RT was prima voor Office use, omdat er Outlook bij zat. Ik was toen zelf sysadmin, en toen had ik een RT erbij, die ik eigenlijk als primary device gebruikte omdat het handzaam was en de hele dag op de accu kon werken. Het had namelijk PowerShell, MSTSC, Outlook en Winword, dus ik kon er alles mee doen.

Als Intel niet wakker was geschud door Windows RT, dan was Microsoft wellicht veel eerder begonnen met x86 emulatie op ARM, omdat ARM toen nodig was om energiezuinige laptops te maken. Juist omdat Microsoft met de Surface RT kwam, heeft Intel ineens al hun resources op energieverbruik gezet zodat x86 wel gewoon 8 uur lang op een accu kon werken, waardoor Windows RT geen bestaansrecht meer had.
Zou één van de redenen voor de overstap van Apple naar ARM processoren kunnen zijn dat niet-Apple machines nu ook MacOs kunnen draaien en Apple machines met Windows 10 kunnen worden uitgerust?
De enige reden waarom Apple zo lang aan de PowerPC CPU vasthield was om de volledige controle over zowel hard- en software te houden. Pas toen de PowerPC CPU hopeloos achter begon te lopen op de x86 CPU's stapte Apple noodgedwongen over. Nu er een niet-x86 compatible CPU min of meer vergelijkbare prestaties kan leveren ziet Apple zijn kans om het hele Hackintosh gebeuren weer uit te bannen. Dictatoriaal gedrag zit nu eenmaal in het DNA van Apple, omdat Steve Jobs een dictator was die volledige controle wilde hebben en zijn filosofie nog altijd in grote lijnen leeft in Apple.
Unificatie van hardware over hun volledige ecosysteem en efficiëntie (minder warmte en energieverlies voor dezelfde prestaties) lijken me veel belangrijker. Dat je Windows op je Mac kunt draaien is eerder een verkoopargument voor de Mac en de Hackintosh-community heeft onder de streep haast geen impact op hun omzet, daar is het onaantrekkelijk genoeg voor.

[Reactie gewijzigd door Verwijderd op 23 juli 2024 07:21]

Dan nog wil Apple altijd volledige controle hebben over alles en is iedere hack ze een doorn in het oog.

In de tijd dat Steve Jobs nog aan het roer stond en Apple bijna failliet ging, moest Jobs noodgedwongen de touwtjes wat laten vieren. Ineens kregen derde partijen licenties om accessoires zoals toetsenborden en muizen voor Apple op de markt brengen. Maar toen Apple een financiële injectie van Bill Gates kreeg (in een poging van Gates om aan te tonen dat hij ëcht geen monopolist was omdat hij zelfs zijn directe concurrent steunde), gebruikte Jobs dat geld gedeeltelijk om de licenties terug te kopen van de derde partijen zodat Apple weer de volledige controle had.

Apple pretendeert altijd streng op te treden tegen hacks, imitatie-onderdelen en reparatie van hun hardware door derden omdat dat "de kwaliteit en de beleving van Apple producten schaadt", maar het gaat gewoon ordinair om twee dingen: macht en poen.

Neem het schandaal rondom de ingebouwde vertraging door het OS als een accu een x gedeelte van de capaciteit verloren had. Als technisch concept is het verdedigbaar: je weegt af wat voor de klant belangrijker zal zijn, accuduur of prestaties en laat het OS prioriteit geven aan accu-duur. Maar als dan de klant bij de Apple store komt klagen dat zijn toestel ineens veel trager is en de enige oplossing die Apple biedt "koop een nieuwe" is, dan krijgt dat concept ineens een heel sinister karakter. Zeker als duidelijk wordt dat de accu relatief eenvoudig vervangen kan worden waarna het toestel weer naar behoren zou functioneren.
Waarom is x86 een eindigende architectuur?
Omdat we eigenlijk allemaal overgaan naar x64 :+
Nee, omdat we allemaal overgaan op ARM.
Ik zie het niet gebeuren.

En apple kan de boom in. Een overstap op arm betekend gewoon een stap UIT de high end notebook markt voor apple.
Dat weten we nog niet, misschien is het wel de stap naar de high-end notebook.
Ik ben al overgegaan op ARM. Het is nu alleen nog wachten op krachtigere hardware voor laptops en desktops, maar zolang ARMv8-A wordt ondersteund door een processor ben ik al tevreden.
x64 is x86 met een uitbreiding. De officiële aanduiding is x86_64 ;)

[Reactie gewijzigd door nelizmastr op 23 juli 2024 07:21]

De officiële aanduiding is x86_x64
Uuh, nee. Als er al een officiële naam is, is het AMD64 aangezien de specificatie van AMD komt een zij het zo noemen, maar in de praktijk wordt toch vooral x86-64 generiek gebruikt, en soms x86_64. Sowieso niet met een tweede 'x'.
De verdienmodellen zijn heel anders. ARM maakt ontwerpen en verkoopt licenties.
Intel heeft net als Apple helemaal geen zin om ARM te kopen puur en alleen om licenties te kunnen verkopen op de ARM architectuur.

ARM produceert zelf geen silicon, hooguit development exemplaren, maar zeker niet in de hoeveelheden ie het voor Intel interessant maakt om ze in te lijven.
Waarschijnlijk heeft ARM Holdings genoeg contractuele verplichtingen om de ARM-architectuur te moeten blijven onderhouden, terwijl Intel al zijn R&D steekt in het onderhouden van x86. (wat niet eindig is, met genoeg R&D kan je x86 energiezuinig maken en een energieslurpende ARM of MIPS-processor maken)
tegenwoordig kun je AMD toch niet meer bestempelen als de zwakkere broer van intel
Dat ligt er maar aan waarna je kijkt, meestal wordt voor dat soort opmerkingen gekeken naar de cijfers (financieel en bijv, marktaandeel) en niet zo zeer naar het technische vlak. En die cijfers laten het nog steeds het beeld zien dat AMD er nog altijd aanzienlijk minder sterk voor staat dan Intel.

Intel maakt normaliter nog altijd meer winst in een kwartaal dan AMD aan omzet draait in een jaar. Mogelijk dat dit richting 2021 wat gaat veranderen, maar tot op heden is AMD echt nog een dwerg vergeleken met Intel op dat gebied.
Technisch niet, qua omzet natuurlijk wel.
Los van het feit dat Intel AMD wil hebben of niet, die deal, dat zou de laatste deal op aarde zijn geweest. Alle instanties zouden het hebben afgekeurd puur vanwege marktaandeel.
Volgens mij is het zelfs zo dat AMD niet overgenomen mocht worden door Intel ivm de x86 licentie en de monopolie positie die dan zou ontstaan.

Hoewel de wereld er tegenwoordig anders uitziet en ARM een goed alternatief op x86 is, weet ik niet of de overname er tegenwoordig door zou komen.
Plus, Europa zou dat nooit toelaten. Dan is er te weinig concurrentie op de markt. Er zijn ook maar twee echte spelers op de desktop en server markt.
Dit was ook het geval met Microsoft en apple.

Omdat Microsoft vreesde Machtpositie weten tegen zich te krijgen investeerde ze flink in apple, om te voorkomen dat ze een Machtspositie verkregen.

Een machtspositie hebben is op papier leuk, maar in de praktijk moet je aan flink veel wetten voldoen.
Zo kan de regering bijvoorbeeld zeggen nee die nieuwe CPU mag geen 5000 euro kosten. die moeten jullie verkopen voor 500 euro.
Juist, denk niet eens dat ze AMD zouden mogen overnemen vanwege anti-trust wetgeving.. Dan zou Intel dus alleen heerser zijn op de CPU markt..
Het is beter om een (zwakkere) concurrent te hebben dan om alleenheerser op de x86 markt te zijn.
Hoezo? (oprechte vraag als leek)
Intel heeft ARM al eens verkocht in 2006 als ik me niet vergis, voor een sumiere 600 miljoen dollar.
Die zullen nu wel balen.

Ik verwacht echter wel een bied oorlog met Apple, die gaan niet afhankelijk willen zijn van een partij als nVidia.
ARM is nooit in handen geweest van Intel. Intel bezat XScale een chipmaker die chips ontwikkelde op basis van ARM architectuur. XScale hebben ze inderdaad in 2006 verkocht voor 600 miljoen.
Intel mag ARM waarschijnlijk niet overnemen vanwege de enorm sterke marktpositie die je dan krijgt.
Dan ontstaat er een monopolie positie voor Intel. Wat je niet moet willen.
Intel zal nooit toestemming krijgen van de overheid om ARM te kopen. Dit zou hun positie te machtig maken waardoor er te weinig concurrentie is denk ik.
Elke partij die arm koopt wordt ineens alleenheerser op de cpu markt aangezien ze dat nu al zijn. Vorig jaar verkochten ze 130 miljard CPU, daar kan geen enkele andere partij aan tippen.
Omdat ARM zelf geen chip maakt is dat niet accuraat. Daarnaast bestaat x86 ook.

De partij die ARM koopt, krijgt het recht om de ARM licentie te distribueren aand bedrijven die het in willen zetten als basis van hun chips, a la Apple of Qualcomm

[Reactie gewijzigd door HandheldGaming op 23 juli 2024 07:21]

Arm verkoopt nul CPUs. Ze verkopen licenties op hun ontwerpen.
Intel zal geen goedkeuring krijgen
Dan krijgen ze problemen met de checks and balances die in plaats zijn gezet door verschillende overheden om monopolie's te voorkomen
Ik denk dat dat geblokkeerd zou worden door mededingingsautoriteiten.
Omdat ze dan een te grote partij worden. Dat geeft problemen wat betreft monopolie.
Om één simpele reden: De mededingingsautoriteiten zouden dat nooit goedkeuren.
Intel gaat nooit goedkeuring voor die overnames krijgen.
Er is nog altijd een financiële autoriteit die markt gezond houdt. (lees voldoende concurrentie)
Omdat mededingingsauthoriteiten in zowel de US als Europa daar zeker en terecht een stokje voor zouden steken
Ben benieuwd wat dit betekent voor de licentie die Apple voor zijn eigen chips heeft. Daarnaast kan het ook nog wel eens grote invloed op Intel hebben wanneer Nvidia hele op ARM gebaseerde systemen uit gaat brengen.
Voor Apple verandert er niet zoveel, ARM blijft gewoon onpartijdig en hun business model blijft gewoon het verkopen van IP.

Wat Nvidia hier met name wint zijn volledige rechten op het gebruik van alle IP van ARM en toegang de mensen die er aan werken.

Misschien krijgt Apple wat concurrentie in de SOC markt of bij de TSMC aanbestedingen. Maar er waren ook al geruchten dat Apple een chip fab wou kopen.

[Reactie gewijzigd door jeroen3 op 23 juli 2024 07:21]

Voor Apple verandert er niet zoveel, ARM blijft gewoon onpartijdig en hun business model blijft gewoon het verkopen van IP.
De nieuwe eigenaar kan het businessmodel veranderen en beslissen om te stoppen met het uitgeven van licenties zoals Intel gedaan heeft.
Misschien krijgt Apple wat concurrentie in de SOC markt of bij de TSMC aanbestedingen. Maar er waren ook al geruchten dat Apple een chip fab wou kopen.
Er is al concurrentie zat in deze markt. Apple is daar zelf helemaal geen speler in, omdat ze geen SOC's verkopen en dat ook nooit van hun leven zullen willen doen, maar enkel volledige producten. Wat ze wél willen is een volledig eigen lijn van chipdesign en -productie tot eindproduct voor de pro/consument.
Stoppen van de licentie zou een risico zijn dat het hele voortbestaan van Apple en hun businessmodel zou betekenen. Dit is niet als een risico beschreven in de 10Q van Apple.

Het woord Arm komt er welgeteld 0 keer in voor.

https://www.sec.gov/Archi...DEE38541BBC270E88E63C54AB

Er staat wel een risico indekking in over licenties.

[Reactie gewijzigd door Verwijderd op 23 juli 2024 07:21]

Stoppen van de licentie zou een risico zijn dat het hele voortbestaan van Apple en hun businessmodel zou betekenen.
da's Apple hun probleem. Als Nvidia CPU's begint te maken, dan kunnen ze die bvb wel verkopen aan Apple als die daar interesse in heeft.

[Reactie gewijzigd door dasiro op 23 juli 2024 07:21]

Nee, dat is een probleem voor de aandeelhouders van Apple. In dat geval is Apple verplicht om dit risico duidelijk te vermelden in hun documenten.
Zodra al Apple's platformen op ARM draaien kunnen ze ten alle tijden overstappen naar een andere instructieset, daar alle apps in de app stores naar mijn weten in bytecode geüpload moeten worden. Dus Apple heeft altijd nog de optie om een MIPS- of misschien zelfs PowerPC-core te maken. Het zou me niks verbazen als ze op die laatste architectuur nog steeds een licentie hebben door de overname van P.A. Semi.
Ik geloof dat Apple een 'perpetual license' heeft op de Instructie Set Architectuur.
Het stoppen van de licentie zou voor Apple dus geen gevolg hebben.
De nieuwe eigenaar kan het businessmodel veranderen en beslissen om te stoppen met het uitgeven van licenties zoals Intel gedaan heeft.
Dan moeten de patenten wel heel erg veel waard zijn dat je het riskeert om alle bestaande producten direct op te heffen. Dan gooi je de wereld wel weer even 20 jaar terug in de tijd! Een keuze zoals dat slaat waarschijnlijk ook nog eens genadeloos terug. De huidige klanten stappen waarschijnlijk direct over op RISC-V. En dat zit je daar met je ARM cores terwijl de eindgebruikers je hebben uitgespuugd.
Nee, dat gaat niet goed komen. (bitkeeper iemand?)

Plus dat veel vendors een perpetual license hebben op de cores van ARM. Die zul je moeten afkopen.
Als je graag geld doorspoelt en Evil Corp wil spelen, dan ja, dan zou kunnen stoppen met de verkoop van IP.
-
Apple krijgt natuurlijk technologische concurrentie, niet economische concurrentie. Als Apple na de overstap op ARM het niet voor elkaar krijgt om snelle processoren te blijven maken krijgen ze het moeilijk. En dan telt het ontwerp en de productietijd, ze zijn namelijk beide fabless.
Als je hierdoor naast Intel en AMD kunt komen om volledige systemen te kunnen leveren, dan zal Nvidia dat zeker wel overwegen. Zo'n kans doet zich maar eens in de 10 tot 20 jaar voor en de vorige keer was het AMD dat Ati heeft gekocht en kijk waar ze nu staan.
Maar dat kan ook zonder de verkoop van ip te staken.

Je kunt een monopolie niet forceren op die manier. Als dat gebeurt dan staan er heel veel bedrijven klaar met hun advocaten. Om er maar even een paar te noemen: Apple, Qualcomm, Broadcom, Infineon, Samsung, ST, NXP, TI, Renesas en nog veel meer. En dat zijn alleen de hardware vendors. De softwre vendors komen daar nog bij. Eigenlijk de gehele tech wereld, want iedereen heeft wel een ARM onderdeel of dependecy ergens in de productcatalogus. Zelfs AMD en Intel zijn ARM klant.

Ga voor de gein eens ARM producten tellen in je huis, het zit overal.

[Reactie gewijzigd door jeroen3 op 23 juli 2024 07:21]

dat kan uiteraard, ik beweer ook nergens dat dit de enige reden zou kunnen zijn. Het forceert ook helemaal geen monopolie, maar brengt een derde grote speler op een cruciale markt.
De nieuwe eigenaar kan het businessmodel veranderen en beslissen om te stoppen met het uitgeven van licenties zoals Intel gedaan heeft.
Dat wordt nooit toegestaan door de diverse instanties. Ze zullen alleen gekocht kunnen worden als ze beloven op de oude voet door te gaan.
Arm heeft het recht om dit te doen, daar hebben weinig tot geen instanties iets op tegen in te brengen. Het heeft natuurlijk ook verplichtingen en contracten met andere bedrijven, maar die kunnen ook beëindigd worden
[...]

De nieuwe eigenaar kan het businessmodel veranderen en beslissen om te stoppen met het uitgeven van licenties zoals Intel gedaan heeft.
Maar dat betekent dat bestaande licenties op de instructieset door blijven lopen. De cores kunnen fabrikanten zelf maken (en dat zou goed nieuws zijn voor Qualcomm en Apple, minder goed nieuws voor Samsung en Mediatek). Dat is hoe AMD en VIA tot op de dag van vandaag x86-processors mogen blijven maken. Nvidia zou overigens hun aankoop minder waard maken zodra ze ARM sluiten als platform, want dat betekent dat Android-fabrikanten wellicht richting MIPS oid zullen overstappen indien Tegra's tegenvallen qua prestaties.
wie zegt dat? Nvidia is een partij die naast IP ook ODM-faciliteiten heeft er is zeker NIETS gezegd over wat team-Green met ARM zou gaan doen mocht ze die in handen krijgen. één ding is echter zeker. zowel AMD als Intel zouden er een heel zware dobber aan krijgen als er Desktop ARM hardware zou komen waar standaard onboard Geforce IGP's van het caliber 2080TI in zouden zitten.

denk je eens in een referentie mobo met 16 of 32 Arm cortex A99* met NV graffics ipv Mali. en standaard ddr5, ik denk ook dat ARM onder leiding van NV wellicht meer zou doen met een breedere PCI-E bus zodat andere hardware beter toepasbaar is.

Dus voor je het weet heb je dan een ARM soc met minimaal 16 ~ 32 pci-e 4.0 lanes **. en hebben intel EN amd er een forse kluif aan om daar nog iets tegenin te brengen.


*toekomstige arm core op major arm-version upgrade +/- 2 generaties na nu.
** Random speculatie op basis van wat ik in Nividia''s plaats zou doen met ARM && deels gebaseerd op de huidige apple-koers.
Apple kan prima naar amd of intel uitwijken. Apple producten worden niet verkocht op de specs.
Zou een dergelijke overname ook niet betekenen dat een aantal bedrijven die nu via een licentie Arm cpus maken nog eens aan hun hoofd gaan krabben? Eerst kochten je een licentie van een bedrijf wat zelf geen cpus maakt en dus geen concurrent was, maar als Nvidia de boel koopt moet je je cpu licentie kopen van een directe concurrent. Ik voorzie goede tijden voor openrisc cpus.
Intel en AMD verkopen volgens mij allang licenties aan elkaar.
Dat is noodgedwongen en niet te vergelijken. Neem bijv. de PowerCPU: ook daar kun je een licentie van kopen van Motorola/IBM. Niemand die dat deed op Fujitsu na meen ik. Het ligt gewoon niet voor de hand. ARM is fabless op dit moment en verkoopt licenties. Het is in het belang van ARM om dit zo goed mogelijk te doen. NVidia bakt zelf chips en verkoopt liever de chips die ze zelf gebakken hebben. M.a.w. de kans dat de mensen die een licentie kopen met een tweederangs ontwerp of support opgezadeld worden is behoorlijk groot. Geen verstandig CEO die in die markt zou stappen als ARM in handen is van NVidia. Als je al licensee bent, dan zul je voorlopig wel moeten.
openrisc is een leuk 'hobby' project maar niet echt zinvol voor een echte productie CPU (die niet jaren achterloopt), want het is heel lastig om nog een CPU te bouwen zonder dat je tegen patenten aanloopt.
Ik bedoelde RISC-V en niet openrisc. Vergelijkbaar met ARM in dat ze zelf niet bakken en alleen ontwerpen verkopen. RISC-V is al redelijk ver qua silicon implementaties: https://en.wikipedia.org/wiki/RISC-V#Implementations
Enige serieuze alternatief voor x86 / ARM is momenteel Risc-V, en zelfs dat is nog heel erg ver achter de grote jongens. Misschien gaat het in de embedded wereld wat tractie krijgen door halfgeleiderfabrikanten die willen besparen op ARM licentie kosten en niet hun eigen architectuur willen maken, maar ook dat moeten we nog maar zien. OpenRISC heeft volgens wiki uberhaupt nog nooit silicon gezien, terwijl er iig wel RISC-V silicon is.
Zal wat wezen als het echt gebeurd. Zal Arm doorgaan hoe het bedrijf is of alle trekken overnemen van Nvidia.
Gaat RISC-V erg opbloeien met een standaard socket en is er straks helemaal geen Arm/x86/x64 meer, dit hoop ik een beetje. Denk dat het niet gaat gebeuren. Vooral de standaard socket. De meesten zullen vast gesoldeerd zijn, maar wat zou het mooi zijn om weer een standaard socket te hebben waar je een cpu(en gpu) in kan zetten van verschillende leveranciers.
Ik denk niet dat Arm/x86/x64 snel gaat verdwijnen.
Er hebben teveel grote bedrijven in geinvesteerd in die ecosystemen.

Ik zie wel de mogelijkheid voor RISC-V om populairder te worden als nvidia (of om het even wie het zou overkopen) zwaar aan de licentievoorwaarden zou sleutelen voor arm.
Ook Risc-V als openrisc zijn geen echte serieuze contenders voor moderne snelle CPU's. zoals ik hierboven bij openrisc ook al aangaf, je loopt al heel snel bij de productie van een moderne CPU tegen nog actieve patenten aan.
Dit zijn rare geruchten. Apple kondigt aan over te gaan op ARM en en paar weken later gaan de geruchten lopen dat NVIDIA, die niet door één deur met Apple kan, ARM gaat overnemen.

Zonde dat een succesvol Europees bedrijf eerst opgekocht wordt door de Japanners en nu misschien door de Amerikanen. De Europeanen innoveren en de Amerikanen kopen het op. Worst case is dat Google het koopt, dan kun je ARM afschrijven. Misschien nu NVIDIA begint te dreigen, dat hopelijk Apple het toch koopt.
Als dit inderdaad zo is dan is de kans vrij groot dat Apple het kosten wat kost gaat overnemen. Apple zal ook net even wat meer te besteden hebben. Ik denk ook dat ARM net even beter thuis hoort bij Apple dat zelf al heel veel in deze architectuur heeft gestoken.
Aangezien de ARM Architectuur heel populair is nu zal het niet zo heel veel uitmaken welk bedrijf het koopt, dat bedrijf zal gewoon licenties blijven uitgeven omdat DAT is waar ARM zijn geld mee verdient.
Grootste probleem dat ik voorzie bij overname door een amerikaans bedrijf is dat eventuele andere landen geblokkeerd gaan worden van gebruik van de technologie, zoals de VS nu ook al behoorlijk wat blokkeert richting China.. Nu is het China, maar wat als wij bv op die shitlist van de VS komen...
Eigenlijk lig ik compleet in een scheur als een chinees bedrijf aan de haal gaat met ARM, al dan niet via een constructie via een niet-chinees BV die dan ARM opkoopt (omdat Softbank het mogelijk niet wil verkopen aan een chinees bedrijf) en dan meteen doorverkoopt aan een chinees bedrijf. En als DAT dan gebeurd, dat China dus een verbod oplegt om patenten die in chinese handen zijn door te verkopen aan amerikaanse bedrijven... ofwel exact hetzelfde wat de VS nu richting China doet.. haha, dat zou echt popcorn tijd zijn om te zien hoe dat gaat aflopen..
Heeft Softbank niet al een significant aandeel in Nvidia?
5% in juni 2018
Dus aanzienlijk valt wel mee.

Kan natuurlijk toegenomen zijn.
Ah, bedoelde een significant aandeel vanuit het perspectief van softbank. Niet over het totaal van nvidia.
Het is gezien de stijging de afgelopen 2 jaar een 5 miljard dollar
Door Arm in te lijven zou Nvidia in theorie zelf complete systemen voor datacenters kunnen maken
Natuurlijk zouden ze ook gewoon een licentie op ARM technologie kunnen nemen (sterker nog, die gebruiken ze soms al). Lijkt me toch net ietsjes goedkoper als je een CPU wil maken dan heel ARM opkopen.
Goedkoper zeker, maar met ARM op te kopen krijg je zowel de kennis als de patenten Mee. Deze kunnen heel handig zijn om CPUs te ontwerpen die perfect aansluiten bij de GPUs van Nvidia.

Wat een mooie combinatie is voor in een data center.
Sinds de overname door SoftBank in 2016 zijn de aandelen van Nvidia ongeveer acht keer zoveel waard geworden.
Ik ben even in de war door deze zin. Is Softbank ook in het bezigbezit van Nvidia? Of is dit een typo en moet dit over Arm Holdings gaan? In welk geval de volgende zin weer apart overkomt. Of wil hiermee gezegd worden sinds Arm Holdings in 2016 verkocht is (aan Softbank) dat Nvidia veel vermogender is geworden, en dus nu wel de mogelijkheid heeft Arm Holdings over te nemen?

EDIT: typo

[Reactie gewijzigd door nairolf op 23 juli 2024 07:21]

Nou, je bent niet de enige hoor, ik moest die zin ook meerdere keren lezen. Maar ik denk dat er mee bedoelt wordt dat de aandelen van Nvidia ten tijde van de overname van ARM door Softbank dus 8 keer lager waren dan nu, en ze dus toendertijd niet in staat waren om ARM over te nemen, en nu inmiddels doordaat de aandelen 8 keer hoger zijn dus wel.. Maar het is een zeer wazig geschreven stukje, en waarom je een -1 krijgt is mij weer onduidelijk, zal weer tweakers zijn die -1 misbruiken als dislike..
Door Arm in te lijven zou Nvidia in theorie zelf complete systemen voor datacenters kunnen maken, met zowel cpu's als gpu's.
Dit snap ik niet. ARM verkoopt licenties op ontwerpen maar je hoeft geen standaard ARM design te gebruiken. Je kan ook een licentie op nemen op de instructie set en vervolgens je eigen cpu daar omheen ontwerpen zoals bv Apple doet. Nvidia doet dit trouwens volgens mij al bij hun automotive SoCs.

Er is absoluut geen noodzaak om arm te kopen als Nvidia hun eigen cpus wil bouwen.

Is Softbank trouwens nog steeds aandeelhouder van Nvidia?
Precies, en niet te vergeten dat nVidia al jaren Tegra soc's heeft met ARM chips. In het begin volgens mij zelfs eigen ontwerpen met de ARM instructieset, later gewoon de ARM cpu ontwerpen.

Op dit item kan niet meer gereageerd worden.