Door Julian Huijbregts

Nieuwsredacteur

Ontwikkelingen in de chipindustrie

Iedere techgigant een eigen chip

31-12-2020 • 12:00

101 Linkedin

Chipontwikkelingen

'Schoenmaker, blijf bij je leest', is een mantra waar grote techbedrijven weinig mee hebben. Giganten als Google, Amazon, Apple, Microsoft en Facebook werden groot met een product, software of dienst, maar doen er alles aan om hun ecosysteem zoveel mogelijk uit te breiden en de touwtjes in eigen hand te nemen. Een van de rigoureuze stappen die ze daarbij zetten, is het ontwikkelen van eigen processors.

Steeds meer techgiganten nemen geen genoegen meer met wat bijvoorbeeld Intel, AMD, Qualcomm of MediaTek te bieden hebben en slaan hun eigen weg in. Dat gebeurt zowel bij consumentenproducten als bij servers. Daarnaast is er veel te doen rondom Arm. De processorarchitectuur wordt steeds meer ingezet als alternatief voor x86, dat al decennia de pc-markt domineert. Bovendien wil Nvidia het bedrijf dat de Arm-licenties uitgeeft overnemen en dat kan verstrekkende gevolgen hebben. De chipmarkt is dus volop in beweging en daar komt voorlopig geen verandering in. In dit artikel zetten we op een rij wat er allemaal speelt.

Apple maakt langverwachte overstap naar Arm

Dat Apple zou overstappen naar eigen processors in zijn Macs stond al jarenlang min of meer vast; de vraag was alleen nog wanneer dit zou gebeuren. Een half jaar geleden kondigde Apple de transitie officieel aan en werd duidelijk dat die eind 2022 afgerond moet zijn. Alle Apple-hardware heeft dan een processor met Apples eigen Arm-ontwerp.

De overstap van Apple is niet alleen een verandering van leverancier, maar ook van architectuur. Apple maakt al jarenlang Arm-socs voor zijn smartphones en tablets en schaalt die nu op voor gebruik in pc's. Daarmee zegt Apple de x86-architectuur definitief vaarwel. Vooralsnog lijkt de overstap positief uit te vallen. De eerste MacBooks met Apples M1-soc zijn snel en zuinig en dat belooft veel goeds voor toekomstige chips.

Apples huidige M1-soc voor Macs heeft maximaal acht cpu-cores en evenveel gpu-cores. De komende jaren zullen er waarschijnlijk diverse M-varianten volgen, met meer cores en grotere gpu's, voor in de duurdere MacBooks, iMacs en de Mac Pro. Volgens geruchten werkt Apple aan een variant met 32-cpu-cores en 128-gpu-cores. Dat zou het topmodel zijn voor in een Mac Pro.

Apple zal zijn processors waarschijnlijk niet aan andere fabrikanten gaan verkopen en in dat opzicht vormen de chips van het bedrijf dus geen bedreiging voor bijvoorbeeld AMD en Intel. Toch zal het interessant zijn om te zien hoe de Apple-processors het in de komende jaren tegenover de chips van de gevestigde orde zullen doen. Als de Arm-chips een voorsprong weten te behalen op diverse fronten, zal dat andere fabrikanten aan het denken zetten over hun toekomstplannen.

Apple M1-soc

De volgende stap voor Apple: eigen modems

Het maken van eigen socs heeft Apple al jaren onder de knie en dus heeft de iPhone-fabrikant zijn zinnen gezet op het volgende onderdeel: modems. In 2019 nam Apple de smartphonemodemdivisie van Intel over voor een miljard dollar en in 2020 zou Apple begonnen zijn aan het ontwikkelen van eigen modems. Apple zou zijn eigen modems kunnen integreren in zijn socs, iets dat Qualcomm, Samsung en MediaTek al doen. Over het algemeen is een soc met geïntegreerd modem zuiniger dan de combinatie van twee losse chips.

Het kan nog wel jaren duren voordat Apple zijn eigen modems gaat gebruiken. De iPhone-fabrikant was lange tijd verwikkeld in rechtszaken met Qualcomm, maar de twee kwamen uiteindelijk tot een schikking. Onderdeel van die schikking is de afspraak dat Apple tot 2024 5G-modems van Qualcomm in iPhones blijft gebruiken.

Microsoft kan meeliften op Apples overstap

Microsoft heeft al jaren eerder geprobeerd de overstap van x86 naar Arm te maken. Dat gebeurde rond 2012 met Windows RT en de bijbehorende Surface RT-tablets. Dat werd geen succes; de hardware wist niet echt te overtuigen en het ecosysteem kwam niet van de grond. Software geoptimaliseerd voor de Arm-versie van Windows bleef uit. Het hele RT-project werd na een aantal jaar dan ook afgeblazen.

Apples overstap naar Arm is geen proefballonnetje maar een vastberaden beslissing. Binnen afzienbare tijd weer terugkeren naar x86 is geen optie en goede softwareondersteuning is daarom van groot belang. Apple heeft uiteraard al zijn eigen software geoptimaliseerd, maar ook diverse andere partijen zover gekregen om Arm-versies van hun software te maken. Adobe en Microsoft behoren tot de eerste die dat doen.

Die Arm-versies van bijvoorbeeld Photoshop en Office, zijn uiteraard ook geschikt voor Windows-apparaten met Arm-hardware. Microsoft stopte dan wel met Windows RT, maar er bestaat nog altijd een Arm-versie van Windows en met de Surface Pro X heeft Microsoft recent ook zelf weer Arm-hardware uitgebracht. Die Arm-tablet werd - wederom door het ontbreken van software - nog geen groot succes, maar nu steeds meer software geoptimaliseerd wordt om op Arm-hardware te draaien, ziet de toekomst er rooskleuriger uit.

Microsoft Surface Pro X met Arm-soc

Eigen Arm-chips voor Microsoft Azure lijken op komst

In zijn Surface Pro X-tablets gebruikt Microsoft al 'eigen' socs. De eerste versie kreeg de naam SQ1 en er kwam een opvolger met de SQ2. Het gaat niet om eigen ontwerpen; de socs zijn gebaseerd op Qualcomms 8cx en 8cx Gen 2 5G. De Microsoft-versies zijn wat hoger geklokt en hebben een iets snellere gpu, maar wat techniek betreft zijn ze niet anders dan de Qualcomm-socs die ook voor andere fabrikanten beschikbaar zijn.

Microsoft werkt volgens een gerucht wel aan nieuwe eigen Arm-chips. Die zouden in de eerste plaats voor Azure-servers ontworpen worden, maar mogelijk komen er ook varianten voor Surface-apparaten. Dat de techgigant aan eigen chips werkt, bevestigt het bedrijf, zonder daar verdere details over te geven: in een reactie op die geruchten zei Microsoft 'te blijven investeren in het ontwerpen en produceren van chips'. Of we daar op korte termijn wat van te zien krijgen, is nog onduidelijk.

Google-chips in Pixel-telefoons en Chromebooks

Productfoto's Google Pixel 4aOok Google zet flink in op eigen chips. In de afgelopen jaren heeft de zoekgigant vier generaties van zijn Tensor Processing Unit voor machinelearning gemaakt. Bovendien is het sinds Google zijn eigen Pixel-smartphones maakt, al duidelijk dat het bedrijf plannen heeft om daarin eigen chips te gebruiken. Er zijn inmiddels vijf generaties van Pixel-smartphones uitgekomen en die hebben allemaal nog socs van Qualcomm, maar in de Pixel 2 introduceerde Google al zijn eigen Pixel Visual Core voor verwerking van camerabeelden en de Google-telefoons hebben een Titan M-beveiligingschip, die ook in eigen huis is ontworpen.

Achter de schermen is Google al jaren bezig met het ontwikkelen van een eigen soc voor smartphones. In 2016 zei een topman van Google dat het plan was om steeds minder componenten van anderen te gebruiken en dat er op den duur een eigen soc in Pixel-telefoons moet komen.

Hoe de ontwikkeling van de eigen soc er precies voorstaat, is niet duidelijk. In 2017 bleek dat de prominente chipontwerper Manu Gulati, die acht jaar bij Apple aan chips werkte, in dienst was als Lead SOC Architect bij Google. Twee jaar later verliet Gulati Google alweer, om een eigen chipbedrijf op te richten.

Het hardwareteam van Google staat echter niet stil en hoewel er geen officiële details bekend zijn, komen er volgens geruchten vanaf 2021 Pixel-telefoons met een eigen Google-soc. Vanaf 2022 zou Google een eigen chip in Chromebooks stoppen. De eerste Google-soc zou door Samsung geproduceerd worden op een 5nm-procedé en de codenaam Whitechapel dragen.

Samsung stopt juist met eigen microarchitectuur

Samsung maakt al jarenlang zijn eigen Exynos-socs en daarin gebruikte de Zuid-Koreaanse techgigant zijn eigen Mongoose-cores: Arm-ontwerpen met een aangepaste microarchitectuur. De Exynos 990-soc, die in de Samsung Galaxy S20-toestellen zit, heeft bijvoorbeeld M5-cores, de vijfde generatie van die Mongoose-cores.

Met zijn eigen ontwerpen heeft Samsung nooit potten kunnen breken. De Exynos-socs waren niet beter dan vergelijkbare Qualcomm Snapdragon-varianten. Dat werd pijnlijk duidelijk doordat Samsung zijn high-end Galaxy-telefoons in verschillende regio's met verschillende socs verkoopt. De Amerikaanse varianten met Snapdragon-soc presteerden veelal beter dan de Europese Exynos-uitvoeringen.

Eind 2019 maakte Samsung bekend te stoppen met het ontwerpen van eigen microarchitecturen voor Exynos-processors. Het bedrijf blijft wel eigen Exynos-chips maken, maar baseert die op bestaande architecturen. In de praktijk zal dat erop neerkomen dat Samsung de Cortex-ontwerpen van Arm overneemt, in plaats van daar aanpassingen aan te maken.

Samsung had nog M6-cores in ontwikkeling, maar die zijn geschrapt. De komende Exynos 2100-soc, die zijn weg zal vinden naar de Galaxy S21-serie, heeft voor zover bekend een cluster met een Arm Cortex-X1-core en drie A78-cores. Dat zijn de nieuwste ontwerpen van Arm, zonder verdere aanpassingen. Ook Qualcomms Snapdragon 888-soc gebruikt die cores. De Exynos 2100-soc is nog niet officieel aangekondigd; Samsung presenteert de chip op 12 januari.

AMD-gpu's in Samsung Exynos-socs

Ook voor de gpu van Exynos-socs put Samsung uit bestaande ontwerpen. Halverwege 2019 maakten Samsung en AMD bekend samen te werken aan zuinige gpu's voor smartphones. Onderdeel van die samenwerking is dat Samsung een licentie krijgt op de RDNA-architectuur voor gpu's. Na de aankondiging van de deal sprak Samsung de verwachting uit dat er twee jaar later socs met AMD-gpu's uit zouden komen. Als dat uitkomt, zou in 2021 de eerste Exynos-chip met AMD-gpu kunnen verschijnen, maar het zou ook weleens langer kunnen duren.

De Exynos 2100 voor de Galaxy S21-serie heeft nog geen AMD-gpu en volgens geruchten heeft Samsung nog twee opvolgende Exynos-socs in ontwikkeling, waarvan één model een AMD-gpu zou hebben. Als Samsung zijn jaarlijkse cadans van één high-end soc per jaar aanhoudt, zou het kunnen betekenen dat die chip pas in 2023 uitkomt.

Dat Samsung stopt met eigen microarchitecturen en bij AMD aanklopt voor gpu's, betekent niet dat de fabrikant zelf niets meer bijdraagt aan zijn Exynos-socs. Samsung maakt nog altijd de bijbehorende of geïntegreerde modems en socs bevatten veel meer onderdelen, zoals de neural processing unit en image signal processor.

Chipnaam Marketingnaam Cpu Gpu Jaar
Exynos9830 Exynos 990 Mongoose-cores Arm Mali-G77 2020
Exynos9840 Exynos 2100 Arm Cortex-cores Arm Mali-G78 2021
Exynos9855 Exynos ? Arm Cortex-cores? Arm Mali? 2022?
Exynos9925 Exynos ? Arm Cortex-cores? AMD? 2023?

Huidige en komende high-end-socs voor smartphones van Samsung

Ook Oppo wil eigen chips

Naast Apple en Samsung maakt ook Huawei eigen socs voor in smartphones. Xiaomi heeft dat ook gedaan, maar is daar naar verluidt weer mee gestopt. Er is wel een andere Chinese fabrikant die het voornemen heeft om eigen chips te maken: Oppo. De fabrikant schreef begin 2020 in een interne memo dat het nog wel lang kan duren voordat het zover is. Het team dat Oppo heeft samengesteld om zijn eigen chips te maken, is recent opgezet. De Chinese fabrikant heeft veel mensen aangenomen die eerder voor MediaTek en Unisoc aan Arm-socs hebben gewerkt.

Oppo lijkt wellicht niet zo'n grote speler te zijn op de smartphonemark, maar het merk valt onder het Chinese BBK Electronics, dat ook merken als OnePlus, Vivo en Realme bezit. Het marktaandeel van die merken opgeteld, komt overeen met dat van grote spelers als Samsung en Huawei. Vooralsnog is alleen bekend dat Oppo de chips wil maken. Of de dochterbedrijven die ook zouden gaan gebruiken, is nog niet bekend. Gezien de vroege fase van de plannen, kan het bovendien nog jaren duren voordat het zover is.

Arm-chips in servers en supercomputers

Bedrijven als Apple en Samsung maken Arm-chips voor hun consumentenhardware en door de jarenlange ontwikkeling zijn Arm-chips steeds efficiënter geworden. Daarmee zijn ze ook interessant geworden voor servers, datacenters en supercomputers. Bij dergelijke toepassingen is veel rekenkracht nodig, maar ook het energieverbruik is belangrijk.

Er wordt al jarenlang gewerkt aan Arm-serverprocessors, maar aanvankelijk leken zowel processormakers als klanten de kat nog uit de boom te kijken. Qualcomm begon in 2014 met het maken van Arm-serverprocessors onder de naam Centriq. Er verschenen een aantal chips, maar die werden niet grootschalig ingezet. In 2018 zei Qualcomm dat er maar weinig bedrijven in staat waren om x86 achter zich te laten en over te stappen op Arm-serverhardware. De chipontwerper zette daarop zijn serverdivisie op een laag pitje.

Wafer met Qualcomm Centriq 2400-serverprocessors

Qualcomm zag zijn Centriq-processors niet van de grond komen, maar dat wil niet zeggen dat er geen toekomst zit in Arm-serverprocessors. Er zijn diverse andere bedrijven die er meer brood in zien en blijven investeren in de techniek. Amazon is een van die partijen. Bij het grote publiek is Amazon bekend als webwinkel, maar de meeste omzet haalt de techgigant uit AWS, de Amazon Web Services. De datacenters voor die diensten draaien nog voornamelijk op x86-hardware, maar Amazon heeft hiervoor ook zijn eigen Arm-serverchips ontwikkeld.

Eind 2019 presenteerde Amazon zijn Graviton2-soc, de tweede generatie van zijn eigen chip, met 64 Arm Neoverse N1-cores en een derde versie is in ontwikkeling. Dat een techgigant als Amazon zijn eigen chips ontwikkelt, moet fabrikanten als Intel en AMD zorgen baren. De server- en datacenterindustrie zijn markten waar veel geld in omgaat en als een bedrijf als Amazon niet meer aan hoeft te kloppen bij externe leveranciers, betekent dat een flinke klap voor hen.

Het voormalige Cavium, een processorontwerper die in 2017 werd overgenomen door Marvell, maakt ook al jaren Arm-serverprocessors. De nieuwste generatie daarvan is de Marvell ThunderX3, die tot aan 60 cores per die bevat en waarvan volgend jaar versies met 96 cores op twee dies komen. In grote lijnen zijn de ThunderX3-processors vergelijkbaar met Amazons Graviton2-chips, maar Marvell past SMT4 toe. Met die variant van simultaneous multi-threading kan één core aan vier threads tegelijk werken.

Snelste supercomputer heeft Arm-processors

De snelle ontwikkelingen op het gebied van Arm-serverprocessors zijn ook terug te zien in supercomputers. In 2020 behaalde de Japanse Fugaku-supercomputer met Arm-processors de eerste plek in de top500-lijst. Het systeem is uitgerust met A64FX-processors van Fujitsu en heeft in totaal 7,3 miljoen Arm-cores, goed voor een piek van 513 petaflops aan rekenkracht.

Toch hebben Arm-processors de x86-architectuur nog niet definitief van de troon gestoten in dit segment. Er zijn diverse exaflopssupercomputers in aanbouw, op basis van x86-processors. Vooral AMD doet goede zaken. De EPYC-serverprocessors, die per stuk momenteel maximaal 64 cores hebben, worden veelvuldig gebruikt. AMD heeft al een opdracht in de wacht gesleept voor een Amerikaanse supercomputer met een rekenkracht van 2,2 exaflops, die rond 2023 operationeel moet zijn. Die zal draaien op toekomstige Zen 4-processors.

Fugaku-supercomputer met Arm-processors

Nieuwe kapers op de kust: Nuvia, Ampere en SiPearl

Als prominente chipontwerper kun je vermoedelijk kiezen uit tal van aanbiedingen van techbedrijven, maar sommigen kiezen ervoor om zelf aan de slag te gaan. Zo werd eind 2019 de start-up Nuvia opgericht door drie chipontwerpers die jarenlang bij bedrijven als Apple, Arm, Google en Broadcom hebben gewerkt. Nuvia wil zuinige Arm-serverprocessors maken en haalde zo'n 300 miljoen dollar binnen van investeerders.

In 2020 gaf het bedrijf voor het eerst details over zijn Phoenix-cores. Volgens cijfers van de start-up presteren die Arm-cores beduidend beter dan x86-cores voor laptops. De Arm-serverprocessors moeten het opnemen tegen AMD's en Intels serverprocessors, maar zullen ook moeten concurreren met de vergelijkbare Arm-serverchips van bijvoorbeeld Amazon en Marvell.

Ampere is een ander jong bedrijf dat Arm-serverchips maakt. Onder de leiding van voormalig Intel-topvrouw Renee James startte Ampere in 2018 de levering van zijn eerste chip en in 2020 presenteerde het bedrijf een tweede variant, met 80 cores. Ampere gebruikt dezelfde Arm Neoverse N1-cores als Amazon in zijn Graviton2-soc.

Ook in Europa wordt er gewerkt aan een Arm-processor die geschikt is voor supercomputers. Dat wordt gedaan door het Franse SiPearl, met financiële steun van het European Processor Initiative. Er is nog niet veel over de processor bekend, maar het gaat om een Arm-chip met 72 cores en ondersteuning voor Hbm2e-geheugen en DDR5. SiPearl wil in 2021 zijn eerste processor uitbrengen voor high performance computing. Een jaar later moet een chip volgen die gebruikt kan worden in exascalesupercomputers.

Controversiële overname: Nvidia wil Arm inlijven

Het mag inmiddels duidelijk zijn: Arm is in trek. Niet langer zijn Arm-processors alleen interessant voor mobiele apparaten; ze winnen ook aan terrein in pc's en servers. Het is betrekkelijk eenvoudig voor fabrikanten om Arm-processors te maken. Het bedrijf Arm, dat nu in handen is van het Japanse SoftBank, maakt chipontwerpen en stelt die onder licentie beschikbaar. Fabrikanten kunnen vervolgens met die bouwstenen hun eigen chips maken. Er zijn honderden bedrijven die Arm-licenties afnemen.

Sommige klanten gebruiken de kant-en-klare ontwerpen van Arm, zoals de Cortex-cores en Mali-gpu's. Anderen bouwen hun processors en socs vrijwel volledig zelf op, maar gebruiken wel de Arm-microarchitectuur en hebben dus ook een licentie nodig. Arm maakt enkel chipontwerpen en geeft licenties uit. Het bedrijf verkoopt of produceert zelf geen producten.

Huidige licentiemodellen van Arm

Die huidige situatie dreigt te veranderen, want Nvidia heeft een akkoord bereikt om Arm over te nemen voor 40 miljard dollar. Nvidia gebruikt al Arm-cores voor bijvoorbeeld zijn socs en doet goede zaken in de markt voor gpu's. Door Arm in te lijven, zou het bedrijf complete systemen kunnen maken, zoals servers en blades voor supercomputers. Die maakt Nvidia nu ook al, maar dan met Intel- en AMD-processors.

Als Nvidia Arm in handen krijgt, kan de gpu-maker zich richten op complete zelfgemaakte systemen, zonder afhankelijk te zijn van derden of het afnemen van licenties. Nvidia ziet dat uiteraard zitten, maar andere fabrikanten die nu Arm-licenties afnemen, zullen daar minder blij mee zijn.

Bij een overname door Nvidia is Arm niet langer alleen een licentieverstrekker, maar ook een directe concurrent van de licentieafnemers. De overname ligt dan ook onder de loep bij toezichthouders wereldwijd en die moeten daar nog goedkeuring voor geven. De bedrijven zelf denken dat de overname in het eerste kwartaal van 2022 rond kan zijn.

Nvidia DGX A100-systeem, nu nog met AMD EPYC-processors

Volgens geruchten hebben Chinese techbedrijven bij hun regering erop aangedrongen om de overname te blokkeren, of om op zijn minst strenge voorwaarden te stellen. Fabrikanten als Huawei zouden ervoor vrezen dat ze na een overname door Nvidia geen toegang meer te hebben tot de Arm-chiparchitectuur. Nvidia is een Amerikaans bedrijf en de Amerikaanse overheid zou Nvidia kunnen dwingen om de banden met Chinese bedrijven te verbreken.

Hermann Hauser, een medeoprichter van Arm, die inmiddels niet meer bij het bedrijf werkt, heeft zich kritisch uitgelaten over de geplande overname. Hauser schreef een open brief aan de Britse premier Boris Johnson waarin hij stelt dat de verkoop aan Nvidia funest is voor het bedrijfsmodel van Arm. Hauser noemt Arm nu het 'Zwitserland van de halfgeleiderindustrie', die de ruim vijfhonderd afnemers van licenties evenwichtig behandelt. Hij vreest dat Nvidia na de overname een voorkeursbehandeling zou krijgen.

Nvidia zegt dat het na de overname van Arm licenties beschikbaar blijft stellen aan derden en claimt dat klanten voordeel krijgen uit innovaties die Nvidia door kan voeren. Als de mededingingsautoriteiten de overname goedkeuren, zal dat waarschijnlijk onder voorwaarden zijn die de concurrentie moeten waarborgen. Toezichthouders in het Verenigd Koninkrijk, China, Europa en de Verenigde Staten moeten nog oordelen over de deal.

Stoelendans van chipontwerpers

Het maken van een eigen chip is niet voor ieder techbedrijf weggelegd. Het is een complex proces waar jarenlang onderzoek en ontwikkeling bij komt kijken en waarvoor een leger aan knappe koppen nodig is. Dat alles kost veel geld en het is dan nog maar de vraag of het lukt om iets neer te zetten dat beter is dan de concurrentie. Het zijn dus alleen de grote spelers die zich in deze strijd wagen.

Wie het nieuws rondom chipontwerpen volgt, ziet vaak dezelfde namen terugkomen. Er is een aantal chipontwerpers dat een soort rocksterrenstatus heeft. Ze werken steeds voor een relatief korte periode bij een chipontwerpteam van een bedrijf, om vervolgens weer door te gaan naar een volgende uitdaging.

Jim Keller - Foto: Intel

Een goed voorbeeld daarvan is Jim Keller, die een indrukwekkend portfolio op zijn naam heeft staan. Zo werkte hij in de jaren negentig van de vorige eeuw bij AMD aan de K7- en K8-architecturen, die de basis vormden voor de Athlon-processors waarmee AMD het vuur aan de schenen van Intel wist te leggen. Nadat die missie geklaard was, ging hij in 2004 aan de slag bij P.A. Semi, een start-up die zuinige processors voor mobiele apparaten ontwikkelde.

Begin 2008 vertrok Keller naar Apple en nog datzelfde jaar werd heel P.A. Semi door Apple overgenomen. De iPhone-fabrikant maakte toen nog geen eigen chips, maar onder leiding van Keller werden de A4- en A5-socs ontwikkeld. Daarmee stond hij aan de wieg van het succes van Apples eigen chips.

AMD verkeerde ondertussen in zwaar weer; de glorietijden van het Athlon-tijdperk waren voorbij en de processors op basis van de Bulldozer-architectuur konden niet goed concurreren met het aanbod van Intel. Keller keerde in 2012 terug bij AMD en tot 2016 werkte hij daar aan de Zen-architectuur, die de basis vormt voor de Ryzen-processors. Zo wist Keller voor de tweede keer ervoor te zorgen dat AMD weer kan concurreren met Intel.

Na zijn tweede periode bij AMD ging Keller aan de slag bij Tesla, waar hij twee jaar aan chips voor kunstmatige intelligentie werkte. In 2018 volgde een opmerkelijke aankondiging: de befaamde chipontwerper kreeg een hoge functie bij Intel. Inmiddels is hij daar weer vertrokken wegens persoonlijke omstandigheden en het is niet bekend waar hij precies aan heeft gewerkt bij Intel, maar het mag duidelijk zijn dat Keller de afgelopen decennia veel invloed heeft gehad op de chipindustrie.

De loopbaan van Keller is opvallend, maar soortgelijk 'jobhoppen' tussen concurrenten komt veel voor bij prominente chipontwerpers. Zo nam Intel in 2017 Raja Koduri in dienst om gpu's te maken. Hij was daarvoor vier jaar lang de topman van de AMD Radeon-afdeling en werkte voor die tijd bij Apple aan grafische chips.

AMD floreert en wil verbreden

We hebben het tot dusver vooral gehad over techbedrijven die hun eigen chips maken, maar dat wil niet zeggen dat de gevestigde orde stilstaat. De pc-markt wordt nog altijd gedomineerd door de x86-processors van Intel en AMD.

Sinds de komst van de Zen-architectuur in 2016 zit AMD weer flink in de lift. De Ryzen- en EPYC-processors vinden gretig aftrek en in 2020 zette AMD met zijn RX 6000-videokaarten voor het eerst in jaren ook weer stevige concurrentie neer voor Nvidia in het high-end-segment van videokaarten.

De technische vooruitgang is ook te zien in de financiële resultaten van AMD. Het bedrijf noteerde in de afgelopen jaren meerdere malen een recordomzet. Dat was ook het geval bij de meest recente kwartaalcijfers eind oktober, toen AMD 2,8 miljard dollar kon bijschrijven.

Nu AMD zijn cpu's en gpu's weer op de rails heeft, wil het bedrijf verbreden. Want hoewel AMD de technische concurrentie met Intel prima aankan, is AMD nog altijd vele malen kleiner dan Intel. In oktober bereikte AMD een overeenstemming met fpga-fabrikant Xillinx voor een overname. AMD betaalde 35 miljard dollar voor het bedrijf.

Xilinx maakt fpga's, ofwel field-programmable gate arrays. Deze programmeerbare chips raken steeds meer in trek voor gebruik in datacenters en AMD wil met de overname meeliften op deze groeimarkt. Met de overname wakkert AMD de strijd aan met Nvidia en Intel in het segment voor datacenters en supercomputers. Intel deed in 2015 een vergelijkbare overname: het bedrijf kocht toen fpga-fabrikant Altera voor 16,7 miljard dollar.

Intel in zwaar weer, maar nog altijd de grootste

Intel heeft het op technisch vlak zwaar de afgelopen jaren, met name door de strubbelingen bij de overstap van het 14nm-procedé naar 10nm. Dat komt maar niet van de grond en daardoor blijft Intel processors maken op zijn bestaande procedé, terwijl de concurrentie wel vooruitgang boekt.

Het 10nm-procedé wordt al wel gebruikt voor laptopprocessors en er komen Xeon-processors die op 10nm worden gemaakt, maar in het desktopsegment is daar nog niets van terug te zien. Pas in de tweede helft van 2021 komen er 10nm-processors uit voor desktops.

Intel heeft zijn zinnen inmiddels gezet op 7nm en wil daarmee de kopzorgen van 10nm vergeten. Ook bij zijn 7nm-procedé heeft Intel echter met tegenslagen te maken: 7nm-processors komen pas eind 2022 of begin 2023 uit en de geplande 7nm-gpu's voor datacenters moet Intel bij derde partijen laten produceren, als die tijdig op de markt moeten komen.

Door tegenslagen gaat er een streep door Intels oorspronkelijke planning voor 7nm.

Het gebrek aan vooruitgang en de slechte vooruitzichten van de afgelopen jaren hebben Intel geen goed gedaan. Met Apples overstap naar eigen Arm-chips heeft het bedrijf een grote klant verloren en de concurrentie van Arm-processors in het lucratieve segment voor servers neemt flink toe.

Ondanks al die tegenslagen is het goed om te beseffen dat Intel nog altijd de grootste chipproducent ter wereld is, als het om omzet draait. Dat becijferde onderzoekbureau IC Insights recent in zijn jaarlijkse rapportage. In 2020 haalt Intel volgens het onderzoek een omzet van 73,9 miljard dollar uit de leveringen van chips. Dat is 4 procent meer dan vorig jaar. AMD staat op de laatste plek van de top 15, met een omzet uit chips van 9,5 miljard dollar in 2020. Hoewel dat veel minder is dan wat Intel binnenhaalt, groeit AMD wel hard. De omzet was 41 procent hoger dan een jaar eerder.

Intel heeft dus nog altijd een enorm marktaandeel en genoeg reserves om op te teren, maar het bedrijf zal zijn tegenslagen moeten overwinnen om zijn koppositie te behouden in de toekomst. Als Arm-chips steeds meer in trek raken voor datacenters en servers, kan dat Intel zwaar raken.

Dit artikel kun je gratis lezen zonder adblocker

Alle content op Tweakers is gratis voor iedereen toegankelijk. Het enige dat we van je vragen is dat je de advertenties niet blokkeert, zodat we de inkomsten hebben om in Tweakers te blijven investeren. Je hoeft hierbij niet bang te zijn dat je privacy of veiligheid in het geding komt, want ons advertentiesysteem werkt volledig zonder thirdpartytracking.

Bekijk onze uitleg hoe je voor Tweakers een uitzondering kunt maken in je adblocker.

Ben je abonnee? Log dan in.

Lees meer

Reacties (101)

101
95
61
14
2
22
Wijzig sortering
De chip van Tesla had ook benoemd kunnen worden. Een Full Self-Driving Chip waarbij het bijzondere deel is dat deze ingericht op niet te veel energieverbruik (invloed op bereik auto). https://youtu.be/Ucp0TTmvqOE?t=4477 (uitleg tussen 1:14:00 en 1:34:00)

De Neural processing unit is speciaal gemaakt dat het heel efficiënt de dot product heel vaak kan uitrekenen die voor zelf rijdende auto's nodig is.
De Neural processing unit is speciaal gemaakt ...
Marketing-figuren bij Tesla, Apple en NVidia willen dat graag zo laten voorkomen, dat zij, speciaal iets gemaakt hebben. Dat is echter grotendeels onzin.

Net zoals bleek dat sinds de jaren 90 "bestaande" GPU's, later uitstekend geschikt waren voor Bitcoins en het trainen van artificial intelligence, bleek het dat "bestaande" DSP's weer uitstekend geschikt waren voor AI-taken als Neural Networks.

Er zijn een aantal bedrijven, die - net als ARM - DSP's ontwerpen, zelf niet maken en ook al niet zelf verkopen, maar wel in licentie geven aan anderen.

De marketing-jongens van Apple, Tesla en anderen nemen die ontwerpen in licentie, en plakken dan andere namen op die DSP's - die ze zelf niet ontworpen hebben.

Apple noemt het Neural Engine; het is publiek geheim dat dit vroeger gewoon van-de-plank CEVA-cores betrof.

NVidia gebruikt volgens mij GPU's als DSP's; maar qua marekting noemen ze Mellanox SmartNIC's bijv voortaan DPU's; Data Processing Units; dus ook buiten het AI-veld worden er in rap tempo nieuwe marketing-labels over bestaande chipjes geplakt; oude wijn in nieuwe zakken.

Maar wie heeft die DSP's eigenlijk ontworpen - niet zo heel speciaal en eigenlijk voor iedereen die zuinig dot-producten wil uitrekenen?

Zoals genoemd verkoopt CEVA DSP ontwerpen aan Apple, en Apple giet er dan een marketing-sausje overheen.

Maar ook de vorige GPU-ontwerper van Apple, Imagination Technologies, biedt AI-ontwerpen aan.

En dan zijn er nog de makers van chip-ontwerp software (Electronid Design Automation: EDA): Die maken niet alleen software om te ontwerpen, maar ze maken zelf ook ontwerpen die ze in licentie geven.
Vaak is dat weer gestoeld op oudere DSP ontwerpen, van leveranciers die overgenomen zijn door de EDA-bedrijven; zoals bijv. Tensillica dat door Cadence werd gekocht.

Synposys geeft AI kernen in licentie, en dus ook Cadence / Tensillica..

Als laatste bekende speler komt daar Marvell bij. Het bedrijf, bekend vroeger van harddisk-controllers en de Armada-serie SoC's, richt zicht tegenwoordig minder op het verkopen van chips, en meer op het samen met de klant maken van ontwerpen, die de klant vervolgens bij TSMC / Samsung laat maken.
Volgens mij is dat ook de hele achtergrond van "Microsoft die zelf chips gaat maken": Dat lijkt me dikke onzin, daar heeft Microsoft voor zover ik weet helemaal niet de ervaring / mensen voor. Die hebben waarschijnlijk gewoon Marvell ingehuurd. In het artikel staat dat Marvell de ThunderX3 maakt; maar Marvell heeft inmiddels besloten dat niet onder eigen naam te doen, maar het ontwerp aan bedrijven als Microsoft in licentie te geven.
En ja, ook Marvell biedt AI-ontwerpen voor hardware aan!

Qua energie-verbruik, ik moest het even nazoeken, maar het blijkt dat de ARM Cortex M4F uit 2010 al DSP "dot product" instructies had voor embedded / zuinige toepassingen. Het gaat hier dan om een MAC; de Cortex M-serie geeft ARM in licentie aan bedrijven die zuinige ASIC's / SoCs etc willen maken; en die vinden dat de Cortex-A serie "teveel energie vreet".


Het kan nog gekker natuurlijk: Van de ARM-architectuur is de instructie-set niet uitbreidbaar. Maar vandaag de dag raakt ook RISC-V steeds meer in zwang. Want dit is een open en gratis instructie-set, waarbij de gebruiker dus zelf "extra" instructies kan toevoegen aan de instructie-set.

Mooi voorbeeld daarvan is het Taiwanese Andes, wat dan weer SIMD-instructies toevoegt aan de RISC-V instructieset. Andes heeft ook weer een bedrijf overgenomen, Deeplite, om AI toepassingen gebaseerd op RISC-V te slijten aan klanten.

Het leuke is dat bedrijven als Tesla dan weer een RISC-V ontwerp kunnen afnemen bij Andes, waar ze dan vervolgens hun eigen sticker (Tesla AI unit, Apple Bionic nogwat) op kunnen plakken, en dan zeggen dat ze "speciaal" iets gemaakt hebben.

Met andere woorden, als ik lees "de chip van Tesla", dan moet ik toch altijd even grinniken; wie weet hoe de markt werkt doorziet vrij snel van wie die ontwerpen echt zijn.

[Reactie gewijzigd door kidde op 31 december 2020 14:31]

Aan de andere kant neemt Apple dan weer geen ARM cores voor hun SoC en hebben ze behalve de ISA licentie tegenwoordig de rest wel zelf gemaakt.
Zelf gemaakt is dan ontwikkeld op basis van in licentie gegeven ontwerpen en gebakken in andere dan Apple fabrieken in china en taiwan en Korea.
Maar verder hebben ze het "zelf gemaakt".
Since Apple doesn’t have its own foundry, it can’t actually produce the chipsets that it designs. TSMC has been the exclusive manufacturer of its custom mobile chips for almost five years. Samsung has made a percentage of chips for Apple in the past but since 2015, TSMC has been the exclusive manufacturer. It has been rumored time and again that Samsung could win back some orders but that’s yet to materialize.

There may have been many reasons behind Apple’s decision to make TSMC the exclusive manufacturer.

[Reactie gewijzigd door SED op 31 december 2020 20:04]

Nee Apple ontwerpt alleen op de licentie van de instructie set van ARM. Er is in de Core ontwerpen van Apple geen enkele referentie te vinden naar de ontwerpen van ARM.
Arm is een architectuur.. je kunt de vorm en de hoeveelheid schakelingen bepalen maar het design blijft gebaseerd op ARM.
https://nl.wikipedia.org/wiki/ARM-architectuur
basis van in licentie gegeven ontwerpen
Dat is dus niet wat je hierboven schetst. De manier hoe jij op reageert op dit:
Aan de andere kant neemt Apple dan weer geen ARM cores voor hun SoC en hebben ze behalve de ISA licentie tegenwoordig de rest wel zelf gemaakt.
Doet geloven dat Apple Chips zijn gebaseerd op ARM Core ontwerpen. En dat is dus gewoon niet zo.
Apples ARM ontwerpen zijn volledig gebaseerd op de ARM architectuur.
En dat is wat ik zeg. Zonder ARM geen M1.
Dat apple daar zelf wat aan toevoegt is wel te hopen voor ze. Anders is het een volledige kopie die ze ook nog extern laten maken.

[Reactie gewijzigd door SED op 1 januari 2021 02:23]

De de ontwerpen zijn dus 0% op ARM's ontwerpen gebaseerd. Ze gebruiken alleen de ISA en dat is ook het enige IP wat ze afnemen bij ARM voor de SoC.
Nee, dat is dus niet zo. ARM is een ISA, een architectuur en een referentie design. Als je alleen de ISA implementeert maar niet de core referenties gebruikt kan je dus prima ARM machinecode uitvoeren maar is de core gewoon totaal niet gerelateerd aan het bedrijf achter ARM en betaal je dus niks aan ARM, gebruik je geen IP van ARM en moet je dus ook dat spul zelf ontwerpen.
Maar Apple heeft gewoon een licentie op de ARM architectuur en gebruikt die ook gewoon voor zijn ontwerpen.
Zonder ARM geen M1 etc..
Apple heeft wel meer licenties ja. Maar ze maken de cores zelf en gebruiken als IP alleen de ISA van ARM, verder dus niks. Geen cores, geen designs.
Als chip ontwerper kan ik enkel zeggen dat er heel veel techniek samenkomt in de productie. Van de Nederlandse Lithografie machines, chemie, fysica en inderdaad het ontwerp zelf. Dan heb je het testen, verpakken. Volgens mij zijn enkel Intel, Samsung en TI instaat dat allemaal zelf uit te voeren. Niemand anders heelft alles onder een dak.
Bedankt voor de uitgebreide reactie, zeer leerzaam betreft hoe de chip tot stand komen.

Misschien had ik mijn stuk beter kunnen verwoorden van ”De Neural processing unit is speciaal gemaakt ...” naar “Tesla heeft ervoor gekozen veel gebruik te maken van neural processing units...”. Andere chips geven niet dezelfde mogelijkheid om Tflops te krijgen met een bepaald vermogen specifiek op waar ze het voor willen gebruiken.
Mijn ervaring met "of the shelf ip" is niet zo denderend. Alle IP dat je kan kopen is doorgaans log (hoge gate-count), en niet efficiënt. Ik zag de geruchten over de DSP IP ook, maar ik vraag me af of dat echt de IP zelf betreft, of een licentie op bepaalde implementaties. Het is zeker waar dat er heel veel overeenkomsten zijn tussen de oude DSP's (Kalman filters bijvoordbeeld) en de huidige AI netwerken. Je hoeft enkel de activatie functies toe te voegen Maar de schaal is wel totaal anders. De oude DSP's verwerkte altijd een beperk aantal signalen, maar geen volledige pixel array van een camera.

Wat ik beetje mis in dit hele overzicht is de motivatie om zelf chips te gaan maken: Deze chips zijn geen "bare bones" processor meer, maar combineren meerdere taak specifieke kernen op een chip (vandaar de naam SOC=System On a Chip).. De Tesla chip heeft bijvoordbeeld de CPU en GPU (mag je ook DSP noemen) op een chip. De rede is dat het ze hele grote energie besparing geeft door geen data tussen chips over te hoeven dragen: https://www.osti.gov/pages/servlets/purl/1265534 Apple's "Unified Memory": https://www.howtogeek.com...ds-up-apples-m1-arm-macs/ minimalizeerd diezelfde off-chip data overdracht. Zoals denk ik veel Tweakers wel weten, verloopt snelle IO zoals PCIe via 50 Ohm (karakteristiek) afgesloten transmissie lijnen, middels differentiële signaling. Op chip, kun je die lijnen veel korter maken, en dat scheelt heel veel energie verlies. Vooral als je "realtime" beeld informatie wilt verwerken, en je dus heel veel data-overdracht hebt tussen de DSP/AI core het cache geheugen en de CPUs, is het zaak om ze alle drie zo dicht mogelijk bij elkaar te plaatsen op een chip. Vandaar dat ze nu veel geheugen in de AI core zelf stoppen. Deze trend was natuurlijk al heel lang gaande. Waar Intel zijn instructieset bleef uitbreiden voor allerhande specifieke taken (de oude MMX bijv,), zie je nu heel specifieke kernen voor encryptie, gezichts herkenning (apple), camera (google's foto chip), finger afdruk scanner, spraak herkenning, etc. opduiken. Op die manier kan iedere kern licht en efficient blijven. Het lijkt op de oude co-processor zeg maar.

De prijs die je betaald is flexibiliteit, Apple's M1 kan niet met een externe video kaart gecombineerd worden.

Een tweede trend is de oude RISC/CISC strijd die we niet uit het oog mogen verliezen. De X86 cores zijn CISC. Dat ging prima in een tijd dat software nog niet optimaal multi-threading aankon. Maar nu vrijwel alle software dat wel kan, en we betere compilers hebben, blijkt RISC beter te schalen: https://cs.stanford.edu/p...o/projects/risc/risccisc/. Apple's M1 kan nu 8 instructies per cycle outvoeren, en dat worden er mogelijk meer in de volgende generatie.
Het is idd een vorm van Rebranding. Zo was ik al een tijdje van mening... Een leuk voorbeeldje wat we daarvan hebben is het oude merk "Trust", die daar "bekend" mee is geworden!
Naast de Tesla chip worden ook de Chinese x86 compatible (!) cpu's van Zhaoxin niet vermeld
terwijl dit bedrijf de toekomst heeft, want alle software hoeft namelijk niet herschreven te worden,
wat bij ARM wel het geval is....
en een ander voordeel in ddat je van de Amerikaanse achterdeurtjes af bent, want dit IS de reden dat nu iedereen zijn eigen chip gaat maken, blijkbaar niet belangrijk genoeg om te vermelden in dit "Premium" artikel :-)
Software komt tegenwoordig uit een compiler. En die doet het voor ARM net zo goed als voor AMD64.
De tijden van een DOS-binary die alleen op x86 werkt en heel erg nodig is ligt toch wel achter ons. Heck, we draaien alles in een browser, gecompileerd naar Javascript, als het moet.
Gewoon alles compileren naar WASM, en dat laten draaien op elk platform. :) Wel een klein beetje performance verlies. Maar dat heeft elke taal met VM. WASM alleen veel minder.
Software die gecompileerd is met bepaalde x86 extensies zoals AVX512 kan niet draaien op x86 processors zonder deze uitbreiding en moeten dus wel gedeeltelijk herschreven worden als die daarop moeten werken.

De zhaoxin-kx-u6780a heeft de volgende Extensies:
MMX, SSE, SSE2, SSE3, SSSE3, SSE4, x86-64, VT-x, AES, SHA

De volgende extensies missen dus:
AVX, AVX2, AVX512, BMI, F16c, FMA3
Mischien leuk op te lezen: https://medium.com/swlh/w...mean-in-2020-7b4d42c9a9de

Conclusie van dat artikel is, de X86 CISC kern, zal het uiteindelijk afleggen tegen een ARM en zelfs een RISC-V (https://arstechnica.com/g...ing-performance-per-watt/)

Alleen in een omgeving waar geheugen beperkt is, heeft de x86 z'n voordeel met compactere code.
Kort hier aangestipt, Apple is vanaf 2010 al bezig om eigen ARM chips te maken. Ik geloof dat de A4 processor in de eerst of tweede Ipad terecht kwam. En Apple heeft al eerder (beperkt) "eigen Chips gemaakt" (voor 2010)

MS en Google zijn "recentelijk" ingestapt. Apple heeft op z'n minst 9 jaar meer ervaring met eigen Chip design dan MS en Google.
Maar waarom zijn al die bedrijven bezig met hun eigen chips?
Dat hebben ze decennia lang niet gedaan en nu lijken alle grote techbedrijven er op eens mee bezig.
Ik kan tal van verklaringen bedenken maar heb geen idee welke van de redenen zo dringend is dat ze opeen allemaal hun eigen hardware willen bouwen.

Kan de markt niet leveren wat ze nodig hebben?
Zijn de chips van Intel en AMD om een of andere reden niet goed?
Zijn Intel/AMD te duur?
Kunnen/willen Intel/AMD geen ARM chips meer maken?
Willen ze geld verdienen aan de verkoop van hardware?
Is het angst voor spionage door buitenlandse mogendheden?
Is het angst om economisch afhankelijk te zijn van een buitenlandse processorleverancier?
Zijn ze op zoek naar extreme performance of zuinigheid die je met een general purpose CPU niet kan halen?
Zijn de aangepaste ontwerpen (bv voor veiligheid of AI) zo veel sneller dat ze de prijs van custom hardware op laten wegen tegen een betere general purpose CPU?
Zijn de licentieproblemen zo groot geworden dat ze liever miljarden uitgeven aan de bouw van eigen hardware?

Als voorstander van computervrijheid ben ik wel een beetje bang dat al die custom chips ook hun eigen aangepaste software nodig hebben die niet compatible is met de rest van de wereld. Nogal wat van die bedrijven hebben er een handje van om brede muren te bouwen om hun eigen zandbak en er alles aan te doen om zoveel mogelijk controle te krijgen over alles wat er op hun platform gebeurt.
Het hoeft niet zo te gaan. Het is voor iedereen makkelijker om te zorgen dat je compatible met een bestaand platform (zoals Linux of Windows) maar ik ben bang dat een hoop van deze spelers het belangrijker vinden om hun concurrenten dwars te zitten of juist bang zijn dat hun concurrenten meeprofiteren van hun eigen werk.
Volgens mij geeft u een fantastische opsomming van waarom ze bezig zijn met hun eigen CPU!

Veel is winst-maximalisatie.

Vroeger:

-Vroeger maakte Intel een ontwerp, dat net niet bij de workload van bijv. Google / Facebook past,
-Intel fab maakt dat ontwerp op een proces, dat gewoon ronduit veel te duur en bagger is,
-Door monopolie is die CPU vervolgens veel te duur,
-Intel maakt er een server-moederbord bij, die net niet bij de eisen van Google / Facebook past,
-Dell maakt er een server bij, die net niet bij de eisen van Google / Facebook past,
-Het geheel wordt in een rekje geplaatst van leverancier X, dat net niet bij de wensen van Google / Facebook past,
-Software-leverancier (m.n. in het tijdperk voordat FB / Google groot waren): Misschien leverden Oracle / Microsoft of IBM wel peperdure proprietary server-software, laat zeggen "database-uitbuiter".
-Dat wordt aan mekaar gesmeed met een NIC van Cisco, maar dat is net niet optimaal.

Wie maakt er winst: Intel ISA (x86), Intel ontwerp, Intel fab, Intel moederbord, Intel monopolie-uitbuiting, Gigabyte, Dell, leverancier X, Cisco, database-uitbater, database-monopolie. Ik tel 11 partijeen; waarvan 4 toevallig binnen 1 bedrijf accumuleren en no 5 (monopolie uitbuiting) mogelijk maken.

Hoe kunnen Google / Facebook de winst vergroten? Als ze in plaats van de dure supermarkt-kleren een mega goedkoop LEGO-maatpak weten te scoren. Als het pak beter past heeft het ook net wat minder koeling en vierkante meter per zoek-request / "like" nodig, scheelt ook; dus ook het "beter aanpassen van de ontwerpen" is winst-uitmelken.

Welnu, de hele industrie is langzaam richting het mega goedkope LEGO-maatpak model aan het bewegen; waarbij de specs van de LEGO eigendom zijn van Google / Facebook. Bijv. Facebook heeft Opencompute specificatie voor hun LEGO-stenen. En dan vragen ze gewoon, welke goedkope maatpak-aanbieders er interesse hebben. En die aanbieders helpen zelfs mee (Quanta, Intel, Netronome) aan de open LEGO-spec!

Dus die dure x86 architectuur gaat eruit; ARM mag ook.
Die dure Intel-fabs gaan eruit, laat TSMC maar doen; en als ze die beu zijn lopen ze over naar Samsung.
Chip-ontwerp nemen ze ook in licentie bij ARM, maar als ARM te duur is kunnen ze hem ook zelf maken.
Die dure Dell gaat eruit, Quanta Taiwan krijgt de specificatie voor de servers en maakt ze veel goedkoper.
Cisco gaat er zoveel mogelijk uit, ze nemen chip-ontwerp voor SmartNICs / NoC in licentie, en laten de boel gewoon zo dicht mogelijk op de CPU bouwen,
Leverancier X mag gaan concurreren, met alle andere leveranciers die plaatwerk willen maken voor de open LEGO-spec van Google / Facebook.
Databases gebruiken ze gratis open source software voor, of maken ze gewoon lekker zelf.

Omdat de LEGO-spec open is, is er geen enkele afhankelijkheid meer van een leverancier, behalve van ARM op dit moment. Dus alle LEGO-blok bouwers worden tot het bot uitgemolken en maken praktisch geen winst meer.

Wie maakt er nu nog winst? Eigenlijk alleen ARM; ik tel nu dus nog maar 1 leverancier.

Dus vrijheid, vrijheid: Ja, er is veel vrijheid. Voor Google en Facebook, alle leveranciers kunnen makkelijk gedumpt worden voor een andere. En iedereen die wil, heeft de vrijheid de concurrentie aan te gaan met andere bedrijven, voor het leveren van LEGO-steentjes aan Google en Facebook.

Daarom noemen Google en Facebook dat - heel verneukeratief eigenlijk - ook "Open"; dat roept positieve associaties op. En al die "open spec" servers zijn exact geoptimaliseerd / aangepast voor hun gesloten / proprietary algoritmes.
ARM, en toem kwam RISC-V. Wel vreemd dat Samsung bijvoorbeeld gestopt is met eigen ARM ontwerpen, en dus nu meer licenties afnemen van ARM. Maar achter de schermen keihard bezig zijn met RISC-V SoC's.
De markt heeft ogen, en ziet waar winst gemaakt wordt... en gaat daar zijn oplossing voor vinden. Zelf's monopolies kunnen het lang uithouden, maar ook daar komen vaak wel weer oplossingen voor wanneer de kosten echt de spuigaten uitlopen. :)
Nee, het is AI dat de echte rede is. De hoeveelheid data die verwerkt wordt neemt exponentieel toe: https://www.researchgate....and-2020-1_fig1_329298440 Blijf je op de oude koers, zijn we straks 99% van onze energie kwijt aan het verwerken van al die data. Je moet naar slimmere speciale architecturen toe, die dat zo efficient mogelijk doen. Daarom zijn Google, Amazon en Facebook bezig met cores, geoptimalizeerd voor hun taken. Hun grootste kostenpost (afgezien van personeel) is electriciteit, niet de hardware zelf.https://www.forbes.com/si...ctricity/?sh=36f860cb68c9
Apple heeft een adere reden, zij zien de kans schoon zich te onderscheiden met betere hardware, en Microsoft kan natuurlijk niet achterblijven.
Hun grootste kostenpost (afgezien van personeel) is electriciteit, niet de hardware zelf.
Bedankt voor uw bijdrage, maar als ik het snel probeer na te zoeken kom ik toch tot een andere conclusie voor de situatie op dit moment.

Het volgende:
-Het jaarverbruik volgens Forbes is ~12,4TWh (als ik het nazoek bij Google sustainability report zelf kom ik tot 10TWh),
-Dat is 12,4*109 kWh,
-Tegen een Nederlands grootverbruiks-tarief van €0,05 / kWh (bovengrens dus) gaat het dan om:

== Electriciteit: < € 0,6 miljard / jaar.

Kijk ik snel even in de laatste 10-Q van Google, dan zie ik op pagina 8 dat er $16,8 miljard in 9 maanden is uitgegeven aan "property & equipment", grond, gebouwen en hardware.

== Grond, gebouwen en hardware: ~ € 18 miljard / jaar.

Als dat klopt, gaat er kennelijk 30x zoveel naar grond, gebouwen en hardware als naar stroom.

Hoeveel m2 grond / gebouw je nodig hebt, hangt o.a. af van de node-dichtheid van je server-park. Dat hangt voornamelijk af van koeling-ontwerp, rack-onwerpen, NIC's, interconnects, aantal cores / CPU, aantal CPU's / moederbord; dus eigenlijk "aantal berekeningen / sec / m2 ". En dat is het lijstje dat ik in mijn reactie aangaf.

[Reactie gewijzigd door kidde op 3 januari 2021 22:27]

TSMC heeft Intel van de troon gestoten kwa process ontwikkeling, dat maakt concurreren met x86 veel makkelijker en consistenter. Voorheen zelfs als je een aanzienlijke voorsprong kon nemen op Intel kwa architectuur kon hun process superioriteit je toch weer terugdwingen.

Amazon, Google en Microsoft hebben een veel groter deel software van de software stack in de hand voor hun cloud services en die software is veel beter geoptimaliseerd dan oudere software. Dit opent een grotere niche voor area/power efficiënte cores in server chips, en maakt het eindeloos nastreven van IPC en klok wat Intel's grootste kracht was minder relevant.

ARM op zich heeft weinig voordeel ... ik durf te wedden dat als AMD laat volgend jaar op 5nm zit, hun 8 core laptop APU de M1 wegblaast bij hetzelfde stroomverbruik in de meeste benchmarks (en hij zal ook ongeveer dezelfde die size hebben).
> ik durf te wedden dat als AMD laat volgend jaar op 5nm zit,

Dat is een weddenschap dat je zal verliezen. De gelekte presentatie documenten lieten zien dat AMD Zen3+ wilt gaan voor 2021. En dat op TSMC 6nm want Apple heeft het grootste deel van de 5nm productie in hun handen.

Zen 4 is uitgesteld tot 2022 ( op 5nm? ). Probleem is dat Apple intussen een contract afgesloten heeft voor 80% van de 3nm productie.

> hun 8 core laptop APU de M1 wegblaast bij hetzelfde stroomverbruik in de meeste benchmarks (en hij zal ook ongeveer dezelfde die size hebben).

En hier maak je weeral een fout... Apple hun winst van energie zit hem niet enkel op de 5nm process of ARM maar het feit dat ze 4 energie zuinig cores draaien. Het gevolg is dat als je x264/x265 of whatever contant afspeelt, dat men overschakelde op de enerie zuinig cores ( aka phone cores ).

AMD blijft stroom leveren naar hun "performance" cores, en zelf als je de voltage naar beneden smijt, op een bepaald punt is de winst dat je haalt minimaal. Het is ook om die reden dat je AMD hun CPU's bijvoorbeeld niet naar 400mhz of zo ziet dalen want er is gewoon geen winst.

Het is het equivalent van een snelweg met 5 banen te hebben, waar je 1 auto op rijd. Die 5 banen hebben nog altijd dezelfde massieve lichten nodig, of er nu 1 auto op rijd of 100. Apple hun energie zuinig cores, is het equivalent van een 1 baan weg. Waar je minder lichten nodig heb, want je moet maar 1 baan oplichten.

AMD kan hier niet op bijbenen, zelf op 5nm. Dan heb je ook de issue van decoding ( dat is een te lang onderwerp ) en energie verbruik, waarbij x86 veel energie verspilt ( denk massieve brute aanpak vs verfijnde ).

AMD en Intel ontwerpen hun CPU op basis van desktop PC's en zoeken naar hoge clock speed ( = free performance ), hoge performance, screw energie verbruik. Je kent het gezegd, je kan 2 van 3 zaken hebben maar niet alle. Apple hun aanpak is werken met onderdelen dat gedesigned zijn voor lage energie verbuik, de performance omhoog te smijten maar niet de clock speed ( daarom dat ze ook op 3.2GHz draaien ).

En ja, AMD zal verbeteringen maken op Zen3+/Zen4, en Apple zal dat ook doen. Het probleem is dat Apple bijna op hetzelfde niveau zit als een 4800H ( 20% sneller, 44W average ) tegenover de M1 ( 15W average ). Zelf als je de 5000 series erop smijt, en 5nm, ga je nog altijd met een hogere stroom verbuik zitten. Tegen dan zit Apple weer op 3nm. Eigenlijk doet Apple nu, wat Intel in het verleden deed tegenover AMD. Tussen haakjes, wat denk je dat een M1X met 8 Performance cores zal doen? Of dubbel de iGPU cores ( de M1 iGPU is tussen de dedicated 1050TI en 1650 ). Terwijl AMD nog altijd met Vega 7 uitkomt *zucht* in 2021.

En zoals dit artikel aangeeft, er zijn veel andere bedrijven dat interesse hebben in ARM laptop/tablet markt want dat is wel 70% van de verkoop deze dagen. Desktop sales worden vaak overschat en begint langzaam de weg van de Dodo te gaan. Hier in de tweaker community valt dat minder op maar globaal zijn mensen meer laptop en tablet kopers. Juist de markten waar energie zuinigheid een belangrijk punt is.

Mensen dat ARM onderschatten zijn mensen dat geen feeling hebben van technolgie en te veel denken als fanboys. Bhwaaahaaaaa, AMD zal Bwaaaaa 5nm, Bwaaaaa ... Wel where is it? Right ... Als je het niet hebt, zeik er niet over. Net zoals Intel op 14nm zat en Intel fanboys zaten te zeiken van hoe intel op 10nm AMD ging gehakt maken met hun 7nm...

AMD zelf is tevreden met hun markt positie en wilt deze langen uitmelken ( komt letterlijk uit hun eigen mond ).

Ik ben die fanboy toestanden al lang beu. Wat belangrijker is is concurrentie want dat betekend technolies vooruitgang en lagere prijzen voor klanten. AMD hun prijs verhoging was afgedekt onder de mantel der liefde. Idem met de GPU's want mensen denken dat AMD hun moeder is. Nee ... AMD is een bedrijf dat winst wilt maken. Je kreeg een goede deal omdat AMD markt aandeel wilde groeien. Nu dat ze mooie mindset hebben, is het winst tijd.

Apple met hun M1 gooit root in dat eten want nu kan er zich een andere markt ontwikkelen. Een markt met veel meer concurrenten dan enkel de dual monopolie van AMD/Intel ( de enige actieve producten dat een licentie hebben op x86 ). Je kan geen x86 licentie bekomen van Intel hoor! ARM daartegen ... Snappie waarom ARM een betere marktkeuze is voor de toekomst? Concurrentie!
Video playback is maar een heel klein deel van het stroomverbruik van een laptop. Als je een moderne AMD/Intel laptop core op minimale klok gebruikt met een laptop batterij zonder dat het scherm aanstaat zit je al aan zo'n gigantische lange accuduur dat het niet meer relevant is lager te gaan.

Als het 13+ inch scherm wel nits staat te schijnen ga je voor video misschien naar een extra kwartiertje door een ARM little core te hebben ipv. een x86 big core ... op 12+ uur van video kijken. Lood om oud ijzer, de superdiepe low power modes leveren niet zoveel op in laptops ... veel meer relevant voor mobiel/tablet.

De prestaties in de buurt van de TDP zijn veel belangrijker voor een laptop ... en een 8 volle core APU is op hetzelfde proces net zo groot als een M1, en als je uiteindelijk die cores op hetzelfde proces in hetzelfde stroomverbruik douwt zullen ze de M1 wegblazen in de meeste benchmarks.

PS. in hoeverre ISA significant relevant voor de prestaties van brede superscalar processoren is een academisch controversieel onderwerp ... en de mening dat het bijna niks uitmaakt is zeker geen zeldzame mening, die ik deel. Het is niet dat ik ARM onderschat, het is dat ik denk dat de keuze van ISA technisch niet zo heel relevant is. Alle echt pijnlijke delen van x86 kan je omheen werken op uOp niveau en door de compiler gewoon geen code uit te laten spugen die daar tegenaanloopt.

[Reactie gewijzigd door Pinkys Brain op 2 januari 2021 09:03]

Dit is een uitstekende reactie en de redenen die je uiteen zet, zijn ook die waarom ik sinds 2007 naast Intel en AMD systemen ook MIPS, SPARC, POWER en meer recentelijk ARM hardware heb draaien. Ik wil mijn opties simpelweg open houden en de juiste hardware voor de juiste toepassing kunnen inzetten.

Ik vrees voor AMD dat de hoogtijdagen van het bedrijf al weer achter de rug zijn en dat het nu even flink geld binnenhalen is, omdat er een kans is dat dat binnenkort niet meer zo gemakkelijk zal gaan. Met de overname van Xilinx is het even wachten op producten met een duidelijke meerwaarde ten opzichte van de concurrentie.

Ik ben ook niet meegegaan in de Ryzen en Navi hypes, omdat ik sinds 2017 wist dat er op het gebied van ARM en RISC-V mooie dingen te verwachten waren. AMD's huidige producten zijn goed, maar naar mijn mening voor een relatief beperkt publiek van gamers en (creative) professionals en niet op een manier zoals ARM producten voor iedereen toegankelijk en betaalbaar zijn.

Een office PC met een AMD of Intel chip is natuurlijk ook prima, maar dat lijkt mij bij uitstek een situatie waarin een op ARM gebaseerd systeem juist superieur kan zijn. Dan moet natuurlijk wel alle software opnieuw gecompileerd en wellicht aangepast worden, maar dat moet voor een ervaren softwareontwikkelaar geen enkel probleem zijn.
ik durf te wedden dat als AMD laat volgend jaar op 5nm zit, hun 8 core laptop APU de M1 wegblaast bij hetzelfde stroomverbruik in de meeste benchmarks (en hij zal ook ongeveer dezelfde die size hebben).
Wat durf je daar op te wedden dan?

Tegen de tijd dat amd op 5 nm zit zit Apple op 3nm. Apple heeft zelfs voor 2021 TSMC gehele 3 nm aanbod al gereserveerd. En ik mag hopen dat amd dan sneller is dan de huidige M1. Maar de M1 is niet de enige chip die Apple in de pipeline heeft. Er zijn tot nu toe specs uitgelekt/ gaan geruchten over 6 Apple SOCs voor 2021. 6 high performance cores, 8 cores, 12 cores, 16 cores, 24 en 32-64 cores. En de huidige M1 is met 4 high performance cores in sommige workloads al zo snel als een ryzen 5600.

[Reactie gewijzigd door Snowfall op 31 december 2020 20:14]

Het feit dat Apple op dat moment op 3nm zit ligt niet aan ARM, die zal hoogstwaarschijnlijk geen M1 heten. Het was mijn argument om aan te tonen dat ARM technisch op zich weinig voordeel heeft voor processor ontwerp voor laptops, niet dat Apple voor consumenten geen voordeel heeft.

Apple heeft gigantische marges door verticale integratie en falende concurrentie en ze hadden het geluk dat Intel EUV verknalt heeft ... ze kunnen hun processor voordeel kopen van TSMC zelfs als de architectuur nog niet echt speciaal is.

[Reactie gewijzigd door Pinkys Brain op 1 januari 2021 01:34]

Als Intel het niet Verkut had was Apple waarschijnlijk niet aan eigen SOC voor Mac of iPhone begonnen. Apple wist heel goed wat ze wilden en Intel wilde niet luisteren, keer op keer
Ik denk de overwegingen voornamelijk zijn: lager energieverbruik bij vergelijkbare performance, of gewoon meer performance per dollar/euro.

Met de ARM ISA is het risico op wildgroei nog niet zo groot, al zijn er wel bepaalde instructies die slechts enkele implementaties gebruiken (zoals A64FX Scalable Vector Extensions gebruikt van ARMv8.2-SVE).

Risc-V lijkt me een veel groter risico op wildgroei, aangezien iedereen de instructieset naar eigen inzicht mag veranderen of uitbreiden, met als gevolg dat niet alle Risc-V alle software kunnen draaien. De hoeveelheid wildgroei zal alleen maar toenemen naar mate er meer processor varianten bijkomen.
Voor embedded (de CPU in je SSD) maakt die wildgroei niet uit.
En voor general purpose is Risc-V nog niet klaar, lijkt me. Zodra het daarvoor klaar is, is die 'basis-ISA' er ook.
Dat is inderdaad ook waar Risc-V veel gebruikt wordt: voor controllers waar het aanpassen van de instructieset juist heel handig is en de fabrikant niet eerst een dure ARM licentie hoeft af te nemen en waar je volgens mij niets aan de ISA mag veranderen.
Maar waarom zijn al die bedrijven bezig met hun eigen chips?
Wat de meeste van die bedrijven doen is het bouwen van soc's op basis van designs van Arm waar ze dan een eigen draai aan geven door bijvoorbeeld te variëren in aantal cores en het type gpu of npu. Het is te danken aan het businessmodel van Arm dat dit mogelijk is. De bedrijven zullen niet de kennis en middelen hebben om zelf van de grond af een snel en zuinig ontwerp te maken maar denken wel iets onderscheidends te kunnen maken op basis van bouwblokken van Arm en andere ip-leveranciers. In de embedded en mobile markt, waar tientallen leveranciers voor elke denkbare wens een soc bouwen, gebeurt dit al veel langer alleen met minder zichtbaarheid.

De reden dat dit model nu begint aan te slaan in de servermarkt zal denk ik de drive naar een hogere efficiency en lager kosten zijn. Ook zijn er nu cloudboeren met zo'n schaalgrootte dat ze zich kunnen wagen aan een transitie van x86 naar Arm en het laten bouwen van custom silicon.

Een Arm cpu is overigens gewoon een general purpose cpu. Server soc's zoals Amazon Graviton 2 en Ampere Altra worden ook zo in de markt gezet. Er zitten wat machine learning hulpjes in de Altra maar verder is het ding vooral voor general purpose computing gebouwd. De opkomst van Arm gaat inderdaad wel gepaard met de ontwikkeling naar heterogeneous computing waarbij de cpu wordt bijgestaan door co-processors voor graphics, machine learning, video codecs e.d. (en dan bij Arm soc's ook mooi geïntegreerd in één chip). Die co-processors zijn niet gestandaardiseerd en daar vindt nu wel wildgroei plaats.
Dat is inderdaad de kracht van ARM, dat op hun AMBA bus heel veel functies verkrijgbaar zijn die makkelijk op een SOC te integreren zijn.
Simpel. Intel/AMD maakt niet de ontwikkeling door die b.v. Apple voor ogen heeft; meer snelheid tegen een lagere energieconsumptie.
Met een eigen chip kunnen ze hun lot zelf bepalen en zijn ze voor de ontwikkeling van nieuwe producten niet afhankelijk van derden voor technologische doorbraken.
Daarnaast kunnen ze er een concurrentievoordeel opbouwen i.p.v. chips te gebruiken die elke fabrikant kan gebruiken.

In het kort; autonomie.

[Reactie gewijzigd door nms2003 op 31 december 2020 18:59]

Maar waarom zijn al die bedrijven bezig met hun eigen chips?
Dat hebben ze decennia lang niet gedaan en nu lijken alle grote techbedrijven er op eens mee bezig.
Dat ARM efficiënter is dan x86 (qua perf/watt) is al lang bekend, maar mbt qua performance had ARM achterstand op Intel en AMD.
Verder is het gewoon goedkoper; als je een eigen CPU hebt dan betaal je niet een winstmarge aan de producent vd CPU.

Maar CPU's en bijbehorende chipsets zijn erg complex dus het vergt veel tijd een ontwerp volwassen te maken zodat het kan concurreren met x86. Daar is een groot deel van de afgelopen decennia aan besteed.
Gedurende een deel van die tijd heeft Apple al eigen ARM CPU's in smartphones toegepast en dat heeft ze geholpen bij het ontwerp van nog krachtiger ARM CPU's. Vanwege hun gesloten ecosysteem heeft die het daarmee iets makkelijker dan andere computer producenten.

Andere bedrijven die er nu in springen zullen profiteren van de ontwikkelingen vd afgelopen decennia dus voor hen zal het wel wat vlotter gaan, maar verder staan die nu mbt ontwikkelen van eigen ARM CPU's eigenlijk waar Apple 10 jaar geleden stond.
Maar waarom zijn al die bedrijven bezig met hun eigen chips?
Dat hebben ze decennia lang niet gedaan en nu lijken alle grote techbedrijven er op eens mee bezig.
Geld is niets waard dankzij roodgloeiende geldpersen, geen overnamekandidaten.. Dat geld moet ergens meer geld gaan maken. De aandeelhouders zitten ook niet tevwachten op dividend. Gebruik de Talenten om meer talenten te maken enzo.

Vertikaal integreren dan, horizontaal is er geen ruimte zonder synergieloze uitbreidingen te doen.
GE had het synergiearm horizontaal uitbreiden lang goed (dat was ook wel heel erg breed, kom je overal zusterbedrijven tegen die je preferent aan moet nemen), tot het niet goed meer ging.

Voor de toekomst is dit een natte droom voor reorganisatiedeskundigen, buiten de bedrijfsspecialiteit groeien. Er komen ooit magere jaren aan.

[Reactie gewijzigd door Toontje_78 op 31 december 2020 21:34]

De grote Intel klanten/OEM’s Dell, HP, Lenovo, Apple zijn nu enorm afhankelijk van Intel. Ze lopen miljarden $ aan omzet mis omdat Intel (en nu ook AMD) niet aan de vraag kunnen voldoen (zoals vermeld in hun jaarverslagen).
Daarnaast moeten zij al jaren producten uitstellen omdat de beloofde CPU niet geleverd kan worden (14nm, 10nm, 7nm). Vooral Apple heeft hierdoor bepaalde systemen veel langer moeten gebruiken dan gewenst. Producten ontworpen voor een 10nm Intel CPU kunnen ze niet zomaar een 14nm in gebruiken ivm power bud get/koeling). Omdat Apple zelf al ontwikkeld voor zijn iPhones/iPads/Apple TV’s, hebben zij de know-how om zelf hun CPU’s/GPU’s te ontwikkelen. Op termijn zijn ze dan minder afhankelijk van de timelines/vertragingen van Intel, en kunnen ze hun eigen koers varen. Denk dat de overige OEM’s dat ook graag zouden willen, maar die ontbreekt het nu aan de know-how en financiële middelen om dit zelf in eigen beheer te ontwikkelen.
Al met al is dit weer goed voor onze nederlandse toeleveringsbedrijven voor de chipindustrie zoals ASML, ASMI en BESI. Veel van deze producten zullen op hun machines worden gemaakt.
Ik zie niet direct hoe dit invloed heeft op deze bedrijven. De wereldwijde vraag naar chips zal niet direct veranderen doordat bijvoorbeeld Apple en Microsoft producten nu op ARM draaien ipv x86. Of doordat er steeds meer ARM fabrikanten zijn.

Grotere vraag komt alleen door nieuwe toepassingsgebieden, zoals zelfrijdende autos, de smart-home, etc...
De wereldwijde vraag naar chips zal niet direct veranderen doordat bijvoorbeeld Apple en Microsoft producten nu op ARM draaien ipv x86.
Dat is ook niet wat @NDSFREAK beweert; Het gaat niet om de vraag naar chips, maar de vraag naar machines.

Stel, Intel koopt een heleboel machines voor 10nm / 7nm x86; maar het wordt 1 groot fiasco.

Vervolgens, omdat Apple de jaarlijkse "oh sorry we hebben gefaald"-excuustruuserij van Intel zat is, lopen ze over naar TSMC; en bedrijven als Amazon zetten meer haast in naar ARM overschakelen.

Dan staan die machines bij Intel vroeg of laat stof te happen, terwijl TSMC in hoog tempo extra machines nodig heeft.

Voor Samsung geldt eigenlijk een beetje hetzelfde: Het 7nm-EUV proces van Samsung doet niet echt wat het belooft, klanten zoals NVidia proberen wanhopig terug door de draaideur de winkel binnen te wandelen bij TSMC. Maar daar staat een lange rij voor de kassa.

Is dit een zero-sum game?

*Als Intel / Samsung de stofhappende apparatuur verkopen aan TSMC, dan niet. Maar zo werkt het niet altijd.

Bekend is, dat GlobalFoundries 1 EUV machine had, maar ze besloten geen EUV te gaan doen. Die EUV machine is terugverkocht aan ASML, en die heeft hem aan een andere klant verkocht. Verkoopt ASML daardoor dan vervoglens 1 'nieuwe' machine minder? Nee, want er is een wachtrij.

Stel, dat Intel "stofhappende" EUV machines heeft staan. Willen ze die dan aan TSMC verkopen? Nee, want dan helpen ze AMD; die gelimiteerd is door het aantal chips dat TSMC kan leveren.

Bij Samsung is het vziw zo, dat de EUV machines wel draaien, maar misschien wel 50% van de chips zijn defect en gaan in de prullenbak.

Dus het resultaat: Iedereen wendt zich tot TSMC, en het enige wat TSMC kan doen is een paar miljard naar Veldhoven / Almere sturen voor nieuwe machientjes. En tevens naar de no. 1 machine-levarancier Applied., en nog wat naar TEL, LAM, KLA Tencor et all.
Maar zonder echte concurrentie gaat TSMC natuurlijk ook niet het onderste uit de kan halen en ze kunnen veel beter onderhandelen met ASML.

Dat TSMC de enige is die hun machines echt goed aan de gang kan krijgen is zowel een blamage voor ASML als een beperking voor omzet en winst.
Wel grotere verscheidenheid, dus wel meer machinerie nodig.
Niet perse, EUV voor ARM is niet anders dan voor x86.
Het enige verschil is eventueel dat ze geen 20 machines aan 1 partij slijten maar dit verdelen onder meer partijen
Instappen met aandelen in ASML nu verstandig nog?
Ik ga even mijn glazen bol pakken, momentje...
Die is niet toereikend meer, voor EUV heb je vacuüm en spiegels nodig...
Gewoon een beetje VoC mentaliteit en je krijgt spiegeltjes en kraaltjes. :)
NVIDIA die ARM overneemt zou een slechte zaak zijn.
Waarom? Kan je die mening onderbouwen? Ik zie namelijk niet alleen een gevaar,maar ook nieuwe jansen voor ARM.
Waarom was de chipafdeling van Philips geen groot succes, toen het nog "bij Philips" hoorde?

Nou, Philips maakte zelf computer-chips. Dus stel, je bent Sony TV, en je laat je chips door "Philips fab" maken.
-"Philips fab" zal altijd voorrang geven aan Philips TV boven Sony TV,
-Wie weet speelt "Philips fab" wel ontwerp-geheimen van Sony TV door aan Philips TV.

Stelj, je hebt een fab voor chip-productie, bijvoorbeeld omdat je Toshiba bent. Je kan lithografie-apparatuur bij "Philips machinebouw" kopen. Maar ja, dat is een concurrent, want "Philips TV" maakt ook chips. En er was ook "Philips Fab": Als jij als "Toshiba-fab" je litho-machientjes bij "Philips machinebouw" wil kopen, moet je je specs geven, en een beetje met ze samenwerken. Maar wat weerhoudt "Philips Machinebouw" ervan, om de proces specificaties van "Toshiba fab" dan weer door te spelen naar "Philips fab"?

Nee, als Toshiba ben je niet achterlijk; waarom risico lopen bij Philips Lithografie als je je litho-machientjes gewoon "om de hoek" bij de foto-boeren Nikon / Canon kan bestellen?

Tevens, als "Philips fab" alleen aan "Philips TV" levert, wat gebeurt er dan met "Philips Fab" als het een keer slecht gaat met "Philips TV"? Bij het fab moeten tijdelijk mensen worden ontslagen, en later als het weer goed gaat met TV moeten er weer nieuwe mensen getraind worden, allemaal extra kosten!

Dus wat deed Philips?
-Het verzelfstandigde NXP; hierna werd NXP een redelijk groot succes.
-Het verzelfstandigde de litho-machinebouw bij ASML, hierna werd ASML een mega-succes, en een ander stuk machinebouw ging ging naar VDL ETG.
-Het was mede-oprichter / aandeelhouder van TSMC, en ging (vziw als 1e klant!!!) chips kopen bij TSMC in Taiwan; zodat het de kosten kon delen. En als het even slecht ging met Philips TV, had TSMC daar weinig last van, omdat er ook andere klanten waren. Dat was voor Philips TV dan later weer een voordeel.

Waarom zijn al die Philips spinoffs zo succesvol geworden? Welnu, omdat ze:
-Onafhankelijk zijn van Philips,
-Klanten gelijk worden behandeld,
-Klanten er de kosten kunnen delen.

Volgens mij snappen de meeste mensen in de lage landen deze Philips-geschiedenis, of in ieder geval deels. Velen zeggen "Oh, had Philips maar spinoff X gehouden, dan hadden ze miljarden inkomsten gehad!"

Maar die mensen vergeten, als Toshiba de keus had tussen Canon / Nikon / Philips machinebouw, dat Philips een nadeel had. En als de keus is tussen Canon / Nikon / ASML, dat er een "gelijk speelveld" is.

Wat zie je in de industrie? Welnu: De onafhankelijke bedrijven 'met maar 1 leest' hebben in alle sectoren gewonnen!

Nikon / Canon maakten behalve litho ook foto-apparaten. Als je Sony bent, kies je dus al snel voor ASML, dat alleen litho doet.

Als je Intel bent, en je gaat wat North / South bridges maken voor moederborden, kan je naar Samsung gaan. Maar die maken ook computer-chips. Dus je kiest voor het onafhankelijke TSMC, dat alleen een fab is, en zelf geen chipsjes maakt.

Andersom, ben je Altera en kan je kiezen tussen Intel en TSMC, dan toch maar liever TSMC. Wat Intel voorkwam door Altera simpelweg op te kopen.

En als je kan kiezen voor een processor-architectuur:
-Je kon PowerPC kiezen, maar IBM maakte die zelf ook, dus je kwam niet op de 1e plek en er waren weinig klanten,
-Misschien kon je OpenSPARC kiezen, maar die maakt(e) SUN / Oracle zelf ook. dus je kwam niet op de 1e plek en er waren weinig klanten,
-x86: Nee, wilde Intel niet; behalve 2 "onbeduidende" klanten (AMD/ VIA) voor de show; zullen ze decennia geleden bij Intel gedacht hebben.
-Itanium: Heeft HP geweten, Intel liet het doodbloeden en HP zat met de gebakken peren. En dus maar 2 klanten.

1) ARM: Een onafhankelijke leverancier met maar 1 leest; Ontwerpen licenseren.
Hier waren handenvol klanten, waardoor ARM exact wist waar de mark behoefte aan had. Dus als je iets nodig had, was de kans groot dat een andere klant ARM al een keer had betaald om het te ontwerpen, had je het goedkoop in licentie
2) Bij ARM was iedereen gelijk: Er werden geen klanten bevooroordeeld.
3) Voor ARM was het, hoe meer verkochte licenties, hoe beter. Ze zouden dus nooit licenties weigeren aan klanten.

Hoe gaat het onder NVidia?

1) Niet meer onafhankelijk; NVidia doet meer dan chips in licentie geven. Als Mediatek, je legt aan ARM uit, wat voor soort chip je wil gaan maken, met welke GPU, en ARM werkt met je samen, en past Mali aan aan je eisen. Straks: Mediatek vertelt wat voor GPU ze willen maken aan uhhhhh..... NVidia. Ziet u het al voor zich?
2) Puur hypotetisch: AMD wil een bepaalde feature voor een ARM-cpu ontwerp, maar Achronix iets anders. ARM gaat kiezen tussen AMD en Achronix. Zal wel goed komen.
Straks: NVidia gaat kiezen tussen AMD en Achronix. Hmm, wie zullen ze eens gaan kiezen???
3) De grootste concurrent van NVidia komt aankloppen voor het nieuwste ARM-ontwerp, dat dan dus niet langer een ARM ontwerp is maar een NVidia ontwerp.
Wat doe je als NVidia? Hmm, misschien ervoor kiezen om slechts 90% in licentie te geven?

Je hebt in de 2e wereld-oorlog Liechtenstein, Zweden en Zwitserland. Ze zijn neutraal, en wie ook de oorlog wint, ze lopen lekker te profiteren van alles en iedereen. En de rest accepteert hun neutraliteit, want het werkt in hun voordeel.

Liechtenstein is ASML, Zweden is TSMC en ARM is Zwitserland. Totdat Zwitserland wordt "ingenomen" door een wereldmacht, wat doen de mensen van de andere landen dan met het geld dat ze daar op de bankrekening hebben???

[Reactie gewijzigd door kidde op 31 december 2020 15:12]

Vooral nieuwe kansen voor Risk-5, de ISA zonder controle van slechts 1 partij of land.
Intel Amerikaans bedrijf verschillende achterdeurtjes in hun chips
AMD Amerikaans bedrijf ook achterdeurtjes ontdekt in hun CPU's
NVidia Amerkinaans bedrijf , maak de zin zelf maar af :-)
Keller keerde in 2012 terug bij Intel en tot 2016 werkte hij daar aan de Zen-architectuur, die de basis vormt voor de Ryzen-processors. Zo wist Keller voor de tweede keer ervoor te zorgen dat AMD weer kan concurreren met Intel.

Toch fijn van Intel dat ze Keller dan even uitleenden aan AMD om Zen te maken. Niet verwacht dat ze dat zouden doen.
En dan iedereen maar roepen dat Intel evil is :+
Ongeloofelijk dat 1 persoon zoveel invloed kan hebben op het ontwerp van een chip. Zo iemand is misschien nog wel belangrijker als een president of minister van sommige landen.
Tja, wat dacht je van Mark Zuckerberg van Facebook.
Ongeloofelijk dat 1 persoon zoveel invloed kan hebben op het ontwerp van een Zo iemand is misschien nog wel belangrijker als een president of minister van sommige landen.
Jim Keller is nooit president of minister geweest, en heeft ook nooit uitgesproken deze ambities te hebben. Gezien zijn talent en ervaring denk ik dat hij beter architecturen kan blijven ontwerpen dan als politiek leider aan de slag gaan.
Ik bedoel meer dat als deze man plots komt te overlijden of ermee stopt. Het waarschijnlijk een veel grotere impact heeft op voortgang dan als een president van een land er tussen uit knijpt. Dit soort mensen brengen enorm veel innovatie met betere chipontwerpen. Als dit soort mensen er niet waren konden wij dit gesprek waarschijnlijk niet eens voeren.
Ik hoop ook echt niet dat deze man ooit president wordt. Werk dat die nu doet is veel belangrijker.
Toch fijn van Intel dat ze Keller dan even uitleenden aan AMD om Zen te maken. Niet verwacht dat ze dat zouden doen.
Het is niet alsof Intel een keuze heeft; zo werkt het nou eenmaal: hij neemt ontslag, heeft geen anti-concurrentie-beding in zijn contract staan (in Californië, waar Silicon Valley ligt, mag dat niet als ik me goed herinner) en kan dan overal aan de slag.
Wat is nu ongeveer het verschil tussen de processoren van Intel, AMD, ARM?
In welk opzicht bedoel je?

Snelheid? Tussen ARM en de andere 2 niet vergelijkbaar in de echte wereld.

OS? Heel anders.
Grappig dat die processoren maar op die zelfde architecturen blijven werken cisc of risc een echte revolutie gaat nog komen als er een compleet nieuwe architectuur of een compleet andere manier van denken komt om te computen.
Decentraal... Het enige waar een enkele module als CPU nog goed voor is is 3d-graphics. Vandaar waarschijnlijk dat Nvidia ARM graag wil hebben, die zien liever dat een computer 1 is met de graphics-hardware want anders verliezen ze de hele markt behalve de gaming-sector.
Het verwerken, doorvoeren en opslaan van enkel data kan evengoed met een massa relatief waardeloze, parallel geschakelde kernen. Ik verwacht dat vooral China de grotendeels westerse fabrikanten hiermee om de oren gaat slaan. Die hebben alles in huis voor de vereiste resultaten. Waarschijnlijk op termijn ook de graphics.

[Reactie gewijzigd door blorf op 31 december 2020 18:40]

Apple zal zijn processors waarschijnlijk niet aan andere fabrikanten gaan verkopen en in dat opzicht vormen de chips van het bedrijf dus geen bedreiging voor bijvoorbeeld AMD en Intel.
Indirect natuurlijk wel als mensen hierdoor Macs kopen i.p.v. op Intel/AMD/Nvidia gebaseerde systemen, waardoor er minder vraag is naar hun producten.
Ik ken niet veel mensen die ineens een Mac zouden gaan kopen puur vanwege de SoC die er in zit. Het isn een heel ecosysteem dat anders is dan wat men gewoon is vanop Windows. Puur voor de SoC maak je dan niet snel een switch, dan zit er vaak meer achter.
Maar verkopers bij een zoiets als een MediaMarkt verkopen klanten graag de snelst mogelijke computer.
Klanten gaan dus wel meekrijgen dat de M1 mac's 'het snelste' is wat er momenteel te koop is.
Hoe zich dat daadwerkelijk naar verkopen vertaalt is afwachten.
Ik ken niet veel mensen die ineens een Mac zouden gaan kopen puur vanwege de SoC die er in zit. Het isn een heel ecosysteem dat anders is dan wat men gewoon is vanop Windows. Puur voor de SoC maak je dan niet snel een switch, dan zit er vaak meer achter.
De meeste mensen die een Mac kopen, kopen dat omdat het een Mac is. Wat voor processor erin zit boeit weinig.
Ik vind het maar knap dat ze zulke ingewikkelde chips kunnen maken. Ik ben al blij als ik met arduino een ledje kan laten knipperen :) En dat laad ik ook nog een demo schets in.
Hallo we zijn als Nederland wel een Kennisland ja !!!! /s
(Denk zelf dat Nederland last heeft van het Dunning Kruger effect, dat we denken dat we nog vooraan lopen met alles. lol)

[Reactie gewijzigd door Immutable op 1 januari 2021 16:22]

Dacht dat Alibaba ook een eigen chip heeft.

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee