Door Olaf van Miltenburg

Nieuwscoördinator

AMD wil Xilinx: de strijd met Nvidia en Intel om datacenters en supercomputers

27-10-2020 • 20:07

35

AMD wil Xilinx overnemen - de strijd om het datacenter en de supercomputer

En opnieuw is er een megaovername in de techindustrie. AMD wil Xilinx overnemen voor maar liefst 35 miljard dollar, omgerekend zo'n 30 miljard euro. Xilinx zal voor de gemiddelde consument niet als een bekende naam klinken en sommige tweakers zijn misschien ook niet helemaal bekend met het bedrijf. Waarom is AMD bereid zo'n groot bedrag voor een bedrijf neer te tellen? Welke ontwikkeling ligt ten grondslag aan de overname?

AMD staat niet bekend als een bedrijf dat regelmatig overnames doet, maar natuurlijk wel om die ene grote overname in 2006, toen het chipbedrijf videokaartenfabrikant ATi overnam voor 5,4 miljard dollar. Dat was destijds een groot bedrag voor een techovername. Die overname stelde AMD niet alleen in staat eigen videokaarten uit te brengen, maar was vooral van belang om apu's te kunnen produceren, processors met een geïntegreerde gpu. De ATi-overname leidde tot een flinke schuldenlast, die in de jaren daarna verergerde door grote verliezen en stevige concurrentie met Intel. Overigens bezorgde een antitrustschikking met datzelfde Intel, voor een bedrag van 1,25 miljard dollar, AMD flink wat lucht in 2009. Financieel waren er voor AMD hoe dan ook weinig mogelijkheden voor grote overnames.

Onder de huidige ceo, Lisa Su, die in 2014 aantrad, is de situatie inmiddels flink verbeterd. Onder haar is AMD zich meer gaan focussen op waar het bedrijf volgens haar goed in is: het ontwerpen van met name cpu's voor desktops en servers. Dat resulteerde in de introductie van respectievelijk de Ryzen- en de EPYC-generatie in 2017, waarmee AMD zich weer op de kaart zette. De langlopende schuld is flink afgebouwd en de aandelenkoers is sinds 2016 enorm gestegen. Dat opende weer mogelijkheden voor acquisities en AMD bekostigt de overname dan ook met aandelen.

Op Tweakers zijn we natuurlijk vooral bekend met de Ryzen-processors voor desktops en laptops, maar ondertussen heeft AMD goede zaken gedaan met EPYC. Waar Intel jarenlang de servermarkt in zijn greep had met de Xeon-processors, heeft AMD met EPYC inmiddels een geducht alternatief aanbod. Dankzij hun hoge geheugenbandbreedte, grote hoeveelheid cores en relatief lage prijs, zijn ze met name populair voor high performance computing, of hpc, zoals kunstmatige intelligentie en big data.

AMD EPYC-codenamen
Gen. Jaar Naam Cores max.
1st 2017 Naples 32 x Zen 1
2nd 2019 Rome 64 x Zen 2
3rd 2020 Milan 64 x Zen 3
4th 2022 Genoa ? x Zen 4

In de actuele Top500 van supercomputers staan elf supercomputers met AMD. Dat is niet veel, maar in 2018 waren nog slechts twee systemen op AMD gebaseerd. Het plannen en bouwen van supercomputers kost tijd en we hebben de afgelopen tijd veel aankondigingen voor supercomputers met AMD-hardware gezien. Zo waren daar de Hawk-supercomputer van de universiteit van Stuttgart, de Vlaamse Hortense, de exascalesupercomputer El Capitan van het Lawrence Livermore National Laboratory en recent de Europese LUMI, die in Finland komt te staan.

Van Zilog naar Xilinx

De plannen van AMD om Xilinx in te lijven hebben alles te maken met de verwachte verdere groei van de hpc-markt, zo valt op te maken uit de woorden van Lisa Su, tijdens de bekendmaking van de overnameplannen. Xilinx is een Amerikaans bedrijf dat in 1984 is opgericht door voormalig Zilog-medewerkers die van mening waren dat er goedkope chips zouden moeten komen die klanten hardwarematig konden programmeren, om ze zo te optimaliseren voor bepaalde taken. Deze field-programmable gate array, of fpga's, moesten zich onderscheiden van generieke chips. In de jaren negentig groeide de markt voor fpga's flink, met name voor telecommunicatie en netwerken.

Xilinx Virtex UltraScale+
Xilinx Virtex UltraScale+-fpga met high-bandwidth memory

Fpga's werden daarnaast steeds meer gebruikt voor industriële, embedded, automotive en broadcasttoepassingen. In de afgelopen jaren hebben fpga's aan populariteit gewonnen voor tal van computingtaken, zoals bij cloudaanbieders Amazon en Microsoft. Amazon biedt bijvoorbeeld Amazon EC2 F1-instances met Xilinx-fpga's aan om ontwikkelaars de mogelijkheid te bieden bepaalde rekentaken bij onderzoek, netwerken, beveiliging, videobewerken, big data en analyse in te zetten. Microsoft heeft inmiddels elke Azure-server van fpga's als accelerator voorzien. De chips kunnen niet alleen sneller een specifieke taak afhandelen, maar ook energiezuiniger. Daarnaast is de flexibiliteit een voordeel: dezelfde chips zijn zo in te stellen dat ze verschillende functies kunnen vervullen.

De opkomst van adaptive computing

Volgens Lisa Su groeit de markt voor high performance computing om het toenemende rekenwerk aan te kunnen flink en fpga's zouden hier een grotere rol in gaan spelen. Onderzoek van GrandView steunt haar verwachting: de geschatte totale markt voor fpga's was in 2019 ongeveer 9 miljard dollar en die waarde zou van 2020 tot 2027 jaarlijks met 9,7 procent toenemen. Su spreekt van 'adaptive computing', waarbij hardware tot op chipniveau aangepast is aan de rekentaken waar deze voor gebruikt wordt. Dit is een van de manieren waarop de markt voor computing voorbij de Wet van Moore probeert te kijken.

Su verwijst hiermee naar ACAP, of Adaptive Compute Acceleration Platform. Onder deze naam schaart Xilinx zijn Versal-aanbod. Dit zijn op 7nm door TSMC geproduceerde chips met onder andere ARM Cortex-cores, programmeerbare network-on-a-chips, dsp-engines, AI-engines, PCIe-interfaces en CCIX-interconnects. Samsung en Ericsson gaan ACAP bijvoorbeeld inzetten voor 5G-netwerken.

AMD Xilinx

De chips werken in combinatie met Xilinx' softwareplatform Vitis, dat het programmeren van de chips makkelijk moet maken. Door het combineren van de verschillende onderdelen op een compacte chip, heeft Xilinx inmiddels de nodige ervaring met packaging en dan met name met het verticaal stapelen van verschillende onderdelen of chiplets, kennis waar AMD voordeel uit kan halen. In de toekomst zou AMD komende EPYC-processors kunnen uitbreiden met programmeerbare onderdelen die gebruikers kunnen optimaliseren voor hun rekenwerk.

Xilinx Versa VitisXilinx Versa Vitis

Momenteel zijn datacenters overigens nog voor een bescheiden deel verantwoordelijk voor de omzet van Xilinx: 11 procent. Het bedrijf haalt bijna de helft van zijn omzet uit de luchtvaartindustrie, defensie en industriële systemen. Zo'n 29 procent van de omzet komt uit de netwerkmarkt en 16 procent komt van automotive en de broadcastsector. Door de samenvoeging met Xilinx zou volgens AMD een bedrijf ontstaan met een omzet van 11,6 miljard dollar. Xilinx meldde bij zijn recente jaarcijfers een omzet van 3,16 miljard dollar, AMD had vorig jaar een omzet van 6,7 miljard dollar maar verwacht dat zijn jaaromzet dit jaar met 41 procent zal toenemen. AMD had eind 2019 zo'n 11.000 medewerkers, Xilinx heeft er ongeveer 5000. Samen krijgen de bedrijven volgens AMD 13.000 engineers en de r&d-investeringen bedragen gezamenlijk 2,7 miljard dollar.

De grote concurrent van Xilinx is Altera, dat eveneens fpga's produceert en daarmee volgens AMD 32 procent van de markt bedient, terwijl het marktaandeel van Xilinx 54 procent zou bedragen. Altera is in 2015 overgenomen door Intel voor een bedrag van 16,7 miljard dollar, nog altijd Intels grootste overname. Of die overname tot nu toe zo succesvol was, is onderwerp van discussie. De kwartaalomzet van Intels Programmable Solutions Group, waar Altera onder valt, daalde met 19 procent ten opzichte van vorig jaar tot 411 miljoen dollar. Intel krijgt er in ieder geval ook op dit vlak concurrentie bij van AMD.

Nvidia en Intel

En dan is er Nvidia, dat vorig jaar Mellanox overnam voor 6,9 miljard dollar. Mellanox maakt adapters, switches en chips voor InfiniBand- en ethernet-netwerkapparatuur, die voor supercomputers en datacenters gebruikt worden. Xilinx, dat naar verluidt ook in de race was voor een overname van Mellanox, kocht daarop Solarflare, dat ook netwerkinterconnects met hoge bandbreedte en lage latency ontwikkelt. Daarmee krijgt AMD dus ook deze techniek in handen.

De plannen voor een overname die dit jaar insloegen als een bom waren die van Nvidia, dat Arm wil inlijven voor 40 miljard dollar. Arm kennen we als de ontwerper van zuinige chips voor smartphones, maar de socs worden steeds meer gebruikt voor krachtigere apparaten en ook voor supercomputers. Sterker nog, de krachtigste supercomputer van dit moment is de Fugaku-supercomputer van Fujitsu met 7,3 miljoen ARM-cores. Nvidia wil Arm dan ook met name overnemen vanwege de groeikansen op de markt voor kunstmatige intelligentie en andere hpc-toepassingen.

Als de overnameplannen van AMD en Nvidia goedkeuring krijgen van de mededingingsautoriteiten, zijn de kaarten wat betreft chips voor datacenters en supercomputers opnieuw geschud. Vooral Intel kan zich opmaken voor flinke concurrentie. Naarmate we allemaal meer toepassingen gebruiken waar complex rekenwerk aan te pas komt, zal de strijd om de chipmarkt meer en meer uitgevochten worden in de al maar groeiende rekencentra en computingclusters. AMD wil zijn positie flink versterken en zijn portfolio flink verbreden. Voor het zover is, zijn we wel een jaar verder: de overname zou op zijn vroegst eind 2021 kunnen worden afgerond.

Meer informatie over fpga's lees je in dit achtergrondartikel: Programmeren op transistorniveau - Fpga's in opmars, ook voor de hobbyist

AMD Xilinx

Reacties (35)

35
32
15
3
0
11
Wijzig sortering
En dan te bedenken dat de rekenkracht uit de super computers van vroeger totaal overschaduwd wordt door wat er in onze telefoons zit. M.a.w.: gaan we dat soort rekenkracht ook in onze zak terugzien?

Ik heb zelf nog met een 286 gedraaid, dan is het echt van heel ver gekomen. En we zijn lang nog niet aan het eind van de ontwikkelingen. Eerder aan het begin.

Goed gedaan, Lisa Su!
Vroeger was een 'supercomputer' vaak een enkel bakbeest met een beperkte set aan toepassingen.. Een supercomputer is tegenwoordig een gigantisch complex netwerk van duizenden processoren, gigantische hoeveelheden geheugen en maatwerk-technologie om het allemaal aan elkaar te knopen. Als je maar genoeg ruimte hebt en de energie kan leveren kan een moderne supercomputer 'blijven groeien'. Een telefoon blijft beperkt qua beschikbare ruimte en accu; maar er wordt nog genoeg geïnnoveerd om meer te kunnen met dezelfde middelen :)

[Reactie gewijzigd door Carn82 op 24 juli 2024 14:28]

Je vergeet dat men zich ook niet voor kon stellen hoe dat ingewikkelde apparaat vol buizen kamers groot in een broekzak kon passen. Mainframes waren ook zo groot als een kamer in een cleanroom. Enzovoorts.

We hebben het niet over morgen of volgend jaar. 😉 Misschien is er dan helemaal geen silicium meer in gebruik : we gebruiken ook geen buizen meer.
Oh zeker, zo ben ik zelf erg benieuwd of iets als serieuzere, commerciele processoren van grafeen het komende decennium het levenslicht gaan zien.
De bombshell-overname van 2020 was uiteraard de overname van Arm door Nvidia.
Er is helemaal nog geen overname van ARM door Nvidia, dit moet eerst allemaal nog goedgekeurd worden en ik moet nog maar zien of dat nog wel gaat gebeuren.
Het is wat slecht vertaald, maar een spreekwoordelijke bombshell gaat over een aankondiging die inslaat als een bom, technisch gezien dus niet de actie zelf. De aankondiging was er wel, maar het is idd een grote if of dat gaat gebeuren. China lijkt al moeilijk te doen en ik denk dat de Britten er ook niet happig op zijn.
4 jaar geleden was Intel nog een zekerheid als het op chips aankwam. En AMD/Nvidia? Naah, dat waren outsiders. Nu ontwikkelt er een hevige strijd tussen AMD en Nvidia om de servermarkt. De consumentenmarkt is al veroverd.

En Intel? Die valt buiten de boot. Ondanks hun enorme voorsprong, hebben ze het goed verprutst. Intel, een oude naam van vervlogen tijdperk.

En dat allemaal binnen 4 jaar. Niets is zeker, blijkt maar weer hieruit. Veel dingen kunnen verrassend snel veranderen...
Net als BlackBerry, Nokia en vele anderen. Nu heeft Intel wel meer ijzers in het vuur dan alleen CPU's, maar toch.

En eerlijk, ik gun het Intel van harte. Ik ben altijd Intel fan geweest. 10 jaar geleden heb ik een i7 860 gekocht met de verwachting dat die 3 tot maximaal 5 jaar mee zou gaan. Toen ik na 7 jaar (!) naar wat anders ging kijken was voor een vergelijkbare prijs en specs niets te vinden : +/- 230€, 4c8t, i7, minimaal 2.8 Ghz. De eerste 4c8t was dubbel zo duur. En nog niet eens dubbel zo snel. En dan hebben we heb niet eens over meer cores of meer Ghz. Lui de prijzen opdrijven zonder innovatie, dat hebben ze gedaan. Gelukkig plukken ze daar nu de vruchten volop van.

Daar sta je dan met je (in mijn ogen technisch nog steeds terechte) anti-AMD-houding. Inmiddels weet ik dat AMD Intel in ieder geval altijd tot innovatie dreef en dat ik alleen daarom al de volgende keer AMD spul zal halen.

Intel heeft het wel verbruid hierdoor bij mij. Al hoop ik dat ze niet te ver achter gaan lopen is zelfs onder gaan, want concurrentie is echt broodnodig in de tech.
De komende jaren gaan erg interessant worden voor hardware ontwikkeling. Moore's law mag dan dood zijn, maar we gaan echt hard groeien qua performance. Ben zeer blij dat er meer concurrentie op de markt is gekomen.
De wet van de remmende voorsprong door Intel is wel klaar.
Shit. Dit artikel brengt het wel zo dat ik verwacht dat NVidia meer toekomst gericht bezig is/de meeste kans maakt om overall de beste te zijn.
Ik weet niet waar jij die data vandaan hebt, maar die lijkt erg incorrect.

Volgens Nvidia zelf hebben ze 1.75 miljard omzet gedraaid in datacentra in het 2e kwartaal van dit financiele jaar, tegenover 1.65 miljard omzet voor gaming. Dus zeker niet dat 90% van de omzet uit gaming komt.
bron: https://nvidianews.nvidia...econd-quarter-fiscal-2021
Volgens mij ben je niet op de hoogte van het gebruik van GPU's voor rekentaken. Zo heb ik ook Nvidia GPU's in mijn machines, maar vormen grafische applicaties en gaming slechts een minuscuul deel van het soort taken dat ik daarop uitvoer. Licht grafische taken kan ik ook wel uitvoeren op een ARM SoC met een beetje moderne Mali GPU.

Nvidia GPU's worden veel ingezet voor het zwaardere werk zoals AI/ML en visualisatie. Dat is ook de reden waarom Nvidia ARM wil overnemen. Ik verwacht dat gaming steeds minder belangrijk wordt voor Nvidia, omdat je met een moderne Intel or AMD APU ook al redelijk kunt gamen op een lagere resolutie en kwaliteit.
Tja, dat zegt Enchantress, maar of dat ook zo is, is maar de vraag. Hoewel... Echt serieus is het niet te nemen zonder ook maar een enkele verwijzing naar een bron.
Nvidia word al aangeklaagd over het meetellen van kaarten die zijn gekocht voor miniming in de gaming tak, als Nvidia de cijfers zo omgezet dat 90% uit gaming komt (Dus voor 50%) liegen dan hebben ze een gigantische lawsuit hangen binnen een week
Precies. Het zijn namelijk in principe dezelfde chips. Ongeveer 1/3 van hun inkomsten komt door het verkoop van GPU's aan consumenten zoals de 3080.

Ze halen tegenwoordig meer inkomsten uit het feit dat ze de enige zijn die een fatsoenlijke chip voor deep learning leveren.
Hmm apart. Terwijl zij juist de gene zijn met precission cores voor deep learning en AMD niet.

Volgens mij was juist AMD de partij die zich focuste op gamen.

Zelfs de nieuwe Ryzen's missen de instructie sets voor machine learning en hun videokaarten kan je niet gebruiken voor deep learning.
Hmm apart. Terwijl zij juist de gene zijn met precission cores voor deep learning en AMD niet.
Niet perse waar. AMD is al jaren bezig met Machine learning.

https://www.amd.com/en/graphics/servers-solutions-rocm-ml
Zelfs de nieuwe Ryzen's missen de instructie sets voor machine learning
Er is geen "instructie set" voor machine learning. AMD ondersteund gewoon Machine learning op al zijn producten. En worden ook gewoon ondersteund voor de grotere ML en DL frameworks zoals TensorFlow PyTorch, Keras enz enz.

https://www.amd.com/en/technologies/deep-machine-learning
en hun videokaarten kan je niet gebruiken voor deep learning.
Ook niet waar.

https://www.amd.com/en/pr...al-graphics/instinct-mi50
https://www.amd.com/en/technologies/deep-machine-learning

De Instinct kaarten zijn zelfde als de AMD Vega kaarten en kunnen WEL voor Deep learning en Machine learning worden gebruikt.

Ik train mijn Neural Networks ook op AMD hardware. Ik heb verschillende Machine learning en Neural Networks geschreven met CoreML en Keras en die werken gewoon op AMD videokaarten.

[Reactie gewijzigd door Snowfall op 24 juli 2024 14:28]

Dankjewel voor de onderbouwing.

De instinct kaarten zijn er met een specifieke toepassing. Het gaat hier niet om de standaard consumenten kaarten die ook verkocht worden om op te gamen. De GeForce kaarten bieden dit wel.

Tensorflow GPU library functioneert misschien op de Instinct accelerator maar niet op de standaard Radeon kaarten. Dit bied Nvidia wel met hun GeForce lineup.

Je hebt gelijk over de GPU support in Tensorflow. Ik zie nu dat AMD inderdaad zelf support voor ROCm heeft toegevoegd. Ondertussen loop ik dus alweer een jaar achter.

Echter, te zien aan de benchmarks is het in verhouding nog niet efficiënt om ROCm te gebruiken. Misschien dat daar morgen verandering in komt, echter lijkt het er niet op want hiervoor zullen ze wel Tensor cores moeten hebben.

Hier een ondersteunend artikel:
https://timdettmers.com/2..._up_with_NVIDIA_GPUs_CUDA

Er is wel een instructie set die specifiek wordt gebruikt voor Machine Learning.
Namelijk 4VNNIW, 4FMAPS van AVX512.

Ik heb zelf voornamelijk met Scikit en Tensorflow gewerkt, er was toen de projecten starten nog geen serieuze ROCm implementatie.

[Reactie gewijzigd door THETCR op 24 juli 2024 14:28]

Tensor Cores is een Nvidia ding, net als Cuda cores. Ofwel AMD zal dit never nooit gaan hebben.

En AVX512 is belachelijk

[Reactie gewijzigd door Twanekel op 24 juli 2024 14:28]

Het gaat erom dat Radeon cores krijgt voor matrix multiplication.

Zo als je misschien weet zijn standaard cu's in GPU's nogal slordig en niet geschikt om accuraat getallen te berekenen. Double precission floats kunnen bijvoorbeeld wel door een CPU berekent worden maar niet door GPU's. Vandaar Tensor cores.

Je kan misschien zoals @Snowfall aankaarten wel deep learning doen op een Radeon via ROCm, maar dus niet voor alle toepassingen.

AVX512 is misschien belachelijk in standaard toepassingen zoals compilen via GCC en dergelijke. Maar die twee sets voor Machine/Deep learning is ontzettend bruikbaar, het neemt namelijk berekeningen uit handen van de GPU die het niet efficiënt kan doen.
Waarom is AVX512 belachelijk?
Ik heb me erg vermaakt met slide 5: R&D Scale to accelerate innovation. :)

Er wordt uiteindelijk geen cent meer aan R&D uitgegeven, maar ze weten het als een 'boost' te verkopen.
Chapeau!

(Overigens om allerlei redenen blij dat het ze zo goed gaat. AMD supporter sinds de 286 dagen)

[Reactie gewijzigd door TheekAzzaBreek op 24 juli 2024 14:28]

En voor wie denkt , wat kan je nog meer met een FPGA ...

De cryptominers worden er blij van : http://www.squirrelsresearch.com/

althans dat was de bedoeling :X

[Reactie gewijzigd door hatex op 24 juli 2024 14:28]

Ik ben niet up to date op het gebied van crypto mining, maar in principe zal een voor een applicatie specifiek ontworpen ASIC altijd beter zijn dan een FPGA (mits goed ontworpen en hetzelfde procédé).
Ik lees online vooral verkopers van mining FPGAs die roepen dat hun product beter is dan een ASIC... wij van wc eend...
Het enige voordeel van een FPGA is dat je de hardware kan herprogrammeren om iets anders te doen. Bijv. voor een andere currency/hash.
Het enige voordeel

Denk dat je daar ook het belangrijkste voordeel aanhaalt gezien de enorme schroothoop aan afgedankte niet herbruikbare miners.....

Beter dan ASIC is het op dat moment nooit, beter op de lange run... geen idee, maar kan me er wel iets bij voorstellen...

[Reactie gewijzigd door hatex op 24 juli 2024 14:28]

Ik vraag mij af wat er nu gaat gebeuren? Intel heeft dan wel Alters. Maar Lisa Su heeft deze fgpa's vroeger volgens mij zelf ook ontworpen. Net zoals ze mee heeft geholpen aan de ontwikkeling van de PowerPC proc. Bij IBM.

Jammer dat ze niet met hybride arm/x86 soc's door zijn gegaan.

Wat zal er nu gaan komen?
Hmm, ik heb net de overstap gemaakt van FPGA programmeur (10+ jaar) naar .NET programmeur... misschien niet de beste keuze gezien de toekomst? :P
Begrijp niet waarom je een -1 hebt. Het is vreselijk storend. Dit soort basisschool spelling taalfouten staan een inhoudelijke discussie in de weg.
Een spelfout terwijl iedereen weet wat je bedoeld staat nooit inhoudelijke discussie in de weg, dat is gewoon onzin.

En hij heeft -1 omdat er andere manieren zijn om dit soort foutjes te melden zonder de comments daarmee te vervuilen.
Je bedoelt bedoelt. Maar ik weet wat je bedoelt. ;)
Het staat wel inhoudelijke discussie in de weg, want we hebben het er nu over. En je moet maar net weten wat de manier is om spellingsfouten te melden die tweakers juist acht (volgens mij was er ergens op het forum een topic voor). Als er een knop bij het artikel stond was het een ander verhaal.
want we hebben het er nu over.
Enkel en alleen omdat iemand er een groot probleem van maakt. En met de -1 score van de eerste reactie, staat deze helemaal onderaan voor de meeste mensen en dus weinig zichbaar.
Dus hoe dat precies de rest van de discussies in de weg staat zie ik niet.

Op dit item kan niet meer gereageerd worden.