AMD wil in 2023 zijn eerste processor met Xilinx-technologie uitbrengen

AMD verwacht in 2023 de eerste processor uit te brengen die is voorzien van AI-technologie van Xilinx. AMD-ceo Lisa Su maakte dat maandag bekend in een gesprek met Forbes. De miljardenovername van Xilinx door AMD is maandag officieel afgerond.

Su zegt tegen analist Patrick Moorhead van Forbes dat de eerste AMD-processor waar Xilinx-techniek in is geïntegreerd, in 2023 aangekondigd kan worden, doordat Xilinx en AMD al langere tijd samenwerken, ook al voordat de overname was goedgekeurd. AMD kondigde eind 2020 aan Xilinx te willen overnemen voor 35 miljard dollar. De overname wordt met aandelen bekostigd en omdat die in waarde zijn gestegen, is er uiteindelijk 49 miljard dollar met de overname gemoeid.

Met de overname wil AMD groeien op de datacentermarkt. Xilinx is de grootste leverancier van fpga's ter wereld. Het bedrijf bracht als eerste een field-programmable gate array op de markt. Die programmeerbare chips worden onder meer gebruikt in datacenters, bij communicatienetwerken en bij industriële en wetenschappelijke toepassingen. AMD kan met de overname de strijd aangaan met Nvidia en Intel op het gebied van datacenters en supercomputers, schreef Tweakers in een achtergrondartikel.

Voormalig Xilinx-ceo Victor Peng wordt de baas van het nieuwgevormde Adaptive and Embedded Computing Group, die zich gaat focussen op het ontwikkelen van fpga's, adaptieve socs en software en die technologie ook naar AMD-cpu's en -gpu's moet brengen, schrijft AMD in een persbericht. Voor klanten verandert er voorlopig niks. Zij kunnen nog steeds Xilinx-producten kopen.

Door Stephan Vegelien

Redacteur

14-02-2022 • 16:43

21

Reacties (21)

Sorteer op:

Weergave:

Yes! Gaan we weer terug naar het idee van de WISC CPU ipv. RISC of CISC.
Zou met de kennis van de CEO van AMD inderdaad best zo kunnen zijn. :Y) ;)
Nou denk het niet men kan in AMD product een Zen cores generatie verwachten.
Dus gen id detect in waar software voor ontwikkeld is.
Fpga is je setup een custom hardware waar je dus custom voor die custom hardware de software gezamelijk ontwikkeld.
Er is wel mogelijk dat AMD fpga IP er libaries voor komen , maar dit in dev omgeving gelinked moet worden aangezien je verschillende IP kan koppelen en dit grote invloed heeft op hoe software dat moet gebruiken en interface code en custom blokken naast voor of achter ip blokken de dev dus zelf ook de code moet programmeren.
Datacenter klant zou dus naast software dev team ook fpga dev team met software voor fpga dev team moeten hebben.
Gaan wij als consument hier nog voordeel uit halen? Of heeft dit geen toepassing in de PC wereld?
Voormalig Xilinx-ceo Victor Peng wordt de baas van het nieuwgevormde Adaptive and Embedded Computing Group, die zich gaat focussen het ontwikkelen van fpga's, adaptieve socs en software en die technologie ook naar AMD-cpu's en -gpu's moet brengen
In eerste instantie gaat het vooral om de datacentermarkt maar het zou niet gek zijn als er wat kennisdeling is waardoor de technologie ook consumentenproducten zullen verbeteren.
Elke hardware-verbetering is er één.

Ik dacht dat USB-accelerators (dus, USB formaat chips die je in je in een USB3.1 poort in je computer kunt stoppen voor bijvoorbeeld verwerking van camerabeelden) een grote vlucht zal nemen. On-chip verwerking is waarschijnlijk nog beter. Genoeg toepassingen dus.

Voor spraakverwerking zal het waarschijnlijk ook wel een hoop doen, omdat je dan specifiek voor jouw stem een netwerk kan optimaliseren die dan ook nog in hardware wordt geëvalueerd waardoor de latency dus veel lager wordt. Dus, in plaats van "OK, Google", kun je dan gewoon tegen dat ding gaan praten en wordt het binnen enkele milliseconden verwerkt, i.p.v. binnen honderden milliseconden.

Het maakt het ook mogelijk om buiten de cloud om dit soort dingen te gaan doen.

Kortom, ik denk dat het veel toepassingen heeft, maar de toepassing zelf is vaak nog specialistisch. Uiteindelijk is het ook best complex om gegeven een bepaalde vraag om optimaal van rekeneenheden gebruik te maken. Een compiler werkt wel aardig voor software, maar de CPUs van Intel worden ook niet volledig automatisch ontworpen, hoewel dit theoretisch gezien wel zou moeten kunnen.
Dat ligt aan de implementatie, maar het zou leuk zijn als elke CPU een FPGA chiplets krijgt en elk programma zo zelf daar een configuratie in kan laden.

Zo zouden video bewerk programma's daar functionaliteit in kunnen laden die het bewerken versnelt. Maar misschien kan ook je virusscanner er wel wat mee en zo minder je CPU belasten.

Het gaat wel een 'technologie pull' worden de techniek komt als eerst en dan is het maar de vraag of het gebruikt gaat worden. Zo was AMD TrueAudio Next ook een goed idee, maar volgens mij is de adoptie niet echt geslaagd.
De grens verleggen qua throughput is echt wel een driver uit de datacenter markt. Sinds FPGAs daar hebben laten zien wat ze toevoegen voor grote partijen (Microsoft, Facebook, Amazon, ...) zijn FPGA fabrikanten hun focus daarop gaan leggen en vervolgens hebben Intel, en AMD de grote FPGA fabrikanten overgenomen.

AMD volgt Intel hier.
Als ik het goed begrijp dan kunnen ze met de field-programmable gate array tijdens het draaien van software bepaalde gates anders maken.

Stel je doet een calculatie voor een spel waarbij veel gates weinig doen, dan zouden ze een paar gates kunnen veranderen naar een gate die heel veel wordt gebruikt om zo de performance te verhogen (althans dit is hoe ik het heb begrepen).

Maar dit zou dus ook in GPU's verwerkt kunnen worden. Ik vraag me alleen af of dit een patent is die bijv Nvidia dan niet mag gebruiken en voor hoelang zoiets dan duurt.
Xilinx is een in AI gespecialiseerd bedrijf geweest, dus ik neem aan dat de processoren met Xilinx-technologie aan boord bedoeld is voor hardwarematige versnelling voor zaken omtrent AI. Of we dat gaan merken in de PC-wereld, niet veel denk ik.

[Reactie gewijzigd door CH4OS op 22 juli 2024 21:51]

Xilinx is programmeerbare logica. Zou je kunnen gebruiken voor AI, maar het is universeel inzetbare logica. Die wordt gebruikt als een custom chip nodig zou zijn (maar niet haalbaar wegens de aantallen).
Maar bijvoorbeeld ook om een nieuwe wifi-standaard uit te kunnen proberen voordat er chips voor zijn gemaakt. Dan wordt het werk gedaan door een aantal FPGAs.
Xilinx is bedrijf die grondlegger van opkomst in FPGA , toen was AI nog niet zo hot. Aangezien dat paar decades terug is.
Gezien apple silicon al AI logic hardcoded heeft sind paar generaties ivm face id etc.
Is dat iets dat net als fpu video encoder ditect bij de core gezet kan worden gericht op specifieke AI taken zo als login id face of vinger. Dus we hebben al AI huidige gpu hebben dat ook al. En integraal on die met Soc en gpu
Nee , dit lijkt mij meer iets voor FPGA chiplet op Epyc variant.
Cheapest is cpu core meest generalpurouse kan alles maar blinkt in niks uit.
Gpgpu kan concurrent & parallel taken flink versnellen maar struikelt over sequential task.
Asic is maximale geoptimaliseerd op hardware niveau voor voor specifieke task presteert best alleen duurst en rendabel bij hoge volume producties.
Fpga brengt flexibiliteit van aanpassen tov asic en interessant in asic prototyping lage volume producties of flexibiliteit aan performance en prijs kost valt tussen gpu en asic in.
Gezien consumenten servers cpu genoeg hoge volume is zou ASIC beter op zijn plaats zijn. Tenzij je de flexibiliteit van FPGA nodig hebt.
Mij lijkt het dat als je bij HPC je compute algoritmes regelmatig verbeterd dat FPGA dan betere keuze is dan ASIC.
Naast dat ASIC heel klant specifiek is en FPGA niet de klant bepaald hoe de logic geset wordt.

Voor consumenten. Houd FPGA in dat je via AMD diverse IP blocken kan installeren op FPGA chiplet zoals Emulatie van oude cpu architecturen Risc-V moderne codec of 8K H265 ip .
Hou er ook rekening mee dat op oude procede kleine fpga van xilinx in de orde van paar $ tot 10,- de instap is en op moderne procede ver over de $1000,-

Naast dat er softcores en ARM en maligpu on DIE zijn. Zouden er chiplet kunnen komen zonder die maar met Zen core RDNA3 gpu en pcie-5.0 en infinity fabric.

Of kleine FPGA ge-integreerd in de IO chiplet.

FPGA zijn relatief duur om in consumenten chip te pleuren mogelijk optie voor lowkost FPGA chiplet in Ryzen9 of Threadripper te pleuren.
Het is dit soort zaken inbouwen; of uitsterven.
X86 is nergens echt goed in, gespecialiseerde hardware kan ervoor zorgen dat het relevant blijft. Zeker als we naar AI kijken
X86 heeft zijn nut eigenlijk al gehad en dat is dat X86 de complete mensheid er van overtuigd heeft dat computertechnologie leuk kan zijn.

Ik kan me de pre-X86 tijd nog herinneren waarin jongeren die zich met computer technologie bezig hielden en dat heel erg leuk vonden uitzonderingen waren op school.

[Reactie gewijzigd door Uruk-Hai op 22 juli 2024 21:51]

X86 heeft zijn nut eigenlijk al gehad en dat is dat X86 de complete mensheid er van overtuigd heeft dat computertechnologie leuk kan zijn.
Volgens mij is dat juist daarvoor al gebeurd, met alle verschillende home computer platformen, varierend van Atari, Commodore, Schneider tot verschillende MSX modellen. Nadeel toen: die systemen waren zo verschillend dat je geen software kon uitwisselen (op hobyscoop basic na dan).
De eerste PC's liepen qua graphics (hercules en cga) en audio mogelijkheden zelfs achter op de Amiga en MSX2 computers die destijds ook in de markt stonden, pas met de komst van ega en vga en soundblaster werd dat beter.
Wat X86 vooral gedaan heeft, is de markt opengooien, doordat IBM de PC architectuur vrij had gegeven ging iedereen X86 PC's maken, en was software ineens uitwisselbaar tussen computers van verschillende merken. Dat heeft de markt een enorme boost gegeven.

[Reactie gewijzigd door trapper op 22 juli 2024 21:51]

Meh, die groei was er anders ook wel geweest, en het heeft een hele tijd geduurd voordat ik een PC leuker vond dan de MSX. Op de middelbare school vonden de meeste leerlingen de BBC leuker dan de PC. De eerste PC's waren draken.

De processors van de eerste home computers waren echter een dead-end; 64 kiB te adresseren en alleen memory mapping, geen paging. De Amiga was een goede stap voorwaarts, maar dat bleef ook steken, de PC evolueerde sneller dan single-vendor Commodore (die ook door mismanagement er al snel uit lag).

Maar goed, misschien hadden we beter af geweest met 68k gebaseerde CPU's, wat betreft CPU design / instructieset.
De Zynq lijn van Xilinx heb je van low kost tot prof high-end met arm cores en maligpu en nog optionele dingen dus cpu core is soms wel handig naast gpu of fpga
Ik heb 8 jaar professionele ervaring met FPGAs in maatwerkoplossingen. Maar ook met SoCs als bijvoorbeeld met de Xilinx Zynq en de ARM Cyclone V.
De ruimte op de chip die gebruikt wordt voor de FPGA logica gaat ten koste van andere logica (cores, peripherals, cache). Aangezien de FPGA herconfigureerbaar is, is deze ook niet erg ruimte efficient of snel. C.q. denk 500 MHz max. Daardoor is dit niet erg waardevol voor toepassingen waar al ASIC oplossingen voor zijn, als GPU, MPU, netwerk, etc. Een addonkaart/dongle is dan veel kosteneffectiever, en waarschijnlijk met performant.
FPGAs zijn beter geschikt voor high performant maatwerk oplossingen, met kleine oplage waarbij de logica nog wel eens kan veranderen. Denk aan financiele markt, productie, besturing controllers.
Er zal niet zo snel een consumentenapplicatie komen, simpelweg omdat voor die ordegrote een ASIC oplossing (c.q. in chip geïntegreerd) commercieel veel interessanter is.
Ik ben een leek op FPGA-gebied. Maar hoe snel zijn deze te programmeren?
Is het in theorie mogelijk dat elke core een FPGA unit krijgt die "on the fly" geprogrammeerd kan worden naargelang de huidige workload?

Bijvoorbeeld ipv. specifieke functionaliteit om AES of andere algoritmes te versnellen, zou de CPU dan de FPGA kunnen programmeren voor de (combinatie van) instructies die de core momenteel uitvoert?

Ik vermoed dat het programmeren van de FPGA zo traag is dat de normale core al veel sneller klaar zou zijn met de taak, maar wie weet...
Het is niet programeren FPGA maar syntesize FPGA. Wat je doet is beschrijving sturen naar fpga hoe logic buildings bloks en io blokken gekoppeld en geset worden .
Programeren is optioneel. Je kan cpu als softcore syntesizen en die kan programma runnen. Maar je kan ook low level basic logic koppelen syntesizen van input naar output pinnen zonder programma. Zulke syntesized fpga werken direct bij opstarten en zijn onderdeel in pcb design.

Simpel voorbeeld is met logic zelf uitvogelen hoe 4 stuks 7 digit led blokken aanstuurd.
Direct met 16bit met i2c mode of dit hex 4byt decimal input mode of via i2c voledige input gaat dus samen werking met cpu met enable i2c pin of direct stand alone met 16 schakelaars aan die 16 input pinnen manueel de input set en 4 stuks 7 digit led aansturen.

Dan is er geen sprake van running program.

Voor zoiets kan je spartan 3 of nog cheaper en simpler ICE40 latice.
Ipv cpu erbij kan spartan7 instapper en softcore IP in setten die de input regelt aan een nummeriek toetsen board. Bijvoorbeeld als simpel rekenmachientje maakt.
Al heb je daar niet zozeer een fpga voor nodig. Cpu zijn stuk goedkoper STM32F1…..

Maar als gfx reken machientje maakt met pixel lcd of oled sherm waar je input range kan opgeven. Met scrol optie. Dan kan FPGA misschien betere keus zijn.
Voor de user interface heb je programma runnen op hard of softcore en voor zware werk FPGA logic.

Op dit item kan niet meer gereageerd worden.