Xilinx brengt volgend jaar fpga met 35 miljard transistors uit

Xilinx heeft de UltraScale+ VU19P aangekondigd, een op 16nm geproduceerde fpga die is opgebouwd uit 35 miljard transistors. De omvangrijke chip is bedoeld voor emulatie en het testen van prototypes.

De Virtex UltraScale+ VU19P van Xilinx heeft negen miljoen system logic cells, de bouwstenen van een fpga, aan boord. Daarnaast is 1,5 terabit per seconde aan ddr4-geheugenbandbreedte en via 80 GTH-transceivers is 4,5Tbit/s aan bandbreedte beschikbaar, en de chip beschikt over 2072 configureerbare i/o's. Volgens de fabrikant is de chip 1,6 groter dan zijn Virtex UltraScale 440, die het bedrijf op 20nm produceert en waarmee het tot nu toe als 'grootste fpga' adverteerde. Xilinx meldt een footprint van 65x65mm voor de chip. De omvang is ondanks het hoge aantal transistors beperkt dankzij het gebruik van 3d-stacking, oftewel het stapelen van chiplagen, zoals Xilinx bij high-end fpga's toepast.

Ter vergelijking: de op 12nm geproduceerde Volta GV100-gpu van Nvidia's Titan V heeft 21,1 miljard transistors op een oppervlakte van 815mm². Afgelopen week demonstreerde het bedrijf Cerebras een chip voor deep learning met een oppervlakte van 46.225mm² die is opgebouwd uit 1,2 biljoen transistors, maar dat is een groot meshnetwerk van relatief eenvoudige cores.

Met de programmeerbare VU19P-chip kunnen hardwarefabrikanten hun ontwerpen voor chips en socs testen voordat deze in productie gaan. Voor deze emulatie- en prototype-toepassingen willen fabrikanten volgens Xilinx een zo hoog mogelijke geheugenbandbreedte en veel i/o's. De fabrikant levert de chip vanaf de herfst van 2020 samen met debugtools en een ontwikkelplatform om chiptechnologie te ontwerpen en valideren.

Xilinx is volgens Gartner marktleider op de markt voor fpga's, met een aandeel van iets meer dan 50 procent. Intel, dat hiervoor in 2015 Altera overnam, en Microchip, hebben marktaandelen van respectievelijk 36 en 6,6 procent. EnterpriseAI publiceert de marktcijfers.

Update, vrijdag 15.25: Informatie over footprint toegevoegd.

Xilinx Virtex UltraScale+ VU19P.

Door Olaf van Miltenburg

Nieuwscoördinator

23-08-2019 • 11:32

38

Reacties (38)

38
36
21
4
2
11
Wijzig sortering
Misschien een leuk weetje is dat FPGA's ook wel eens voor andere dingen gebruikt worden. Zo zijn er bijvoorbeeld mensen die met een FPGA de originele NES en SNES hardware namaken, waardoor je eigenlijk weer de oude NES en SNES in een modern jasje kan kopen gebaseerd op echte hardware en geen emulatie. De echte chips van deze consoles worden namelijk allang niet meer gemaakt natuurlijk.

https://www.analogue.co/

Ook zijn er mensen die ze bijvoorbeeld programmeren tot bitcoin mining asics etc. Het is jammer dat FPGA's zo duur zijn want je kan best leuke dedicated hardware ermee maken.

[Reactie gewijzigd door ro8in op 23 juli 2024 11:54]

Voor Bitcoin mining zijn de FPGA's al lang niet meer rendabel; performance per watt komt simpelweg niet meer in de buurt van de Bitcoins mining ASIC's.

Voor meerdere altcoins worden wel FPGA's ingezet; een aantal van deze altcoins probeert via regelmatige algoritme wijzigingen ASIC's buitenspel te zetten. De herprogrammeerbaarheid van FPGA's maakt ze daarmee interessant om ze in te zetten voor mining doeleinden.

Ook voor coins die net zijn gelanceerd of een lage marketcap hebben kan het interessant zijn FPGA's in te zetten. Het kost simpelweg veel tijd voordat een ASIC op de markt komt, of het is (nog) te duur om een ASIC hiervoor te ontwikkelen.

(Ik ben zelf aan het minen met het kleine broertje van deze VU19P, de VU9P)
Waarom willen ze Asics buiten spel zetten? Zeker als er altijd alternatieven als FPGA of GPU zijn?

En ik dacht dat FPGAs nooit serieus hebben kunnen concurreren met GPUs? GPUs zijn zooooveel goedkoper per OPs. Dit ding kost 50.000 voor alleen de chip... dan heb je de dure PCBA er nog niet bij.

[Reactie gewijzigd door MeMoRy op 23 juli 2024 11:54]

Omdat ASIC's en decentralisatie van een netwerk moeilijk samen gaan.

Voor de VU9P hebben we het over een list-prijs van 43.716 euro op Digikey. Xilinx brengt echter ook eigen development boards / acceleration cards uit. Bijvoorbeeld de VCU1525 (https://www.xilinx.com/pr...s-and-kits/vcu1525-a.html) is gebouwd rondom de VU9P, en had destijds een prijs van 3600 USD. Nog steeds flink aan de prijs; maar een fractie van de prijs vergeleken met het kopen van een losse VU9P en het ontwikkelen van je eigen PCB.
Zeker! Dat is wel erg veel goedkoper!
Amiga https://www.apollo-accelerators.com/
Worden FPGA accelerator gebruikt.
@Olaf
Niet bekend is wat de omvang van de chip is.
Als je de Ultrascale+ product selection guide bekijkt, zie je een 65x65 (A/B3824) footprint. en het plaatje toont dat de (package van de) chip iets kleiner is: waarschijnlijk zo'n 55x40mm.

Xilinx gebruikt al een tijdje 3D stacking voor z'n top-range ICs... het zal dus niet 1 chip zijn, maar een stapel van chips.

[Reactie gewijzigd door MeMoRy op 23 juli 2024 11:54]

Dank voor de toevoeging, ik heb de info in een update toegevoegd.
Met een prijs rond de 50.000,- euro en software licenties van meer dan 10.000,- euro is dit eigenlijk alleen interessant voor de grote bedrijven.
... die er ook dankbaar gebruik van maken. Zo'n FPGAtje is een stuk goedkoper dan een maskerset voor een IC. En dan herbruikbaar! Het zal nooit dezelfde performance halen als een dedicated IC, maar je kan wel de interconnect tussen componenten (die vaak van verschillende teams komen) op lage snelheid testen.
Wat had je dan verwacht? Leading-edge technologie voor particulieren?

Xilinx heeft overigens ook een lijn die interessant zijn voor de particulier: de Spartan serie of de Zynq (SoC). Daar heb je al een goed ontwikkelbord voor ~100 euro voor. of 450 voor een Zedboard. En dan krijg je er een licentie voor dat bord bij.

Sowieso heb ik FPGA's nooit echt toegankelijk gevonden voor particulieren. Een FPGA project heeft nou eenmaal meer voeten in de aarde dan een CPU projectje..

[Reactie gewijzigd door MeMoRy op 23 juli 2024 11:54]

Sowieso heb ik FPGA's nooit echt toegankelijk gevonden voor particulieren. Een FPGA project heeft nou eenmaal meer voeten in de aarde dan een CPU projectje..
Op de traditionele manier FPGA's programmeren is inderdaad ontzettend moeilijk, daar ben je wel een jaartje of wat mee bezig voordat je er echt iets zinvols mee gaat bereiken. Maar dan kun je er ook wel echt heel erg interessante oplossingen mee realiseren.

Intel (voorheen Altera) heeft tegenwoordig ook een op OpenCL gebaseerde toolchain voor hun FPGA's [1], daarmee wordt het bouwen van FPGA compute kernels al een stuk eenvoudiger. Nog steeds niet makkelijk, en zeker geen 'turn-key' oplossing waarbij je even een bestaand stuk OpenCL code hercompileert en het is efficient, maar wel een stuk eenvoudier dan zelf VHDL of Verilog schrijven. Helaas moet je voor de OpenCL toolchain voorlopig wel een van de duurdere Intel bordjes hebben (begint bij ~$5000). Dus nog steeds niet echt toegankelijk te noemen...

[1] https://www.intel.com/con...-for-opencl/overview.html
I know (8 jaar werkervaring als VHDL programmeur). Xilinx heeft overigens ook OpenCl support. En HLS, waarmee je C-code om kan zetten naar FPGA structuren.
Ik vind die features vooral 'gimmicks' om het klantenbestand uit te breiden. Op deze manier zouden software engineers namelijk theoretisch ook FPGA's kunnen gebruiken.

Toch is code schrijven voor een FPGA niet te vergelijken met het schrijven van software voor een CPU. Ik heb de HLS tooling al een paar keer geprobeerd te gebruiken, maar het resultaat was vaak groter (waardoor je een grotere-duurdere FPGA nodig hebt), langzamer (niet steaming, maar sequentieel) en/of unmaintainable. Het enige voordeel zou zijn dat de ontwikkeltijd minder zou zijn. Maar qua kosten-baten weet ik niet of dat het waard is.

[Reactie gewijzigd door MeMoRy op 23 juli 2024 11:54]

HDL (hardware description language) is voor de RTL/behavioural VHDL en/of Verilog, je bedoelt denk ik HLS (High-level synthesis). En tegenwoordig doet dat ook al volledige C++14 in bijvoorbeeld Vivado HLS.

HLS is vooral voor de echt grotere (compute) kernels, en vooral als je de dataflow optimalisaties aan kunt zetten kan je gigantische throughputs halen in zeg een week of twee. Natuurlijk kun je met HDL verder komen, maar dan kost het je 6 maanden.

Vooral de OpenCL versies van HLS van Intel en Xilinx doen die dataflow dingen erg goed, de losse HLS applicaties hebben nog wat meer limitaties hierin.
Het blijft natuurlijk wel pragma galore, maar vooral bijvoorbeeld de reports die de Intel OpenCL SDK tooling genereert, kan ook een software developer heel erg helpen als men ook maar iets weet van wat hardware is, wat clock cycles zijn, initiation interval en loop unrolling en dergelijke.
Inderdaad typefout.
Misschien heb jij goede ervaringen met HLS? Ik in ieder geval niet. Maar ik ontwierp ook voor producten die een hoge oplage hadden, dus waar low cost devices in moesten. HLS kwam met grote langzame resultaten, zelfs na optimalisaties.
Ik heb net een kleine drie-kwart jaar veel HLS voor big data applicaties gedaan en daar voor machine learning. En de huidige oplossing voor big data is al om gewoon meer hardware te kopen om sneller te gaan. De meest populaire frameworks en talen draaien allemaal in de JVM, dus daar ga je al. Dus als HLS ook maar enigzins iets kan betekenen, al dan niet in combinatie met wat HDL cores en wat glue.

Dus dat zijn allemaal gigantische FPGAs, liefst in POWER9 systemen over CAPI enzo. Of bijvoorbeeld de Amazon FPGA nodes, al heeft hun tooling verschrikkelijk veel issues/eigenaardigheden.
I know (8 jaar werkervaring als VHDL programmeur). Xilinx heeft overigens ook OpenCl support. En HDL, waarmee je C-code om kan zetten naar FPGA structuren.
Ik vind die features vooral 'gimmicks' om het klantenbestand uit te breiden. Op deze manier zouden software engineers namelijk theoretisch ook FPGA's kunnen gebruiken.

Toch is code schrijven voor een FPGA niet te vergelijken met het schrijven van software voor een CPU. Ik heb de HDL tooling al een paar keer geprobeerd te gebruiken, maar het resultaat was vaak groter (waardoor je een grotere-duurdere FPGA nodig hebt), langzamer (niet steaming, maar sequentieel) en/of unmaintainable. Het enige voordeel zou zijn dat de ontwikkeltijd minder zou zijn. Maar qua kosten-baten weet ik niet of dat het waard is.
Hoe lang schat je de tijd in die een programmeur nodig heeft om te kunnen starten als FPGA "programmeur"?

Er vanuit gaande dat diegene fulltime lessen volgt en studeert?

Tijdens mijn elektronica opleiding kozen sommige de microelectronica specialisatie die 6 maanden duurde en daarbij leek het er aardig op dat degenen die zich richtten op FPGA's het na 6 maanden redelijk onder de knie hadden (goed genoeg om voor een bedrijf aan het werk te gaan). Of zie ik dit helemaal verkeerd en is jaren lange ervaring nodig?

Ik hoorde vaak verhalen over dat de toolchains van fabrikanten verschrikkelijk waren, is dat nog steeds zo?
Je hoeft niet mijn hele bericht te quoten hoor ;)

Er zijn heel goede cursussen. Je kan al beginnen na een paar weken/maanden. Maar ervaring komt - zoals altijd- met de jaren.

In mijn ervaring is de toolchain juist geweldig! Ik werk al sinds 1998 met FPGAs en toen moest je nog heel veel zelf doen. Nu is het klik klik klaar. (Tenminste, synthese en place and route duurt wel even, zeker met een grote FPGA)

[Reactie gewijzigd door MeMoRy op 23 juli 2024 11:54]

Dat klopt, echter is het juist voor dat soort bedrijven (AMD, NVIDIA) ontzettend handig om een platform te hebben waarop ze de werking van nieuwe processor architecturen kunnen testen.

De dingen die Xilinx maakt tegenwoordig zijn echt een van de meest complexe chips op dit moment. Zeker de chips met geintegreerde RF converters of de (door WienrBlut) Versal chips. Ze lopen ook een node achter op de high end processen, puur omdat die processen nog niet volwassen genoeg zijn om deze complexe chips te kunnen maken.
Depends on how you look at it.
Uitrol van een software pakket in een middelgroot bedrijf kost ook tienduizenden, zo niet honderdduizenden €'s. Ik vind 50k nog relatief goedkoop, eigenlijk.
Xilinx is volgens Gartner marktleider op de markt voor fpga's, met een aandeel van iets meer dan 50 procent. Intel, dat hiervoor in 2015 Altera overnam, en Microchip, hebben marktaandelen van respectievelijk 36 en 6,6 procent. EnterpriseAI publiceert de marktcijfers.
Dit is ook eigenlijk nonsens. Xilinx heeft volgens het onderzoek een omzet van bijna 3 mld.

Maar een FPGA is een ondersteunende chip voor bepaalde bewerkingen en daar heeft met name Nvidia een ongelooflijke inhaalslag gemaakt mbv gpgpu,
https://en.wikipedia.org/...graphics_processing_units

Daar is zowel in omzet, aantallen, ruwe rekenkracht veel meer vooruitgang geboekt. Dat zijn getallen die interessant zijn. Met de prijzen die Xilinx hanteert zullen die het daarmee heel snel afleggen.

Formeel kan Xilinx de grootste zijn van het bouwen van expliciete FPGA’s,
alleen de vergelijkingen met andere partijen kan achterwege gelaten omdat xilinx in een niche-markt actief is.
Een FPGA is een herprogrammeerbare chip, niet noodzakelijk als ondersteunende chip voor 'bepaalde bewerkingen', en niet te vergelijken met de 'statische' chips zoals bijvoorbeeld de GPU, ook niet als je die voor GPGPU-doeleinden gebruikt. Even inlezen?
GPUs hebben wel wat van de traditionele rollen van FPGAs overgenomen. Maar overall ben ik het met je eens dat het gewoon twee verschillende devices zijn voor verschillende markten. Als een GPU voldoet voor je berekeningen dan gaat een FPGA daar nooit van winnen op prijs, die is immers veel meer ontwikkeld voor flexibiliteit.
GPUs hebben wel wat van de traditionele rollen van FPGAs overgenomen.
GPU is alleen efficiënt voor specifieke doeleinden. Bijvoorbeeld voor data block-based computing. Maar bijvoorbeeld in de optische communicatiesector moet je bijv. 100Gb/s aan data met low-latency kunnen verwerken. Dat doe je niet even met een GPU.

[Reactie gewijzigd door MeMoRy op 23 juli 2024 11:54]

Precies. Ik werk als FPGA architect/tech. lead voor een bedrijf dat real-time video processing en communicatie doet voor de broadcast industrie. Wij maken gebruik van een Zynq 7045 + een Xilinx Virtex UltraScale+ (list price van $64.000) voor de processing. De Zynq doet vooralsnog alleen board management, audio processing en management networking op de 1Gbit interface. Deze zit verbonden met een PCIe aan de UltraScale+.

De UltraScale+ doet echt veel. Wij hebben die nu voor ruim 50% vol met oa: 2x100Gbit QSFP IP-datastromen genereren, ontvangen en processen. 32x 3Gbit SDI input en output processing (denk aan scaling, format conversion, overlay, frame sync, etc). 4x DDR4 memory controllers voor de frame sync, 4x 25Gbit SFP+ networking (IP uncompressed video/audio), 2x PCIe controllers en echt nog veel meer. Dit alles in real-time. Onmogelijk voor de snelste GPUs en CPUs.

Het is een geweldige FPGA maar heeft ook zo zijn downsides. Zo bestaat de FPGA uit vier zogenaamde SLR's. Dit zijn 4 chips stacked op elkaar. De fysieke overgangen zijn duur qua timing en deze geven dus regelmatig problemen voor de timing closure. Verder hebben wij door de grote interne databussen (oa AXI-stream van 512-bits breed op 322MHz voor de 100Gbit QSFPs) regelmatig last van zogenaamde congestion. De tools krijgen de boel dan lastig geroute waardoor weer timing issues ontstaan. Het vergt veel kennis van de materie en architectuur om hier efficiënt gebruik van te maken. Verder zijn de bouwtijden ook erg lang. Wij doen regelmatig 6 tot 8 uur over een build (van synthesis naar bitstream). Als timing closure niet meteen gehaald wordt, dan moeten we enkele iteraties uitvoeren waardoor je dus zo een dag of twee verder bent. Debuggen is dan ook erg lastig en duur want voor elke wijziging moet je weer de build iteraties starten.

Door oa deze issues, is iets maken met zo'n dure FPGA verre van triviaal en erg duur. Je hebt goede mensen nodig, je hebt diverse flinke development PCs nodig (Intel 9900x met 128GB, overclocking en waterkoeling), dure switches (Arista's van 25 tot 30keuro), fibers, meetapparatuur, CI build PCs, dure licenties voor de networking IP, gedegen kennis van FPGA en de architectuur, enz.

Het is superleuk maar het blijft een niche markt.
Nee, toevallig niet :-)
uhm... dit gaat over FPGA's?! 8)7
Ik meen ooit gelezen te hebben dat het eerste IC, gemaakt door Jack Kilby in 1958, acht componenten had. Van 8 naar 35 miljard in 60 jaar. Best indrukwekkend.

Je vraagt je af waar we over nog 60 jaar zullen zijn op het gebied van deze technieken. Lopen we tegen de bekende limieten aan of zullen we die weten te overwinnen, evt. door andere technologieën te gaan gebruiken?
Over 60 jaar zijn wij mensen de computers :P
Als de VS, Iran, Noord Korea, etc zo doorgaan, leven we misschien dan in een Vault-Tec Vault ;)

[Reactie gewijzigd door MeMoRy op 23 juli 2024 11:54]

Ik denk dat er een limit zit aan hoe veel transistors in een CPU kan zitten, vooral als je niet dikker en of groter woorden.
Je vraagt je af waar we over nog 60 jaar zullen zijn op het gebied van deze technieken
Toevallig heb ik daar net gisteren en vandaag net over gelezen!
Korte samenvatting hieronder:

In 2021 komt 'volgens Wikipedia' de 'grote' Xilinx Versal uit (nu zitten de 'kleinere' in het early access program), die 'grote' hebben 50 miljard transistors.

De limiet op het gebied van sillicium schijnt volgens TSMC (fysieke maker van deze Xilinxen) te liggen bi hun 3 NanoMarketing-node (modelaanduiding: "3nm"); hierover hebben ze op HotChips gepresenteerd. Van de vinnen van de FinFET kan je de afzonderlijke atomen onderhand al tellen.

Daar werd verder gepresenteerd, dat de Dennard-schaling limiet al bereikt is (Watt per vierkante centimeter kan al niet meer toenemen op sillicium), dus op dit moment kan je eigenlijk alleen meer transistors per oppervlakte kwijt door ze te stapelen. Apple doet dit al gedeeltelijk met hun nieuwste SoC's waarbij de ene die zit 'gevouwen' bovenop een andere, Intel is er ook al zeer ver mee; en TSMC is druk aan het ontwikkelen.

Het meest valt dan nog te bereiken met hogere geheugenbandbreedte, door sneller en meer geheugen dichter op de CPU kunnen bepaalde taken 200x zo snel,

Daarna wordt het fundamenteel anders qua materialen en moet er afscheid worden genomen van sillicium, als iemand daarvan althans de R&D kosten kan gaan opbrengen. Dan gaat het over naar transitiematerialen, waar vooralsnog meer dan 100 opties voor zijn (voor zover ik zie iets van wolfraam/molybdeen - selenide / sulfide), en naar carbon nanotubes. De laatste worden nu alleen nog maar op universiteiten gemaakt.
Zo typisch FPGA-industrie om paper-launches te doen. Het verhaal wordt volgend jaar echt totaal anders! Een grote chip op 16nm, terwijl Xilinx zelf al met 7nm werkt. Ondertussen zit Intel ook niet stil en gaat de industrie naar many-core en chiplets.

Als Xilinx volgend jaar gaat verkopen en T.net erover schrijft, kan dit artikel dan gelinkt worden?
Als Xilinx volgend jaar gaat verkopen en T.net erover schrijft, kan dit artikel dan gelinkt worden?
Maak even een agendapunt aan, dan kan dat prima.
2000 IOs, gaat een FPGA van dit formaat op een interposer of is dat nog te routen?
Wacht maar totdat ze deze beesten op de markt gaan brengen! https://www.xilinx.com/pu...e-versal-architecture.pdf

Dit is een SOC met Arm A-72 cores, een giga FPGA en AI engine... In automotive en radar applicaties gaat dit een game-changer zijn zoals de MPSoC nu ook al is.
En dan te bedenken dat ik in 1985/6 bij de PTT de XC2064 begon te gebruiken, deze chip had 64 configurable logic blocks. Rodelco uit Breda was de importeur en maakte er op de beurs 'Het instrument' reclame voor. Die XC2064 kon je toen alleen nog maar 'op het laagte niveau' configureren met het PC-programma XACT van Xilinx (DOS). Je had wel een AT PC nodig met extended memory van minimaal 2 MByte. Later kreeg je met behulp van een schematekenprogramma (Schema II) met een place- en routeprogramma meer overzicht en werden de ontwerpen overzichtelijker en kon je zelfs simulaties doen.

N.B. Xilinx was voor Rodelco blijkbaar zo'n succes dat hun belangrijkste klanten een keer werden gefêteerd op een rondvlucht vanaf Zestienhoven richting Breda met een vliegtuig van de Dutch Dakota Association. Dat toestel is later in 1996 verongelukt in de Waddenzee.

Op dit item kan niet meer gereageerd worden.