Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

AMD sluit zich aan bij consortium voor CXL-interconnect op basis van pci-e 5.0

AMD voegt zich bij het Compute Express Link-consortium, dat een interconnect ontwikkelt op basis van de pci-e 5.0-interface. Daarmee volgt AMD onder andere Intel en Arm. Ook bedrijven als Facebook, Google en Microsoft zijn betrokken bij de ontwikkeling.

AMD is al een aantal jaar betrokken bij de ontwikkeling van andere interconnects, waaronder CCIX, maar zegt zich ook bij CXL aan te sluiten omdat dit ook een open standaard is en omdat iedere interconnect een andere aanpak heeft.

Het CXL-consortium werd in maart opgezet door een groep techgiganten en bouwt voort op een project waar Intel oorspronkelijk mee begon. In de tussentijd hebben meerdere bedrijven zich aangesloten. Ook Arm is nu onderdeel van het samenwerkingsverband, bij de aankondiging was dat nog niet zo. Het consortium bestaat nu uit tientallen hardware- en softwarebedrijven.

De Compute Express Link is een interconnect voor snelle communicatie tussen cpu's en accelerators zoals gpu's en fpga's. De interconnect gebruikt daar de pci-e 5.0-interface voor die een datarate van 32GT/s biedt. Er is al een 1.0-specificatie van CXL beschikbaar en er wordt gewerkt aan een 2.0-versie. De techniek is bedoeld voor in servers en datacenters.

Sinds 2016 wordt er ook gewerkt aan de eveneens open CCIX-standaard voor interconnects, waar AMD een grote bijdrage aan levert. Ook Arm, Huawei, IBM, Nvidia, Qualcomm en Xilinx zijn daarbij betrokken. Intel doet niet mee in het CCIX-consortium. AMD is verder betrokken bij de ontwikkeling van de OpenCAPI- en Gen-Z-interconnects.

Slide uit presentatie van Intel over CXL, De volledige presentatie staat bij Serve The Home.

Door Julian Huijbregts

Nieuwsredacteur

19-07-2019 • 13:32

19 Linkedin Google+

Reacties (19)

Wijzig sortering
Ben ik blind, ontwetend of zou het artikel ook even moeten beschrijven wat "interconnect" inhoud?

Als ik het goed begrijp gaat het over communicatie tussen verschillende hardware componenten, maar ik zie niet wat bedrijven als Facebook hier aan mee moeten bepalen.

[Reactie gewijzigd door StefanJanssen op 19 juli 2019 15:23]

Men heeftt:
-Een CPU is de 'centrale rekeneenheid' die algemeen werk doet (ok, dat weet iedereen maar nodig voor volgende zin:)
-Een accelerator is een rekeneenheid, die gespecialiseerd werk doet en geen CPU is. Dat kan bijv. zijn een FPGA, GPU, DSP, (soms ook 'AI processor' genoemd), ISP, NPU of een of ander type geheugen / controller.

Als de CPU en de accelerator willen samenwerken, moeten ze verbonden zijn (interconnect) en hebben ze dezelfde data nodig (cache).

Als nu de accelerator en de CPU nu willen 'samenwerken' en gelijk naar dat geheugen willen lopen lezen / schrijven, weet geen van beide of het geheugen wel up-to-date was, en niet halverwege een bewerking door de ander gedaan; ze gaan met elkaar botsen.

Vroeger was dan gewoon de CPU de baas. Accelerator wil iets uit het geheugen, vraagt het aan CPU, CPU haalt het uit het geheugen, zorgt dat alles consistent (coherent!) blijft, stuurt het naar accelerator en klaar.

Dat is overhead, als accelerator* wil ik helemaal niet via de CPU met het geheugen communiceren, dat wil ik direct doen!

*bijv. professionele Radeon GPU op een Xeon-server

Wat heb ik dan nodig: Een Cache Coherent Interconnect (CCI). Bijv. het reeds bestaande reeds door Xilinx gebruikte CCIX (wat 90% zeker ook in AMD Rome zit).

Maar goed, Xilinx (FPGA concurrent van Intel), AMD (CPU-concurrent van Intel), Huawei (netwerk processor concurrent van Intel), ARM (CPU concurrent van Intel) en Qualcomm (voorheen 4G en nu CPU concurrent van Intel) komen dus samen 2 jaar geleden met een standaard.

Wat doe ik als Intel? Ik kan me daarbij aansluiten. Of ik doe gewoon een Microsoftje (met OXML destijds).

Dus ik probeer gewoon even mijn eigen variantje te lanceren en open te noemen, door de strot van enkele minst-tegenstribbelende klanten te duwen, de naampjes van die klanten op m'n website te publiceren en doen alsof ik een groepje heb, enkele grote klanten (FB, Alibaba, Google) verbetering te beloven en als ze met een half oog hebben gekeken zet ik ze ook op de lijst van mijn groepje, en daarna gaan vanzelf anderen denken dat er echt 'iets' is, en die sluiten zich dan serieus aan bij dat 'fake-eco-systeem'. En daarna is dat eco-systeem in een keer niet meer, fake, maar echt! Tadaa, huub huub barba-truc: Een witgewassen frauduleus ecosysteem!

Grandieuze truc, respect voor deze MSFT-achtige actie. Het heet dus CXL!

[Reactie gewijzigd door kidde op 20 juli 2019 03:44]

Facebook heeft zelf ook datacentra, en is er ook bij gebaat dat hun servers sneller en effici├źnter werken.
Facebook ontwerpt ook chips: nieuws: Facebook ontwerpt chips voor filteren van live video Het zal dan zeker voor live processing interessant zijn om al die data snel te kunnen processen.
De techniek is bedoeld voor in servers en datacenters.
Het lijkt me voor workstations toch ook erg interessant. Fijn om AI-processoren en andere speficieke accelerators ook lokaal te kunnen inzetten, zodat dat niet per se in de cloud hoeft te gebeuren.
Zoals ik het lees is het een techniek bovenop PCI Express.
Wat ik denk... PCI Express wordt via Thunderbolt ook al toegepast, maar alle 3 hebben een ander doel:
- local interconnect (videokaarten, audio kaarten, opslag kaarten)
- usb / fibre thunderbolt (externe opslag, schermen aansturen, externe videokaarten en docks)
- server omgevingingen

Waar ze nu bijvoorbeeld infiniband gebruiken voor high performance networking, zullen ze ook een dergelijke techniek zoeken voor apparaten die niet zozeer een netwerk vormen, maar aangestuurd dienen te worden, maar misschien niet meer in een systeem passen.

Een los programmeerbaar CPU / AI cluster die aan server hangt bijvoorbeeld?
Zoals dat nieuwe apparaat van Intel:
nieuws: Intel brengt neuromorfisch systeem uit met rekenkracht van '8 miljoen...

Waar thunderbolt naar mijn weten hot pluggable is, heb je die feature niet nodig in een server omgeving en wil je misschien wel meer fault tollerance. Dus mijn verwachting is (zoals ik het zo lees) is dat ze voor deze specefieke toepassing een toevoeging aan het PCI Express standaard gaan doen.

[Reactie gewijzigd door NEO256 op 19 juli 2019 16:17]

Let op: PCI-X is geen PCIe. PCI-X is simpel gezegd de serverversie van PCI.
Oh kijk aan, dat wist ik niet eens.
Ik dacht dat de afkortingen gewoon door elkaar heen werden gebuikt.

(Ik pas mijn teksten even aan)
Net pci-e 4.0 uit voor de consument. Vorige maand al nieuws over de pci-e 6.0 specificatie. Nu deze ontwikkeling. Hopelijk gaan we niet nog meer standaarden aanhouden. Hoe goed de ontwikkeling ook is van deze technologie.

EDIT: Mijn excuses, dit had ik moeten taggen als off-topic

[Reactie gewijzigd door waseland op 19 juli 2019 13:58]

Het is dezelfde standaard, maar een doorontwikkeling. Stil blijven staan is ook geen optie.

Vroeger had je bijv AGP, PCI en ISA op 1 mobo, nu is alles pci-express. Het is wat betreft wel beter geworden.
Ja het is beter geworden, maar ISA is lange tijd gewoon naast PCI gebleven om oudere randapparatuur te blijven ondersteunen. Dat is niet ongebruikelijk. AGP was eigenlijk een soort opgevoerde PCI slot speciaal voor videokaarten, het is een superset van PCI.
Bij AGP waren de problemen het grootst omdat de ene AGP de andere niet was.
Ik heb ook het idee dat AGP voornamelijk een lapmiddel was om de tijd tot de komst van PCI-Express te overbruggen. Nu ik eraan terugdenk, hadden ze toch net zo goed PCI-X kunnen gebruiken, waar wel al je oude kaarten in pasten.

Ik heb zelf ook nog tot in 2006 PCI videokaarten gekocht, omdat die wat toekomstbestendiger waren en daarna heb ik eigenlijk alleen nog maar integrated graphics gebruikt.
Tijd...

Dit gaat nog jaren en jaren duren voordat het uitkomt.

PCI-e 4.0 is begonnen in 2011...
Lijkt me toch anders toch best interessant om dit als standaard te hebben en dat er nieuwe bijkomen die de oude verbeteren... Anders blijf je maar bij hetzelfde en loop je tegen de limieten aan.
geen idee waarom je een -1 krijgt, want juist standaardisatie is goed voor de consument (hier dus datacenters en cloud providers).
Pcie 4.0 is heel storings gevoelig. Hogere snelheden nog meer.
AMD is al een aantal jaar betrokken bij de ontwikkeling van andere interconnects, waaronder CCIX, maar zegt zich ook bij CXL aan te sluiten omdat dit ook een open standaard is en omdat iedere interconnect een andere aanpak heeft.
https://xkcd.com/927/
Waarom is Facebook hierbij betrokken?

Op dit item kan niet meer gereageerd worden.


OnePlus 7 Pro (8GB intern) Nintendo Switch Lite LG OLED C9 Google Pixel 3a XL FIFA 19 Samsung Galaxy S10 Sony PlayStation 5 Smarthome

'14 '15 '16 '17 2018

Tweakers vormt samen met Tweakers Elect, Hardware Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True