PCI-SIG voltooit specificatie voor PCI Express 7.0 met dubbele bandbreedte

De PCI-SIG heeft de nieuwste specificatie van de PCI Express-standaard afgerond. PCIe 7.0 is beschikbaar voor leden van de organisatie achter de standaard en heeft twee keer de bandbreedte van de PCI Express 6.0-standaard. Per lane betekent dat 128GT/s in plaats van 64GT/s.

Producten met de nieuwe standaard, die vooral op servers gericht is, zullen nog enige tijd op zich laten wachten. De vorige standaard PCIe 6.0 werd in januari 2022 afgerond, maar vooralsnog zijn er geen producten met die standaard op de markt. Daar moet dit jaar langzaam verandering in komen. Servers met PCIe 7.0 aan boord worden dan ook pas over enkele jaren verwacht. Dat zou dan met name gaan om AI-servers, die profiteren van de extra bandbreedte om de grote hoeveelheden data van de workloads te verplaatsen.

Met de PCIe 7.0-standaard ondersteunt de interface voor het eerst optische interconnects in plaats van alleen koperen verbindingen. Daardoor kunnen grotere afstanden overbrugd worden en wordt er tegelijk minder energie gebruikt. PCIe 7.0-lanes hebben een snelheid van 128GT/s, twee keer zo hoog als de 64GT/s in PCIe 6.0. Met een x16-interface komt dat bij PCIe 7.0 uit op een bandbreedte van 242GB/s. Ter vergelijking: consumenten-pc's gebruiken momenteel PCI Express 5.0, met snelheden tot 32GT/s per lane. Dat komt met eenzelfde interface neer op een snelheid van ongeveer 63GB/s.

De standaard blijft achterwaarts compatibel, maar gebruikt net als PCIe 6.0 een andere encoding voor de data dan PCIe 5.0: versies 6 en 7 gebruiken pam4 in combinatie met 242b/256b FLIT. Dat levert minder overhead op voor foutcorrectie dan de 128/130-encoding van PCIe 3.0 tot 5.0.

Door Willem de Moor

Redacteur

12-06-2025 • 11:54

57

Submitter: ocf81

Reacties (57)

57
56
19
2
0
24
Wijzig sortering

Sorteer op:

Weergave:

Jup, en elke lane is een bitje. Dus voor een x16 lane GPU is het dan x16 bits oftewel 2 bytes, en voor een SSD moet je de GT/s halveren om tot GB/s te komen. Dus je 1 TB SSD kan dan in ongeveer 16 seconden leeggetrokken mits de SSD controller en de flash de PCIe bij kan houden.

Overigens is tot nu toe elke versie een verdubbeling, dus dat maakt het makkelijk rekenen. Bijvoorbeeld mijn Xeon workstation heeft een 16x PCIe v3 die even snel is als een 8x PCIe v4 in mijn desktop (wat betreft bandbreedte).
Nee. Elke lane is een PAM4 symbool, niet een bitje. Staat ook in het artikel.

Dat is ook hoe ze op de 242 GB/s uitkomen. Er zitten 14 ECC bits in elke 256 bits ruwe data.
Ja, OK, iets trager dan de 256 GB/s die je zou verwachten als je van de ruwe snelheid uitgaat, en je spreekt dan nog steeds over ruwe data op een hoger niveau, dus minder dan wat je SSD gaat doen want die heeft ook overhead, search, round trip time etc. etc.
Dus meer bandbreedte men zou de toekomstige m2 harde schijven dus op dubbele snelheid kunnen draaien.
Ja, maar ondertussen wordt het wel lastig voor SSD's om die snelheid op te kunnen brengen. De controller en vooral de flash chips moeten dan natuurlijk ook die snelheid aankunnen. Nou kan je natuurlijk altijd grotere controllers en meer chips gebruiken, maar dat kost serieus veel $$$ (zie e.g. enterprise SSD's met enorme capaciteiten).

En de "return" wordt ook steeds kleiner - op applicatie niveau ga je nooit een verdubbeling van snelheid zien (op gespecialiseerde copy applicaties na misschien). Maar uiteindelijk gaat het vast gebruikt worden :)
heeft twee keer de bandbreedte van de PCI Express 6.0-standaard.
Maar zo is het toch elke keer gegaan? Ook wordt toch altijd zo "gerekent". Opslag en alles is altijd in verdubbelingen.
We hebben nu ook geheugen modules van 24 en 48 GiB. Geheugen capaciteiten van SSD's zijn al tijden in GB in plaats van GiB en daar zijn ook 480 en 500 GB capaciteiten beschikbaar. En de snelheid van datacom hangt af van het type signalering maar ook van frequentie, en daar is verdubbeling helemaal niet vanzelfsprekend. LAN bijvoorbeeld ging van 10 naar 100 naar 1.000 en toen 10.000 Mbit/s, daarna gesplitst naar 2.5 en 5 GHz.

En als je kijkt naar hoe het bereikt is dan krijg je een interessant tabelletje (met een sprong van 5 GT/s naar 8 GT/s die ik helemaal vergeten was):

PCIe evolutie van Gen 2 t/m (proposed) Gen 8:
  • Gen 1: 2.5 GT/s met 8b/10b encoding (~250 MB/s per lane)
  • Gen 2: simpelweg de klok verdubbeld tov Gen 1 (5 GT/s met 8b/10b encoding)
  • Gen 3: encoding veel efficiënter gemaakt (naar 128b/130b), signaal maar licht verhoogd (8 GT/s)
  • Gen 4: clock weer verdubbeld (16 GT/s), betere equalization & PCB materiaal vereist
  • Gen 5: wederom clock verdubbeld (32 GT/s), geavanceerdere equalization (CTLE, DFE, betere jitter controle)
  • Gen 6: overgang naar PAM-4 (4 voltage levels, 64 GT/s), FEC toegevoegd ivm hogere foutgevoeligheid
  • Gen 7: PAM-4 behouden, clock opnieuw verdubbeld (128 GT/s), nóg striktere signaalintegriteit + sterkere FEC
  • Gen 8 (proposed): PAM-4 met ~256 GT/s als target, extreme equalization, betere materialen en kanaalontwerp

[Reactie gewijzigd door uiltje op 12 juni 2025 18:17]

Heel erg bedankt voor de mooi uitleg. Ik ben weer een stukje wijzer _/-\o_
In 1e instantie klinkt "Met een x16-interface komt dat bij PCIe 7.0 uit op een bandbreedte van 242GB/s" als veel
Maar zag van de week een video voorbij komen over vergelijking huidige bandbreedtes in memory.
128bit bus single channel vs 256bit bus dual channel, maar dat vergeleken met de Apple pro (nog iets) met unified memory. Waarbij er dus een 1024bit bus wordt gebruikt en een bandbreedte van 800GB/s (niet Gb maar echt GB).
Dat is dus iets wat nu op de markt beschikbaar is. Qua performance verliest het nog steeds in AI taken van een goede GPU maar had eigenlijk wel meer verwacht.
Het ene systeem is natuurlijk niet met het andere te vergelijken maar voor iets wat dus nog moet uitkomen, met een connector moet werken ipv direct op moederbord en cpu lanes had ik toch meer verwacht.
Is dit geheugen van Apple dat niet gewoon gebaseerd op HBM? (vraag wegens de overeenkomsten met HBM)
Deze heeft ook een 1024bit geheugenbus (16x64). Met versie 3 komt dit uit op 819GByte/s in de maximum van de specificatie.
Momenteel is er ook de 3e standaard die zelfs 1229GByte/s bied en zal HBM4 volgend jaar echt het levenslicht gaan zien met 1638GByte/s.

bron: Wikipedia: High Bandwidth Memory
Heb even terug gezocht, gaat dus om een M3 Ultra en daar staat ook als theoretisch 819GB/s dus dan zou overeen komen je aangekaarte HBM.
"M3 Ultra with 32‑core CPU, 80‑core GPU, and 32‑core Neural Engine (819GB/s memory bandwidth)"
In 1e instantie klinkt "Met een x16-interface komt dat bij PCIe 7.0 uit op een bandbreedte van 242GB/s" als veel
Maar zag van de week een video voorbij komen over vergelijking huidige bandbreedtes in memory.
128bit bus single channel vs 256bit bus dual channel, maar dat vergeleken met de Apple pro (nog iets) met unified memory. Waarbij er dus een 1024bit bus wordt gebruikt en een bandbreedte van 800GB/s (niet Gb maar echt GB).
Je vergelijkt nu bandbreedte tussen een embedded CPU+GPU en RAM met de bandbreedte voor een extension bus. Dat zijn twee verschillende zaken.
maar voor iets wat dus nog moet uitkomen, met een connector moet werken ipv direct op moederbord en cpu lanes had ik toch meer verwacht.
Het gaat om veel grotere afstanden tussen onderdelen. Ook is er een verschil tussen onderdelen die door een fabrikant gekozen zijn en op elkaar gemonteerd worden, en losse onderdelen die met elkaar samen moeten werken. Je kan het inderdaad niet met elkaar vergelijken.

[Reactie gewijzigd door The Zep Man op 13 juni 2025 07:35]

Daarbij komt dat die bandbreedte binnen in één chip zit.
Het is de capaciteit tussen verschillende tiles in 1 chip.
Een pcie slot met een “steker” verbinding is echt een andere orde.
Dat is toch niet te vergelijken? Unified memory is totaal wat anders dan PCIe, en het doel is dan ook niet het zelfde hoewel er een kleine overlap is.

Een dedicated GPU heeft zijn eigen geheugen met een zijn eigen specs. Een RTX 5090 heeft een 512bit bus met een bandbreedte van 1792GB/s (een hoofdletter B dus).
Je maakt dus alleen winst op het stuk waarbij er overdracht tussen de CPU en GPU.

PCIe heeft gewoon andere eisen, het moet werken over lange afstanden en het moet bruikbaar zijn voor meerdere doeleindes. Het moet ook werken met hardware van meerdere vendors, en tussen verschillende vendors. Daarnaast rest er nog de vraag, is er een noodzaak? Ik weet niet welke video je gekeken hebt, maar het zal dus altijd een vergelijking tussen een PCIe 5 GPU en een Apple Pro geweest zijn. En je zegt dat het hier en daar verliest van een goede GPU, dus is er een noodzaak aan veel meer bandbreedte?
leuke is RAMBUS deed deze snelheden decenia geleden al met hun XDR2 modules, alleen die zijn redelijk geboycot en daardoor alleen in een aantal nice zaken terecht gekomen.

met 16 bit per pin en 8ghz in 2008 was het zijn tijd jaren vooruit voor een bandbreedte van 50GB/s per chip in een 8 chip dual module setup haalde je dan 800GB/s.

Ondanks dat het ontwikkeld was voor GPU zie je het eigenlijk alleen in luxe netwerk core componeneten. Zeker het feit dat ze dit deden met helf van de power die DDR en GDDR nodig hadden. en daarnaast dat de lanes niet even lang hoefde te zijn maakte het ontwerp enorm fexible.

[Reactie gewijzigd door Scriptkid op 12 juni 2025 13:44]

Vergelijken met Apple's (en Intel en AMD trouwens) oplossing voor RAM is echt, uh, appels en peren. Dat geheugen zit fysiek op de CPU, dus die snelheid is veel hoger dan door en aparte connector/controller heen moeten en dan nog over (nu nog) koperen traces. Dat is dus geen eerlijke vergelijking.
Nou waar ik op doel is juist dat de PCIE standaard te langzaam groeit tov huidige componenten.
Als je nu een GEN5x4 NVME hebt die in praktijk 14GB/s haalt.
Een GEN5x16 = ~ 60GB/s slot in 4x4 Bifurcation dus eigenlijk al volledig vol getrokken wordt.
En zoals ik al zij is het qua techniek 1 op 1 te vergelijken maar de individuele componenten snelheid gaat tegenwoordig sneller dan deze standaard.
Dan is het leuk dat de PCI standaard groeit, maar als je SSD dat niet bijhoud (controller en chips) dan heb je er nog niks aan he. En PCI doet meer dan alleen opslag.
Maar je moet uiteindelijk kijken naar de snelheid van een draadje. Op een printplaat kan je geen 128, laat staan 1024 draden in parallel tekenen en doen werken, dit kan dan op een package wel. Het is zeker wel indrukwekkend 256 gigabit/s behaald, dat is echt niet triviaal om te doen.
Maar zijn er ook aanpassingen op wat het asn energie kan/mag/moet leveren via de bus? Zal toch wel meer verschillen zijn dan alleen snelheid.
Al sinds PCI-E 1.0 en ook in 6.0 is het nog altijd 75W max via het slot.

Lijkt er dus niet op dat dat verhoogd gaat worden..
150W geen handshake, gewoon knallen. (Alleen de kleur van het slot aanpassen.)

( :Y) )
Maar zijn er ook aanpassingen op wat het asn energie kan/mag/moet leveren via de bus? Zal toch wel meer verschillen zijn dan alleen snelheid.
Waarom kijk je zelf niet even en laat het ons weten?
https://pcisig.com/specifications
omdat dat achter een geregistreerde wall zit ?
Dat "ene" ding is ook het enige dat het vermelden waard is van de nieuwe standaard voor de meeste lezers hier. Dat geldt voor bijna elke PCIe versie. Als de toegestane spanning en stroom (en dus toelaatbare vermogen) gewijzigd waren had Tweakers dat wel vermeld. Zelfde geldt voor de encoding, geen wijziging. Overigens vermeld Tweakers ook dat optische interconnects nu in de standaard zitten. Dus dat zijn twee dingen.

Dus nee, dit is geen lui artikel. Het artikel vermeldt alles dat het vermelden waard is.

Tenzij je interesse in de encoding hebt, is PCIe heel makkelijk op te sommen. 1.0 = 6,5A @ 12V (=78W) vermogen door de connector, 2,5 GT/s per lane (bandbreedte x16 = 4 GB/s). Elke hoofdversie daarna = ~2x transfer rate per lane. Door encoding wijzigingen en overhead is de bandbreedte niet 100% verdubbeld, maar zit er niet mijlenver vandaan. Qua vermogen is er sinds 1.0 helemaal niks veranderd, behalve de 8-pins connector; in 1.0 was die 100W, in 2.0 werd dat verhoogd naar 150W. 6-pins connector is vanaf 1.0 al ongewijzigd. Vanaf 2.0 geen enkele wijziging in slot, 6-pins of 8-pins. Enkel dat 12VHPWR onding toegevoegd (en 48VHPWR, maar die zullen we als consumenten niet gaan zien).
Dus de PCI-E 6.0 express-producten zijn nog niet uit en de PCI-E 7.0 standaard is er al.. waarom gaan we dan niet gelijk door naar 7.0, of veranderen ze de 7.0 naar de 6.0. Blijkbaar is winst maken nog steeds een stuk belangrijker dan vooruitgang maken jammer genoeg
Omdat standaardisatie altijd vooruitloopt op productie. Af en toe zie je dat er al producten op een pre-standaard worden uitgebracht (bij Wifi bijvoorbeeld) maar in het algemeen heb je eerst research en PoC's, dan standaardisatie (soms tegelijkertijd) en dan productie. Verder heeft het weinig zin om nieuwere / duurdere tech uit te brengen voordat er producten zoals grafische kaarten zijn die er gebruik van maken. Sowieso vind je deze tech vaak eerder in servers dan in consumenten PC's, simpelweg omdat het daar economisch meer zin heeft (tegenwoordig iets minder omdat dezelfde cores gebruikt worden, maar goed).

Als ik zo naar je luister ben je wat te veel richting conspiracy aan het denken.

[Reactie gewijzigd door uiltje op 12 juni 2025 13:19]

Conspiracy? Dat is een bizarre interpretatie van wat ik schreef.

Uiteraard begrijp ik dat standaardisatie vooruitloopt op productie; dus wat zou men nu letten om niet al de PCI-E 7.0-standaard te gaan gebruiken in plaats van de 6.0-standaard?
Waarom is dat bizar? Je beweerd dat men nog geen 7.0 gebruikt vanwege "winst". Nou is winst natuurlijk altijd belangrijk voor een bedrijf, maar het is logischer dat de IC's nog niet klaar zijn, of dat het geen economisch voordeel biedt aan een particulier. Het idee dat het gebeurd om de consument snelheid af te troggelen is nergens op gefundeerd. Vandaar de conspiracy theory: je denkt dat alle fabrikanten dit doen om de consument van vooruitgang te bestelen.

Sowieso zit de snelste PCIe tegenwoordig op de processor (bij AMD als separate chiplet, bij Intel hangt het overal vanaf). Het maken van een processor is een proces waar minstens 1.5 jaar overheen gaat, en dat is een erg korte tijdlijn. Dus je zal nog wel even geduld moeten betrachten - buiten het probleem dat je het in het begin nergens voor zou kunnen gebruiken.
We leven in een kapitalistisch systeem, dus proberen bedrijven en mensen zoveel mogelijk geld te verdienen en daarom melken bedrijven alles zoveel mogelijk en zolang mogelijk uit. Vrij logisch als ze ermee wegkomen, maar wel jammer. Ik zie de conspiracy waar jij het over hebt totaal niet.
Omdat er nogal wat stappen zitten tussen het opstellen van een standaard en het moment dat jij een moederbord koopt met die standaard. Apparaten moeten ook ontworpen en gevalideerd worden, dat kost allemaal tijd en geld.
Ook ga je eerst PCI 6 zien verschijnen op serverhardware waar dat een nut heeft, voor ons consumenten zal dat nog even duren.
Goed nieuws voor geluidskaarten :)
Wil je die toelichten? Ik was altijd innde veronderstelling dat geluidskaarten geen enorme bandbreedte behoeften en dat het met latency ook wel goed zat al. Veel externe geluidskaarten hebben genoeg aan ewn USB2.0 interface?
Het was waarschijnlijk gewoon sarcasme. Er is momenteel zelfs niet eens hardware die PCIE 5.0 ten volle benut, tenzij bepaalde server hardware.
Humor. Ik weet het, dat is verboden hier op Tweakers.
Hoop ik toch niet maar kon dat niet direct uit de reactie halen. Ik was oprecht benieuwd of er een technische reden achter zat, maar hield ook rekening met sarcasme.
Is dat sarcatisch?
Want kan geen enkel geluidskaart bedenken die nog echt geleverd wordt.
Alles is makkelijker geworden dankzij hdmi.
Dat de originele reactie idd sarcastisch bedoeld was terzijde, geluidskaarten zijn nog zeer wenselijk om te hebben in een PC. Ik vind de geïntegreerde audiokaarten van computers altijd onwijs slecht. Nu verbruiken deze natuurlijk een aantal watt minder, maar als je een degelijke audiokaart in je computer hebt gehad wil je nooit meer anders.. Wat een dof, dood geluid komt er dan uit je geïntegreerde kaart |:(

Duur hoeft het ook niet per se te zijn, ik heb zelf de Creative Sound Blaster Audigy Rx 5. De €80 dubbel waard.
Geluid is zo basaal dat het niet meer noemenswaardig is. Neem een USB geluidskaart ("DAC") van goede kwaliteit en je krijgt veel meer flexibiliteit.
En alle problemen die bij USB geluidskaarten komen kijken. Als het werkt, werkt het, maar je hebt een gezeik als er weer eens een probleem is. Dan los ik bijna nog liever een printer driver probleem op.
En alle problemen die bij USB geluidskaarten komen kijken.
Hetzelfde met PCIe-kaarten. Pick your poison.
Ah, herinnerd me aan de tijd dat je meerdere kon gebruiken voor verschillende toepassingen; ik had een Sound Blaster 64 gold en een Gravis UltraSound. Sommige spellen en demo's (ala demoscene), werkten beter met de een of de ander.


Leuke tijd was dat 😊
BEHOLD (ooowwwwww)

Glimmend opgepoetst, beter voor de latency.
Komt met aux kabel waar AUDIO-INPUT en AUDIO-OUTPUT op staat vermeld. (3.5mm), heeft te maken met de manier waarom deze kabel is gemaakt. (heus)

/s

(Vast een knap ding, maar menig `audio mensen` zijn over het algemeen zo goed uit te melken :))
Gebruik nog steeds de Creative Sound Blaster ZxR uit 2012, heb ik toen weten te bemachtigen voor €140 terwijl hij voor €250 op de markt kwam. Is tot de dag van vandaag nog steeds velen malen beter dan mijn onboard uit 2021.

Mijn AKG K612 Pro hoofdtelefoon heeft een geluidskaart hard nodig, onboard heeft daar veels te weinig power voor.
Het gebrek aan gevoel voor humor is weer sterk vandaag....
Dat komt omdat de sarcasmussen zo hoog vliegen vandaag.
Kunnen ze niet een betere power connector maken... PCI-E Gen7 hebben we voorlopig nog lang niet nodig.
dit gaat puur over data-lanes, niet over power-delivery
Mooi zo'n verdubbeling in snelheid. Maar 'elk voordeel heb z'n nadeel', dus wat voor compromis is hiervoor nodig?
Tis gewoon heel moeilijk te ontwerpen. Waar 20 jaar geleden zo een interface een paar invertoren (not gates) was, zit er nu bij wijze van spreken meer rekenkracht in om dat werkend te krijgen als in een computer van toen.
Ik ben wel benieuwd op welke afstanden de optische vorm geïmplementeerd kan worden. Wordt dit dan een overtreffende trap van MCIO en/of OCuLink?
versies 6 en 7 gebruiken pam4 in combinatie met 242b/256b FLIT. Dat levert minder overhead op voor foutcorrectie dan de 128/130-encoding van PCIe 3.0 tot 5.0
242 / 256 = 0.9453
128 / 130 = 0.9846

Dan is 128/130 toch juist een stuk minder overhead? Je ziet het ook aan de snelheden - PCIe 5.0 levert 63 van de 64 GB/s, PCIe 7.0 levert 242 van de 256 GB/s (met 16 lanes).

Zal om andere redenen wel een goede keuze zijn hoor, daar niet van, maar als fractie van het totaal is het een stuk meer ;)

Op dit item kan niet meer gereageerd worden.