PCI-SIG publiceert conceptversie van PCIe 8.0, release in 2028

PCI-SIG heeft het eerste officiële concept voor PCIe 8.0 uitgebracht. Die standaard moet toekomstige videokaarten en ssd's van nog hogere bandbreedtes voorzien. PCIe 8.0 is in 2028 klaar voor gebruik, al zal het daarna nog jaren duren voordat we het terugzien in hardware.

PCIe 8.0-versie 0.5 is onlangs gedeeld met leden van PCI-SIG, zegt standaardenorganisatie PCI-SIG in een persbericht. Volgens de organisatie is dit de eerste 'officiële conceptversie' voor PCIe 8.0, nadat het eerder al een opzetje deed met versie 0.3.

In de nieuwe conceptversie is feedback van PCI-SIG-leden verwerkt, al zegt de organisatie niet wat er precies is veranderd. Er wordt wel benadrukt dat de releaseplanning ongewijzigd is: de volledige PCIe 8.0-standaard moet in 2028 definitief zijn.

PCIe 8.0-versie 0.5. Bron: PCI-SIG
Bron: PCI-SIG

Ssd-snelheden tot 128GB/s

PCI-SIG kondigde versie 8.0 vorig jaar al aan. Net als altijd verdubbelt deze nieuwe versie de bandbreedte ten opzichte van zijn voorganger. In de praktijk kan PCIe 8.0 gpu-bandbreedtes van 512GB/s en ssd's van 128GB/s mogelijk maken.

Er zijn nog weinig technische details over PCIe 8.0 bekend. Wel is duidelijk dat het bedrijf opnieuw gebruikmaakt van pam4-signaling, net als in versies 6.0 en 7.0. Ook overweegt PCI-SIG 'een nieuwe connector', maar daarover worden ook geen details gedeeld. De organisatie zegt wel dat PCIe 8.0 backwards compatible blijft, ook als de connector zelf verandert.

Nog even geduld

Hoewel PCIe 8.0 in 2028 klaar zal zijn, zal het waarschijnlijk nog lang duren voordat we PCIe 8.0-hardware in onze pc kunnen verwachten. PCIe 6.0 is bijvoorbeeld al meer dan drie jaar beschikbaar, maar wordt dit jaar pas toegepast in server-cpu's voor datacenters.

Voor consumenten gaat dat waarschijnlijk nóg langer duren: de baas van Silicon Motion verwacht de eerste PCIe 6.0-consumentenhardware pas rond 2030. De reden daarvoor is dat de kosten en warmteproductie stijgen bij nieuwere PCIe-standaarden, terwijl de voordelen voor consumenten minder groot zijn dan bij datacenters. Tweakers schreef eerder een achtergrondverhaal over de 'trage' adoptie van nieuwe PCIe-versies in pc-hardware.

PCIe 8.0 via PCI-SIG
Bron: PCI-SIG

Door Daan van Monsjou

Nieuwsredacteur

07-05-2026 • 14:29

22

Submitter: laurxp

Reacties (22)

Sorteer op:

Weergave:

Waarom dat verschil met GPU's? Niets weerhoud een SSD fabrikant er van om een PCIe insteek kaart SSD te bouwen met 16 lanes?
Klopt. Maar in de praktijk gebruiken SSD's de M.2 connector, welke maar 4 lanes heeft. Dat is logisch want dat is normaal gesproken genoeg voor het doel, en het maakt de connector kleiner en goedkoper.

Het is dus een praktijklimiet, gebaseerd op de M.2 standaard, geen theoretische.

[Reactie gewijzigd door locke960 op 7 mei 2026 15:22]

Je hebt idd ook wel ‘add-in cards’ die 8 of 16 lanes ondersteunen, en de volle snelheid kunnen gebruiken. De standaard m.2 form factor die je voornamelijk ziet bij consumenten SSD’s zal wel beperkt blijven 4 lanes en dus tot 128GB/s, ik denk dat men daar op doelde.
Nog steeds geen update aan het slot om gestandardiseerd meer stroom naar de kaarten te pompen?

Een paar dikke 12V contactpunten zouden veel koppijn besparen voor gebruikers en fabrikanten van insteekkaarten die als maar meer stroom gaan slurpen de laatste generaties.
Dan breek je natuurlijk wel de backwards-compabiliteit.
Dan breek je natuurlijk wel de backwards-compabiliteit.
Zie ISA en VESA Local Bus. Ondanks de ondersteuning voor VLB kon je in datzelfde slot iedere ISA-kaart gebruiken.
Maar als een nieuwe kaart 200W nodig heeft.

In de "oude" situatie, 75W via slot, 125W via externe voeding.
Nieuw slot, 200W via slot.. super.

Nu pak ik die nieuwe kaart, druk hem in een oud slot... dan ben ik nog steeds een externe voeding nodig. Dus de componenten en traces moeten nog steeds geplaatst worden voor backwards compability. + de voorzieningen voor de nieuwe versie. Dus dubbele componentkosten.
dus we moeten maar om volledige backwards compability te behouden niet innoveren? Je ziet alleen maar problemen, je doet gewoon 2 generaties lang beide opties aanbieden en gaat dan permanent over. Probleem opgelost.
De contacten zouden fysiek voor of acther de bestaande stroom of data connectoren.

Je zou ook prima kunnen verplichten om op te starten met de oude stroomregels en pas als er een bepaalde pin of verbinding gedetecteerd wordt, dat er dan overgeschakeld wordt naar de nieuwe versie die meer stroom doorlaat.
Ja, maar die bestaan al. En als je dan niet alsnog een connector aanbied voor externe power als die "slot-extensie" niet aanwezig is. (Dus dubbele component-kosten).

Daarnaast moet je zeker weten dat je clearance houdt met oude moederborden, die geen andere objecten hebben waar jij je nieuwe connector wil plaatsen.
Ik ben geen hardware specialist, maar waarom zou dit backwards-comptabiliteit breken?

Een telefoonlader met usb-c kan ook meer of minder vermogen leveren afhankelijk wat er gevraagd wordt. Het maximum vermogen wat er uit een PCI-e slot getrokken kan worden, hoeft uiteraard geen minimum te zijn.
Maar als het volledig benodigde vermogen voor een kaart niet beschikbaar is op een oude versie van het slot. Dan ben je toch alsnog een extra power-cable nodig in die situaties?
Of de kaart moet omlaag klokken zodat het wel binnen het beschikbare vermogen past. Dat is nu in principe toch ook alzo met de data lijnen?

Als je een kaart die gemaakt is voor PCIe 5 in een PCIe 4 slot steekt, dan is die ook gewoon trager omdat er minder data lanes beschikbaar zijn vziw.
Tsja, en vervolgens heb je precies hetzelfde probleem voor de connector van voeding naar moederbord...

Videokaarten en moederborden met extra voedingscontacten zijn al beschikbaar. Het lijkt alleen nog niet bepaald storm te lopen, en de voordelen lijken voornamelijk cosmetisch te zijn. Grappig idee, maar is het niet véél logischer om (zoals een Youtuber al gedaan heeft) er een dikke XT60-connector op te zetten?
Ik heb het idee dat dit voornamelijk interessant zal zijn in datacenters, als een connectie tussen de cpu en een plx bridge, zodat je met dezelfde hoeveelheid lanes meer dingen kan aansluiten, zoals U.2 opslag en inderdaad GPU's of andere ai processors.

Ik kan mij niet voorstellen dat PCIe 8 echt zal worden toegepast op insteek kaarten laat staan dingen als U.2. Je ziet nu al dat PCIe 5 zo gevoelig is dat tenzij je iets direct in het moederbord steekt, het extreem lastig is om het signaal goed te houden, dat zal met PCIe 8 nog wel 8 keer zo lastig zijn.
Aan de andere kant hoeft niet alles naar PCIe 8 te gaan. Voor een hoop toekomstige toepassingen zal het al héél aantrekkelijk zijn als de insteekkaarten bijvoorbeeld PCIe 5 x8 krijgen, met een gedeelde PCIe 7 x16 van chipset naar CPU. Het is allemaal een kostenoverweging tussen een groot aantal langzame lanes of een klein aantal snelle lanes.

Maar goed, in het AGP-tijdperk was PCIe 5 x16 ook compleet ondenkbaar. Tegen de tijd dat dit in 2035 een keer richting de consumentenmarkt komt, zullen we er wel anders over denken.
Ik denk dat er wel een push komt om pci-e 8.0 dit keer wat sneller op hardware terug te zien. Mits de AI markt niet implodeert. De CXL standaard, simpel gezegd bedoeld voor het aanspreken van RAM over de pci-e bus, maakt daar nu grote sprongen.

Het zorgt er voor dat CPU’s, GPU’s en/of accelerators in een systeem effectief hun ram op één hoop kunnen gooien voor bijv. het inladen van AI modellen. De nieuwe (december 2025) CXL 4.0 standaard haalt op papier de maximale 128GT/s uit pci-e 7.0, de snelheid per lane dus. Met een toekomstige CXL 5 over pci-e 8 16x zal je dus tot theoretisch 512gb/s aan geheugenbandbreedte kunnen realiseren over je totale geheugen pool. Dat concurreert eindelijk met nu gangbare unified memory architecturen in workstations*, maar dan kan je relatief makkelijk ram bij prikken.

*Op bandbreedte, niet op latency. Al is CXL daar wel iets sneller dan het reguliere pci-e.

[Reactie gewijzigd door tweakuwe op 7 mei 2026 15:08]

Het is zelfs nóg mooier: PCIe (en daarmee bijna direct CXL) is tegenwoordig ook verlengbaar over fiber! PCIe 6.0+ heeft ondersteuning voor een "Optical Aware Retimer".

Hiermee kunnen je GPUs, SSDs, en CXL-geheugenbanken tientallen meters van de CPU vandaan staan. Gooi d'r een aantal PCIe switches (of optische switches!) bij, en het is ineens mogelijk om zulke resources on-demand aan bepaalde servers te koppelen. Waarom zou je per uur voor dure GPU cloud-instances betalen als je een losse GPU ook per milliseconde kan huren? :*)

[Reactie gewijzigd door laurxp op 7 mei 2026 15:50]

Het is zelfs nóg mooier: PCIe (en daarmee bijna direct CXL) is tegenwoordig ook verlengbaar over fiber! PCIe 6.0+ heeft ondersteuning voor een "Optical Aware Retimer".

Hiermee kunnen je GPUs, SSDs, en CXL-geheugenbanken tientallen meters van de CPU vandaan staan. Gooi d'r een aantal PCIe switches (of optische switches!) bij, en het is ineens mogelijk om zulke resources on-demand aan bepaalde servers te koppelen. Waarom zou je per uur voor dure GPU cloud-instances betalen als je een losse GPU ook per milliseconde kan huren? :*)
Begin me wel af te vragen of het niet handiger is om over te schakelen naar optisch voor dit soort connectoren. Het stroomverbruik blijft maar toenemen. Natuurlijk moet dan de omzetting van en naar licht wel zuiniger zijn, en een optische connector is waarschijnlijk ook lastiger te maken.

Helaas had ik glas voor mijn thuissituatie ook min of meer over het hoofd gezien. Nou ja, dan maar 10 Gbit/s over koper...
Lang verhaal kort: ja!

Ze zijn hier al expliciet rekening mee aan het houden in de specificatie, de eerste prototypes zijn al te zien, en Nvidia is flink bezig met "co-packaged optics" waarbij de conversie naar licht direct op de chip plaats vind.

Maar dit is voorlopig nog iets voor de datacenter wereld. Op de consumentenmarkt is nog wel wat groeiruimte voor reguliere PCBs, en daarna kunnen we altijd nog een tijdje met iets als MCIO PCIe-over-koperkabel doen.

Om te kunnen reageren moet je ingelogd zijn