Door Daan van Monsjou

Redacteur componenten

We hebben pas net PCIe 5.0 in onze pc's, maar 8.0 staat alweer voor de deur

06-08-2025 • 06:00

49

Artikel

De ontwikkelingen rondom PCI Express volgen elkaar in hoog tempo op: ongeveer elke drie jaar verschijnt een nieuwe versie van de standaard, die steeds een verdubbeling van de bandbreedte biedt ten opzichte van zijn voorganger. De snelheden zijn daardoor exponentieel gestegen sinds de introductie van PCIe in 2002. Tegelijkertijd kan de praktijk dat ontwikkeltempo amper bijbenen. Terwijl PCIe 5.0 nog maar net zijn intrede doet in onze pc’s, is versie 8.0 alweer aangekondigd. In dit artikel zoomen we in op het rappe releaseschema van PCIe en wat dat betekent voor de tweaker.

Bannerafbeelding boven artikel: Photo_HamsterMan / Getty Images

PCIe 8.0 via PCI-SIG
De PCIe 8.0-standaard is nu in ontwikkeling. Bron: PCI-SIG

De PCIe-cadans: elke drie jaar verdubbelt de bandbreedte

Als je je bezighoudt met pc's, dan is de kans groot dat je weleens van PCIe hebt gehoord. Het is een standaard die verantwoordelijk is voor de communicatie tussen allerlei componenten in je computer. Je videokaart communiceert via PCIe met je cpu en datzelfde geldt vrijwel zeker voor je M.2-ssd.

Al die apparaten beschikken over zogeheten PCIe-lanes. Je kunt die zien als banen op een snelweg: hoe meer banen, hoe hoger de bandbreedte en dus ook hoe hoger de snelheden. Je videokaart beschikt doorgaans over zestien PCIe-lanes, hoewel lager gepositioneerde modellen er ook acht of zelfs vier kunnen hebben. Ssd's beschikken doorgaans ook over vier PCIe-lanes.

Elke lane biedt een bepaalde bandbreedte. De huidige mainstreamversie, PCIe 5.0, biedt bijvoorbeeld bandbreedtes van 4GB/s per lane in beide richtingen. Het wil zeggen dat een ssd met vier PCIe 5.0-lanes in theorie snelheden kan halen tot 16GB/s, hoewel daarbij uiteraard ook andere zaken komen kijken, zoals de ssd-controller en de gebruikte nandgeheugenchips.

Het releaseschema van PCIe is de afgelopen generaties een beetje heen en weer geschommeld, maar momenteel heeft de standaard een duidelijke planning. Grofweg elke drie jaar komt de PCI-SIG, de belangenorganisatie die verantwoordelijk is voor PCIe, met een nieuwe versie. Uiteraard brengen die updates de nodige technische wijzigingen met zich mee, maar uiteindelijk is het eindresultaat altijd hetzelfde: de bandbreedte per lane wordt met elke nieuwe versie verdubbeld. PCIe 5.0 biedt 4GB/s per lane, bij 6.0 is dat 8GB/s en bij 7.0 wordt de bandbreedte verhoogd naar 16GB/s en zo verder.

De geschiedenis en toekomst van PCIe
PCIe-versie Introductiedatum Datarate per lane Datarate ssd's (x4) Datarate gpu's (x16)
1.0 Juli 2002 250MB/s 1GB/s 4GB/s
2.0 Januari 2007 500MB/s 2GB/s 8GB/s
3.0 November 2010 1GB/s 4GB/s 16GB/s
4.0 Juli 2017 2GB/s 8GB/s 32GB/s
5.0 Mei 2019 4GB/s 16GB/s 64GB/s
6.0 Januari 2022 8GB/s 32GB/s 128GB/s
7.0 Juni 2025 16GB/s 64GB/s 256GB/s
8.0 2028 (gepland) 32GB/s 128GB/s 512GB/s

PCIe 8.0 maakt zijn debuut in 2028

Het releaseschema is daarmee fors sneller dan de praktijk. In de pc-wereld begint PCIe 5.0 net pas een beetje mainstream te worden. De standaard werd in 2019 uitgebracht, maar maakte onder consumenten zijn debuut in de Intel Alder Lake-cpu's uit 2022. AMD volgde kort daarna met zijn Ryzen 7000-cpu's.

De bijbehorende PCIe 5.0-hardware volgde nog wat later. De eerste Gen5-ssd's verschenen bijvoorbeeld pas in de loop van 2023 en beginnen nu pas een beetje door te breken. De eerste PCIe 5.0-videokaarten verschenen zelfs eerder dit jaar pas, met de RTX 50-serie van Nvidia en de RX 9000-videokaarten van AMD.

Toch blijft de PCI-SIG stevig doorstampen. Versie 6.0 is jaren geleden al afgerond en staat inmiddels voor de deur, de 7.0-standaard is ook afgerond en bovenal: versie 8.0 werd op dinsdag al aangekondigd. Zo loopt de PCIe-standaard dus bijna drie versies voor op de gewone wereld, hoewel PCIe 8.0 natuurlijk pas in 2028 gereed is. Dat wil bovendien niet zeggen dat PCIe 8.0 in 2028 daadwerkelijk gebruikt gaat worden. Zodra de PCI-SIG een nieuwe PCIe-versie vrijgeeft, kunnen fabrikanten daadwerkelijke hardware gaan ontwikkelen die daarvan gebruikmaakt.

PCIe 8.0 via PCI-SIG
De PCIe-bandbreedtes stijgen exponentieel. Bron: PCI-SIG

Vooral interessant voor het datacenter

Het is dan ook niet gek dat een nieuwe PCIe-standaard niet meteen gelijkstaat aan nieuwe, snellere hardware; die volgt pas enkele jaren later. Bovendien liggen de prioriteiten daarbij duidelijk op datacenters en enterpriseklanten en niet zozeer op pc's of hobbyisten.

We zien dat ook terug bij de introductie van PCIe 6.0. Die standaard werd in 2022 afgerond en wordt naar verwachting vanaf volgend jaar in de praktijk toegepast. Micron bevestigde onlangs dat de eerste PCIe 6.0-ssd-samples zijn verstrekt aan grote enterpriseklanten, maar de eerste serverplatforms met Gen6-ondersteuning worden in 2026 verwacht. AMD demonstreerde PCIe 6.0 eerder al op zijn EPYC-platform op basis van Zen 6, dat volgend jaar uitkomt.

Voor consumenten ligt dat nog een stuk verder in de toekomst. Naar verwachting zullen de Ryzen-cpu's op basis van Zen 6 nog geen PCIe 6.0 ondersteunen, evenals Intels komende Nova Lake-processors. Sterker nog: de baas van Silicon Motion, een bekende fabrikant van ssd-controllers, verwacht dat de eerste PCIe 6.0-consumentenhardware pas rond 2030 op de markt zal komen, ongeveer acht jaar na de introductie van die standaard.

Volgens de Silicon Motion-ceo hebben systeembouwers momenteel nog amper interesse in PCIe 6.0 voor consumenten. Cpu-makers AMD en Intel zouden de introductie ervan op hun cpu-platforms zelfs nog niet eens willen bespreken. Dat zal onder andere komen door de kosten. PCIe 5.0-ssd's waren bij introductie al fors duurder dan hun PCIe 4.0-tegenhangers en worden ook nog eens een stuk warmer. Dat zal bij PCIe 6.0 nog meer het geval zijn.

In de komende generaties zullen nieuwe PCIe-versies dan ook vooral relevant worden voor datacenters en andere enterprisetoepassingen, zoals AI-ontwikkeling of andere hpc-usecases. De servers in datacenters bevatten een enorme hoeveelheid apparaten die onderling communiceren via PCIe, zoals gpu's, ssd's en netwerkapparatuur. Dat soort systemen verwerken onderling gigantische hoeveelheden data en een hogere bandbreedte zorgt ervoor dat dat sneller en efficiënter kan gebeuren. Bovendien zullen de kosten en warmteproductie in dit soort servers een minder grote rol spelen.

Daarnaast ondervindt PCIe op datacentergebied ook flinke concurrentie van NVLink, het protocol dat Nvidia gebruikt voor communicatie tussen gpu's en andere datacenterhardware. De huidige NVLink-versies voor Nvidia's Blackwell-gpu's bieden bandbreedtes van 100GB/s per link, een stuk sneller dan de 32GB/s per lane van PCIe 8.0 dat nog jaren op zich laat wachten. Nu NVLink steeds meer wordt opengesteld voor andere chipmakers, is de noodzaak voor PCIe om dat bij te benen wellicht ook gegroeid.

NVLink-bandbreedtes
Nvidia's NVLink-protocol is nu al een stuk sneller dan toekomstige PCIe-versies. Bron: Nvidia

Is dat eigenlijk wel erg?

Van dat hoge ontwikkeltempo zul je voorlopig dus echter weinig merken. Het ligt voor de hand dat het nog érg lang zal duren voordat je PCIe 8.0 daadwerkelijk in je desktop kunt verwachten. PCIe 6.0 is nog ver weg voor de gewone gebruiker, 7.0 is amper een stip op de horizon en het duurt nog drie jaar voordat fabrikanten PCIe 8.0-hardware zelfs maar kunnen gaan ontwerpen, laat staan uitbrengen.

Het is de vraag of dat wel zo erg is. De noodzaak voor nieuwe PCIe-versies voor consumenten is namelijk niet zo hoog. Snellere ssd's zijn op papier natuurlijk leuk, maar de huidige PCIe 4.0- en 5.0-ssd's vormen in de praktijk nog altijd geen bottleneck bij normaal pc-gebruik, zoals gaming en kantoortoepassingen.

Bij videokaarten speelt dat nog meer: de gpu's van dit moment kunnen nog prima overweg met oude PCIe-versies. Zelfs de RTX 5090, de krachtigste PCIe 5.0-videokaart op de markt, draait nog prima op een PCIe 3.0-interface uit 2010. Uit uitgebreide tests van TechPowerUp blijkt dat de RTX 5090 in een PCIe 3.0-slot gemiddeld nog altijd 96 procent van de prestaties haalt ten opzichte van PCIe 5.0.

Kortom: de ontwikkeling van nieuwe PCIe-versies gaat in hoog tempo door, maar de brede adoptie daarvan in consumentenhardware laat nog wel even op zich wachten. Dat is geen groot probleem: voor doorsnee pc-gebruikers bieden de huidige standaarden al ruimschoots voldoende prestaties. Voorlopig blijft de PCIe-snelweg voor consumententoepassingen dus meer dan breed genoeg, terwijl datacenters en supercomputers verder zullen profiteren van de rappe ontwikkelingen.

Redactie: Daan van Monsjou Eindredactie: Marger Verschuur

Lexar NM990 4TB
Een PCIe 5.0-ssd

Lees meer

Reacties (49)

Sorteer op:

Weergave:

Wat mij vooral interesseert is of PCI-SIG bij het ontwikkelen van de nieuwe standaard ook al weet dat het technisch mogelijk is in de praktijk of dat men er van uit gaat dat het tegen de introductie van de nieuwe standaard wel zal kunnen door de vooruitgang van de techniek. Er komen steeds hogere eisen aan moederborden om deze hogere snelheden te kunnen halen en er is wellicht ergens wel een grens, zeker als men backwards compatible wil blijven.
Dit vroeg ik me ook al af! Die standaarden zijn allemaal theorie, "makkelijk" om dus te roepen dat PCIe versie X zoveel bandbreedte gaat hebben. Wat ik vooral niet snap: waarom knallen ze PCIe 6.0 niet direct naar 128GB? Nvidia toont aan dat NVlink het technisch al kan, dus waarom nog aanmodderen met al die versies ervoor? In het huidige tempo zou dat nog tot PCIe 10.0 duren.
Wat ik vooral niet snap: waarom knallen ze PCIe 6.0 niet direct naar 128GB? Nvidia toont aan dat NVlink het technisch al kan, dus waarom nog aanmodderen met al die versies ervoor? In het huidige tempo zou dat nog tot PCIe 10.0 duren.
Omdat het een kostenkwestie is, geen technische. SSDs op pcie5 waren al duidelijk minder interessant om te maken (vertragingen, eerste producten waren gewoon een soort omgesmurfde pci4, en ze zijn duur).

Dat NVLink het kan moet je namelijk wel in een bepaald daglicht zien; de gpus in datacenters kosten tienduizenden dollars en dus zou het extreem zonde zijn om daar enkele procenten performance te laten liggen door relatief slome interconnectiviteit. En dus mag NVLink ook wat kosten. Maar geen consument gaat akkoord met desktop GPUs of SSDs die voor datacenterprijzen over de toonbank gaan.

En zelfs voor datacenters is pci-e 6.0 voor een hele hoop toepassingen voldoende. Huidige versies van Nvidias supersnelle link-oplossingen is echt enkel bedoeld voor het in een groot netwerk hangen van GPUs voor het samen rekenen aan hetzelfde AI-model.

[Reactie gewijzigd door A Lurker op 6 augustus 2025 09:51]

Er zitten in de PCI-SIG board afgevaardigden van een aantal bedrijven die daadwerkelijk de apparatuur maken. Dus er zal ook gekeken worden naar praktijk en plaats enkel theorie. Vergelijkbare constructies zie je bijvoorbeeld bij het 'HDMI Forum' die gaan over de standaard van HDMI.
As of 2024, the board of directors of the PCI-SIG has representatives from: AMD, ARM, Dell EMC, IBM, Intel, Synopsys, Keysight, NVIDIA, and Qualcomm.
Hogere bandbreedte geeft wel meer uitdagingen voor stabiliteit. DDR zal hier ook mee te maken krijgen. Dus ik ben benieuwd in hoeverre we de huidige ATX standaard (hoe langer de trace hoe meer kans op storing) nog bruikbaar en betaalbaar blijft bij dit soort nieuwe standaarden.
is daaar CUdimmm niet handig bij kortere traces enzo?
CU DIMM hebben een CKD (klokchip) erop, meer snelheid want beter signaal en dan meer snelheid.

CAMM2 is de kortere traces, plus dual channel in een klein pakket, en scheelt wat ruimte.

CAMM2 kan ook de klokchip hebben, kleiner pakket en klokchip en kortere traces. Maar lijkt niet veel uit te maken in eerste benchmarks. Maar er is ook geen enorm nadeel qua snelheid en lijkt me dat er wel wat rek in zit aangezien dat een heel nieuwe chip en manier van aansluiten is.
aaah excuses die haalde ik even door mekaar dan inderdaad
In (rack)servers zie je daarom nu al vaker kabelverbindingen komen, juist voor dit probleem.
PCIe 5.0 heeft al retimers nodig op grotere borden. PCIe 6.0 zal dat nog meer het geval zijn, naast dat je hoge kwaliteit PCB moet hebben.

Een DTX bord is mooi vierkant en kun je de extra breedte gebruiken voor de ssd's, heel korte traces. Of anders mini-DTX of ernaast als vervanging voor mini-ATX. CAMM2 DIMM erop scheelt ook weer ruimte (niet veel maar als je moet proppen telt iedere cm²).
Zou het niet zo zijn dat fabrikanten (al dan niet in opdracht van PCI-SIG) een Proof of Concept maken en daarna wordt bekeken of het een standaard kan worden?

Anders steekt PCI-SIG veel tijd in het opzetten van de standaard die uiteindelijk helemaal niet haalbaar is, met alle planning problemen die daarna volgen.
En dan niet alleen bij Moederborden fabrikanten maar ook de GPU-fabrikanten en de makers van de M.2 SSD-controllers!
Als men blijft innoveren dan zal dat nog lang niet ter sprake komen maar je hebt gelijk ert moet ergens een grens liggen maar voorlopig blijven ze voorborduren op een ouder systeem dast steeds vernieuwd word.
Het probleem is niet het behalen van de snelheid, op proprietary systemen zijn er al veel snellere links. Het probleem is het bepalen hoe je zulke snelheden implementeert zodat iedereen overeenkomt wat ze moeten verwachten. Daarnaast moeten ze ook een referentie implementeren.

Daarmee dat PCIe zover “voorloopt” PCIe6 is nog maar net in de datacenter aan het komen voor “vooruitlopers” terwijl PCIe5 vandaag “standaard” is. De implementatie van PCIe7 en problemen in de standaard moeten moederbordfabrikanten van server systemen nog uitvissen buiten de referentie, dus PCIe8 moet van de fouten en implementatieproblemen in PCIe7 leren.

Dit gebeurt ook in het CPU fabricatie, wat Intel vandaag uitbrengt is 2 jaar geleden voor het eerst in de oven gebakken, echter architecten zijn er al 2 jaar van voordien mee bezig. Dus ze weten al wat vb ASML kan doen, maar voor het laatste procedé zijn gewoon niet genoeg machines beschikbaar.

Het hangt allemaal mooi aan elkaar. Dat heet marktwerking en zie je ook in andere industrie zoals de bouwvakkers, die steeds sneller en betere producten vinden, echter jij weet er niet veel van omdat eerst speciale architecturen gebruik maken, dan komt het in geavanceerde commerciële bouw, tegen dat het in een huis komt zijn we al 5-10 jaar verder.
De voorlaatste paragraaf is wat mij betreft wel de crux: de snelheid van de lanes blijft exponentieel stijgen terwijl wat je erop aansluit afvlakt.

De belangrijkste reden om ´bij te blijven´ met je mobo wordt dan misschien wel omdat low-midrange gpu´s minder lanes kunnen gaan gebruiken. Dat begint nu al maar gaat in de toekomst enkel logischer worden.

Voor ssd´s idem: beter meer slots dan ongebruikte (theoretische) snelheid.
De voorlaatste paragraaf is wat mij betreft wel de crux: de snelheid van de lanes blijft exponentieel stijgen terwijl wat je erop aansluit afvlakt.
Bij videokaarten presteert 4.0 inmiddels al meetbaar slechter. Zeker bij te weinig VRAM (als er dus vaker geswapped moet worden) heeft dit impact.
Inderdaad, wat mij betreft slaat de voorlaatste paragraaf in dit artikel de plank juist helemaal mis. Inderdaad, voor een RTX5090 maakt PCIe 4.0 versus 5.0 niet zo veel uit, omdat die videokaart de extra bandbreedte juist niet nodig heeft.

Ga je echter kijken naar een model met iets minder geheugen (VRAM), zoals de RX 9060 XT 8GB, dan wordt het verschil tussen PCIe 4.0 en 5.0 opeens duidelijk merkbaar, omdat er veel meer data over de PCIe-verbinding moet worden getransporteerd. Die data past niet meer allemaal tegelijk in het geheugen van de videokaart.

Dat is bijvoorbeeld goed te zien in dit artikel. Je ziet daar steeds vier screenshots naast elkaar, waarin je het verschil tussen PCIe 4.0 en 5.0 kunt aflezen in de middelste twee screenshots. Het artikel laat ook zien dat dezelfde videokaart met 16GB geheugen op PCIe 3.0 vaak nog veel sneller kan zijn dan PCIe 5.0 met maar 8GB; dat zie je steeds in het rechter screenshot. Geen wonder dat de PCIe-versie geen invloed heeft op de snelheid van een RTX5090 met 32GB geheugen }:O

[Reactie gewijzigd door Jerrythafast op 6 augustus 2025 16:13]

Hoe kan dat dat pcie 3.0 vaak sneller is dan 5.0.
PCIe 3.0 + 16 GB versus PCIe 5.0 + 8 GB: de hoeveelheid lokaal RAM kan belangrijker zijn dan een snellere bus.
In die test word een 16GB kaart gemeten. De resources hoeven in dat geval dus niet via de PCI bus opgehaald te worden maar kunnen uit het veel snellere VRAM gehaald worden. Dat is minimaal honderd keer sneller.
Je haalt een terecht punt aan als het gaat om de uitkomst voor kaarten met weinig VRAM. Maar het punt is eigenlijk een beter argument voor het stoppen met kaarten met 8GB VRAM.

Ik kan mij best scenario's bedenken -vooral als je de tweedehands markt bekijkt- dat het slim is om bij een beperkt budget te gaan voor een hogere pcie versie om een kaart met weinig vram te kunnen 'boosten'. Zeker nu pcie 5 in betaalbare (lees: 130 euro) moederborden te vinden is.

Maar bij toekomstige builds zie ik zelden dat iemand met een 'beperkt' budget gaat voor de allernieuwste pcie versie om er dan vervolgens een goedkope videokaart in te zetten... that makes no sense. :)
Wat we dus effectief zien gebeuren is dat straks op een soort meerdere apparaten (lees chips op een printplaat) aangestuurd kunnen worden. Dat is allicht op dit moment voor consumentenhardware niet zo interessant, maar misschien voor embedded apparaten wel. (Medische apparatuur, industriële toepassingen, enz. Ik zou geen concreet voorbeeld kunnen noemen.
De die size halveert met Hyper-NA Euv. Het aan elkaar knopen van chips zal dus veel vaker moeten gebeuren. De communicatie tussen deze chips gebeurt door middel van UCIe. UCIe maakt gebruik van CXL en PCIe. Ik kan mij zo voorstellen dat PCIe hiervoor doorontwikkeld word.
Het voorbeeld van de 5090 op PCIe 3.0 is dan ook een extreem slecht voorbeeld.
  • Een 5090 heeft 16 lanes en dus bij PCIe 3.0 een nog redelijke bandbreedte.
  • Een 5090 heeft 32Gb memory en zal dus in games nooit terug grijpen op system memory en dus de PCIe bus daarvoor niet extra belasten.
Beide punten gelden juiste niet voor een aantal moderne budget GPU's waarvan een aantal al terug gaat naar 8 lanes en het veelbesproken topic is 8Gb nog wel genoeg in 2025. Vooral combinatie van meerdere factoren (8 lanes op PCIe 3.0 en te weinig vram) levert juist aanzienlijke vertragingen op.

Dus bouw je iets met te weinig vram zorg dan dat je liefst PCIe 5.0 hebt en 16 lanes dan valt het verlies nog enigzins mee.

De besparing op aantal lanes voor GPU is natuurlijk handig voor als je steeds meer M2 slots op je MB wilt. Maar ook die M2 slots kunnen bijvoorbeeld met 2 of met maar 1 lane worden aangesloten. Dus hoe sneller de lanes hoe meer je ze kunt verdelen.
& @Wolfos @Jerrythafast

Mijn opmerking slaat niet zozeer op de 5090 maar wel op de evolutie van pcie-snelheid vs wat een gpu nodig heeft.

Het artikel van Techspot laat net zien dat wanneer je kaart structureel te weinig vram heeft (wat ik niemand zou aanraden) het nét die hoge snelheid is van pcie die de schade enorm kan beperken. Met pcie 3 stort de boel van de klif, met pcie4 wordt het net speelbaar en met pcie5 vlakt de achterstand nog vrij imposant af.

"Who needs GDDR when you got PCIe 5?" zou de slogan kunnen zijn ;)

Het is dus niet zo erg dat je vandaag nog een mobo met pcie 5 moet kopen want 1) met een degelijke pcie6-kaart ga je later niks verliezen en 2) als iemand je op dat moment toch zou dwingen een pcie6-kaart te kopen met te weinig vram op ga je met dat mobo relatief beter zitten dan vandaag met pcie4&5
Dat zou handig zijn, maar hogere PCIe versie betekent ook dat je moet uitkijken voor signaalintegriteit, lange trace = retimer chip. Dat moet je dan afzetten tegen het voordeel minder lanes.

Dat gezegd hebbende, voor PCIe 6.0 zou minder lanes per apparaat een goede optie zijn, dan de norm 2 lanes per ssd maken, en 8 lanes voor een GPU. Dan is meer lanes voor een CPU (kost geld) ook minder nodig.
De huidige NVLink-versies voor Nvidia's Blackwell-gpu's bieden bandbreedtes van 100GB/s per link, een stuk sneller dan de 32GB/s per lane van PCIe 8.0 dat nog jaren op zich laat wachten. Nu NVLink steeds meer wordt opengesteld voor andere chipmakers, is de noodzaak voor PCIe om dat bij te benen wellicht ook gegroeid.
Nu weet ik niet of er met Lane of link hetzelfde wordt bedoeld. Maar ik ga hier in mijn onderstaande opmerking even vanuit.

Als Nvidia met NVlink nu al 100gb per lane bied, hoe gaat pci-e dat ooit bijbenen?
PCI-E 8.0 wordt pas in 2028 vrijgegeven, en ik kan mij voorstellen dat Nvidia ook niet stil zal zitten.
De kans dat Nvidia tegen die tijd een nieuwe versie uit zal brengen is misschien wel waarschijnlijk.
Dit hoeft uiteraard geen 200gb te zijn, een kleine update van 150 zou ook kunnen maar zelfs dan blijft pci-e hopeloos achter lopen.
Ik kan mij voorstellen dat NVlink op deze manier pci-e best eens van de markt zou kunnen duwen.

Nu zeggen dat er voor consumenten geen cases te bedenken zijn vind ik een non-urgument omdat dit kip-ei verhaal natuurlijk altijd terugkomt.
Als dit soort standaarden betaalbaar beschikbaar zouden zijn voor consument-computers, zouden we een hele andere hardwareontwikkeling kunnen zien.
-GPU's, CPU's en SSD's die op hele andere manieren kunnen samenwerken door elkaars cache rechtstreeks uit te kunnen lezen
-Een high-end GPU zoals een RTX5090 aan je laptop kunnen koppelen zonder prestatieverlies.
-...(er zullen genoeg mogelijkheden zijn die ik hier niet benoem)

Tuurlijk is NVlink een vendor-lock op dit moment. Maar dit hebben we bij meer standaarden gezien in het verleden die uiteindelijk compleet opengesteld zijn, omdat de markt dit nodig heeft. (compleet open wil niet zeggen dat dit gratis is. Er zijn genoeg patenten die iedereen kan gebruiken met een redelijke betaling zoals we dat ook zien in de standaarden voor draadloze comminicatie)
Op dit moment is er voor consumenten geen nood. Zelfs PCIe 5.0 is voor bijna alles wat een consument vandaag doet overkill, en dat zal mogelijks nog wel enkele jaren zo blijven. Een verdubbeling van snelheid elke 3 jaar is voor consumenten niet nodig.

Het is vooral de professionele wereld die daar nood aan heeft. Denk aan AI clusters die een enorme hoeveelheid data zo snel mogelijk moeten verwerken, waarbij de AI chips en de storage elkaar moeten kunnen blijven bijhouden. Daarom ook dat het net Nvidia is dat met zulks een oplossing is gekomen. Maar de huidige GPUs voor consumenten? Die hebben niet eens PCIe 5.0 nodig.

En dat is geen "640k ought to be enough" uitspraak. In de toekomst gaan we inderdaad wel nut hebben van snellere standaarden. Maar in de consumentenwereld moet je altijd een balans vinden in prijs/prestatie en op enkele uitzonderingen na ga je dus niet snel nood hebben aan dat soort van snelheden.
Denk dat consumentenapparatuur inderdaad of gewoon achterblijft of meerdere generaties gaat overslaan.
De extra kosten door de hogere eisen die PCIe 4.0 en 5.0 met zich meebrengen dat was destijds iig niet iets waar ik op zat te wachten. De extra moederbord complexiteit die 6, 7 en 8 met zich meebrengen zal de consument nu en de komende paar jaar weinig trek in hebben. Daarnaast maakt het chipsets ook weer een stuk duurder en heter. Eerste paar PCIe 4.0 moederborden met actieve koeling was iig niet iets waar ik interesse in had.
Ik vroeg me ook meteen af of links/lanes overeen komen. Volgens nvidia: Per blackwell-GPU worden 18 NVlink verbindingen ondersteund, totaal dus 0.1 TB/s * 18 links = 1.8 TB/s.
https://www.nvidia.com/en-us/data-center/nvlink/

Verder lijkt het me onwaarschijnlijk dat NVlink PCI-e vervangt (voorlopig in ieder geval). Het wordt beschreven als een standaard voor het verbinden van GPUs onderling, of GPUs met CPUs. Maar dat laatste is alleen mogelijk met nvidia's grace hopper chips, waarin je GPU+CPU in een enkel pakket koopt. In de praktijk wordt het dus alleen toegepast voor systemen met meerdere GPUs, wat voor consumenten niet zo gangbaar is.
Aldus Wikipedia: NVLink lijkt dit ook multi-lane te zijn. De vraag is terecht in hoeverre de vergelijking met een pci lane klopt. Ik neig erna dat het niet helemaal klopt.
Je bedoelt zoals DirectStorage and P2PDMA? Dat is al langer een ding.

Ook zie ik Nvidia niet een redelijke betaling eisen. In het begin wel, gratis zelfs, maar als iedereen het gebruikt gaan ze innen natuurlijk.
Met hogere PCIe-snelheden wordt het realistischer om modules buiten het moederbord te plaatsen zonder noemenswaardig verlies. Externe GPU’s of AI-accelerators die extern via één kabel worden aangesloten met minimale latency. Het kan nu al natuurlijk. De GPD Win Max 2, gekoppeld via OCuLink (vier PCIe 4.0-lanes) aan een RTX 5090, haalt zonder veel moeite meer dan 100 fps op 4K Ultra in Cyberpunk 2077. Met PCIe 6.0+ in aantocht, wordt dit soort setups alleen maar interessanter denk ik. Minder latency, meer bandbreedte, en dus meer ruimte voor modulaire (schaalbare) hardware.
PCs zijn schaalbaar en modulair genoeg, en in een kost effectieve manier. Met de extreem hoge kosten van externe grafische kaarten zal er nagenoeg geen vraag voor zijn bij desktops.
Zelfs voor laptops de laatste keer dat ik ernaar keek vond ik het belachelijk duur, een laptop die het aankan (juiste aansluitingen en krachtige CPU) + externe CPU kostte letterlijk net zoveel als een complete compacte desktop + een lekker licht laptopje waar ik iig persoonlijk genoeg aan heb 'on the go'
Dat moet dan met actieve en zeer prijzige kabels. Maximale weerstand voor een PCIe 5.0 riser zonder problemen was geloof ik 28Ω waar dat bij PCIe 4.0 nog 56Ω (of in die buurt iig) was.

Voor PCIe 6.0 vermoed ik dat je of flink lager zit en echt op mag gaan hoesten of een optische kabel moet gaan gebruiken.
ik kijk uit naar de pcie 8.0 x1/x2 gpu's en ssd's met moederborden waar meer io op kan door gebruik van minder lanes.
Ja ik ook! Ik loop nu ertegen aan dat ik geen lanes vrij heb door captures card, netwerk kaart, GPU. Zou heerlijk zijn om meer slots te hebben zonder dat je snelheid gehalveerd word omdat je teveel slots gebruikt.
Al decennia lang, knijpen zowel Intel als AMD het aantal PCIe lanes op consumenten platforms zodanig dat je doorgaans genoeg lanes hebt voor 1 GPU (16 lanes), 1 of 2 M2 SSDs (8 lanes) en de rest wordt gemultiplexed over een chipset die op zichzelf 4-8 lanes heeft.

Dan praat je over totaal 24 of 28 lanes.


Wil je significant meer lanes, dan moet je overstappen naar HEDT platform (Threadripper).

Dan krijg je gelijk 2x zoveel lanes.


Overigens, ik heb nu een PCIe 3 moederbord en in mijn onderste slot (PCIe 2.0, 4 lanes) zit een 10G netwerkkaart dit (net aan) voldoende bandbreedte krijgt
ze hebben hun eigen moore's law gemaakt, maar elk klein kind ziet dat dit onhoudbaar is. De vereisten worden zo hoog dat het voor fabrikanten niet meer haalbaar of rendabel gaat zijn om hier producten voor te blijven bouwen die 3 jaar later al opnieuw vervangen zouden moeten worden omdat de boel weer dubbel zo snel zou kunnen werken.
ze hebben hun eigen moore's law gemaakt, maar elk klein kind ziet dat dit onhoudbaar is.
Als je naar de geschiedenis van PCI kijkt zie je dat het absoluut niet het geval is. Ze passen zich aan aan de marktnoden en technische ontwikkelingen.

Soms zit er 7jaar tussen een verdubbeling, soms 3jaar. Alles hangt van het tijdperk af en de technologische ontwikkeling.
Een PCIe 8.0 SSD kan tegen die tijd de topsnelheid maar een milliseconde aanhouden, omdat ie anders in brand vliegt.
Is dat nog altijd het geval met een heatsink en een (goede) fan?

In laptops zit het al vast gesoldeerd en bij duurdere performance moederborden heb je een heatsink + fan.

Ik snap goed wat je bedoelt, want ze worden enorm warm, geloof dat die zelf met een heatsink 70C kan aanraken hier bij echte force load, al moet ik het heat kussen vervangen.
Gaan we dan toch weer naar 2,5"- of 3,5"-schijven? In de enterprisemarkt zijn die nooit weg geweest.
Zoals beschreven is PCIe Gen 3 eigenlijk nu pas aan zijn limiet. En tenzij je intensief schrijft naar je SSD maakt een PCIe Gen 5 schijf een zeer marginaal verschil.

Dus dat een PCIe Gen 6 pas in 2030 uitkomt is denk ik niet zo erg. Dan zitten de meeste mensen nog op PCIe gen 4.

Wellicht dat bij games die DirectStorage API van Windows gebruiken dit verschil groter is. Het lijkt een paar procent te schelen.

[Reactie gewijzigd door Dekar op 6 augustus 2025 08:07]

Dat de standaarden van 7 en 8 bepaald zijn, houd niet in dat ze er allemaal komen, men kan best besluiten eentje over te slaan.

Ik zie ook nog wel een standaard overgeslagen worden door veel gebruikers in de praktijk.
- PCI1.0 en 1.1 hadden geen lang leven, op retailschappen bleven AGP kaarten tot in de tijd van PCI2.0 standaard, met de uitzondering van de mensen die SLI-opstellingen maakten.
- Idem PCI3.0, was in het begin alleen op high-end chipsets beschikbaar terwijl de trede eronder het nog gewoon met 2.0 moest doen. Kijk naar sommige AM4 opstellingen, Zowel het bord als de CPU kan zorgen dat je slechts op 3.0 blijft
- PCI 4.0 is nu mainstream in 2025, en PCI 5.0 voor de enthousiasteling/early adopter, en low-end zal mogelijk nog 3.0 draaien zonder dat die het doorheeft omdat die het niet controleerd.
Alleen tussen 3.0 en 4.0 zat een gat van 7 jaar, de rest allemaal rond de 3 jaar inderdaad, en steeds precies een verdubbeling van de bandbreedte/snelheden.. Dat komt op mij over als theoretisch bedachte limieten c.q. standaarden waar de praktijk zich dan maar op aan moet passen om zich een bepaalde standaard nummertje te mogen noemen.. Dan is het dus ook niet zo vreemd dat de praktijk (zeker voor consumenten) er flink op achter loopt..

Op dit item kan niet meer gereageerd worden.