PCI-SIG rondt PCIe 6.0-standaard met overdrachtssnelheden van 128GB/s af

De organisatie die de PCI-standaard overziet heeft de PCIe 6.0-standaard gereed. De maximale bandbreedte is ten opzichte van PCIe 5.0 verdubbeld. Naar verwachting verschijnen binnen twaalf tot achttien maanden de eerste producten die de standaard ondersteunen.

De 6.0-standaard maakt volgens PCI-SIG overdrachtssnelheden tot 128GB/s mogelijk wanneer van 16 lanes gebruik wordt gemaakt, een verdubbeling ten opzichte van PCIe 5.0. In eerste instantie zijn de hogere snelheden vooral handig voor servers, aangezien in datacenters een continue vraag naar meer bandbreedte is, voor onder andere AI- en hpc-toepassingen. PCI-SIG meldt tegenover AnandTech dat PCIe 6.0 binnen twaalf tot achttien maanden bij commerciële producten in gebruik wordt genomen. Dat zullen naar verwachting producten voor de servermarkt zijn. Consumentenproducten met ondersteuning voor de standaard, zoals ssd's, volgen dan op een later moment. Het gebruik van PCIe 5.0 voor ssd's komt op dit moment pas net op gang.

Om de verdubbeling van de bandbreedte mogelijk te maken wordt er bij de PCIe 6.0-standaard pulse-amplitude modulation 4, ofwel pam4, met een flit, ofwel een flow control unit, toegepast. Daarmee stapt de standaard af van de non-return-to-zero-techniek, die al sinds versie 1.0 wordt gebruikt, De pam4-modulatie gebruikt vier spanningsniveau's om 2 bits aan data te coderen. Dit leidt tot hogere datatransmissie, maar maakt het signaal ook fragieler en gaat dan ook gepaard met een hogere bit error rate. Om dit tegen te gaan, maakt PCIe 6.0 gebruik van een lichtgewicht techniek voor forward error correcting, gebaseerd op de waarschijnlijkheid van bitfouten, door middel van first bit error rate-parameters.

In 2019 kondigde de organisatie de PCIe 6.0-standaard al aan, met de verwachting dat in 2021 de specificatie afgerond zou zijn. De bedoeling is dat er om de drie jaar een nieuwe standaard uitgebracht wordt met een dubbele bandbreedte. PCI-SIG zegt dat de standaard backwards compatible is met alle vorige PCIe-generaties.

PCIe-roadmap

PCI-versie Codering Datarate Bandbreedte
×1 ×4 ×8 ×16
1.0 Nrz 8b/10b 2,5GT/s ~256MB/s ~1GB/s ~2GB/s ~4GB/s
2.0 Nrz 8b/10b 5GT/s ~512MB/s ~2GB/s ~4GB/s ~8GB/s
3.0 Nrz 128b/130b 8GT/s ~1GB/s ~4GB/s ~8GB/s ~16GB/s
4.0 Nrz 128b/130b 16GT/s ~2GB/s ~8GB/s ~16GB/s ~32GB/s
5.0 Nrz 128b/130b 32GT/s ~4GB/s ~16GB/s ~32GB/s ~64GB/s
6.0 Pam4 1b/1b (met flit-encoding) 64GT/s ~8GB/s ~32GB/s ~64GB/s ~128GB/s

Door Kevin Krikhaar

Redacteur

12-01-2022 • 13:14

63

Submitter: VoDkA12

Reacties (63)

Sorteer op:

Weergave:

Hoe komt het eigenlijk dat we zolang vast zaten op pci-e 3 en nu opeens als een speer doorgaan naar pci-e 6?
Omdat er ook een grote behoefte voor is in de datacenter markt.

Neem bijvoorbeeld de netwerkverbindingen:
100 Gb/s = 12,5 GB/s = PCIe 3.0 x16 (~16 GB/s)
400 Gb/s = 50 GB/s = PCIe 5.0 x16 (~64 GB/s)

In 2018:
nieuws: Ethernet-alliantie zet 1,6TbE op zijn roadmap
800 Gb/s = 100 GB/s = PCIe 6.0 x16 (~128GB/s)
En voor de 1,6 Tb/s = 200 GB/s = Dan heb je dus al PCIe 7.0 x16 nodig die zo'n 256 GB/s kan versturen.

Dan heb je ook nog GPU's die in datacenters ook veel data kunnen uitwisselen wat nu bij nVidia via de eigen NVLink gaat, maar straks wellicht gewoon over de PCIe bus kan als deze voorziet in voldoende bandbreedte. Zelfde kan je natuurlijk stellen over andere type accelerators.
Even gebaseerd op wat ik weet/logisch vind, als er Tweakers zijn die me kunnen verbeteren, ga vooral je gang!

De versies van PCIE die we nu hebben/ er aankomen zijn vooral interessant voor SSD's. Voor datacenters en/of creators die veel data schrijven scheelt dit een hoop tijd. GPU's hebben hier niet heel veel aan, gezien er nog een aardige overhead op PCIE 4.0 zit, zelfs als je een 3090Ti Super zou hebben.

Voor je vraag: waarom hebben we zo lang op PCIE 3.0 hebben gezeten: voor zover ik weet zijn er geen videokaarten geweest die toen (2080Ti/5700XT) tegen het limiet van PCIE 3.0 aan zaten, maar kwamen hoge snelheid NVME SSD's net/meer op in de markt.
Leuk om te zien, maar misschien komen we in de fase dat snelheid niet meer zo belangrijk is maar er meer op verbruik en andere zaken gefocust kan worden.
Met het idee dat de ene de andere uitsluit zou dat logisch zijn, alleen is dat dus niet zo en is de focus op zuinig zijn er in zekere zin altijd wel.

Vrijwel generaties videokaarten is het verbruik gestegen en de performance (nog) harder gestegen = zuiniger voor hetzelfde werk, wat gamers vervolgens doen is meer werk van die kaart vragen (hogere resolutie/fps) en dan verbruikt ie wel meer maar doet er ook gewoon meer voor en is wel degelijk efficiënter...

Je kan vrij makkelijk TFLOPS/Watt berekenen en dan zal je zien dat dat ook een stijgende lijn is, dus meer performance per watt dan oudere kaarten.

[Reactie gewijzigd door watercoolertje op 23 juli 2024 10:36]

Klopt helemaal, maar dat is wel de marketing versie van zuiniger ;)

In de echte wereld is zuiniger gewoon minder watt verbruiken. Oftewel de huidige console met de game van dat moment spelen, en helaas is daar nog steeds elke generatie meer energie voor nodig. Dat geldt voor veel zaken, maar zijn natuurlijk ook zat voorbeelden die wel echt zuiniger zijn.
Consoles letten wel op zuinigheid. Het zijn de PC gamers die op een bladblazer aan het gamen zijn :Y) en andere zijn ze wel aan het minen.
Gebruikers van high end gaming pc's zorgen er vaak voor dat ze Gold of hogere gecertificeerde voedingen gebruiken, waar de efficiëntie bij een PS5 of XSX te wensen overlaat. Daarnaast gebruiken de PS5 en high end pc's een vergelijkbaar wattage wanneer ze idle in het menu of op de desktop zitten en is de performance per watt een stuk meer in het voordeel van de gaming pc tijdens het gamen.

Ten slotte heeft een aanzienlijk deel van pc gamers een bloedhekel aan miners.

[Reactie gewijzigd door Centurius op 23 juli 2024 10:36]

Ik ben van PlayStation naar PC overgestapt en heb het gemerkt in mijn energierekening.
Je n=1 doet niet af aan de algemene trends. Er zijn altijd mensen die niet de meest efficiënte onderdelen kopen maar op basis van de verkoopcijfers worden er toch echt aanzienlijk meer 80+ Platinums en Titaniums verkocht dan 80+ Bronze.
Dat is ook waar, misschien dat het woord efficienter beter bij mijn reactie past.

Maar marketingtechnisch klopt het wel. Als een auto 1:20 rijdt en de opvolger 1:25 dan is die opvolger zuiniger, maar als ik dan ipv op 20 km afstand op 26km afstand ga wonen dan verbruik ik wel meer maar de auto is nog steeds zuiniger ;)

Het 'probleem' zit hem dus bij de gebruiker, ik kan mijn 6900xt ook lager clocken zodat ie gelijk presteert met de 2080ti die ik had, dan is die veel zuiniger, maar dat wil ik natuurlijk niet, ik kies bewust voor performance!

[Reactie gewijzigd door watercoolertje op 23 juli 2024 10:36]

Zuiniger kan ook zijn af en toe eens een generatie kaarten overslaan ipv telkens de nieuwste high end kaart te kopen. 2080ti en dan upgraden naar een 6900xt? Voor verwaarloosbare extra performance? Met dat geld kan je toch betere dingen kopen denk ik dan. Achja, ieder zijn ding, maar dit snap ik niet.

[Reactie gewijzigd door BlaDeKke op 23 juli 2024 10:36]

Cherrypicking wat je doet.. op 1440p + is 30% verschil in het voordeel van de 6900xt gangbaar en af en toe zelfs meer.
Is de laatste game review van guru3d. Niet cherrypicking. Maar inderdaad. Slechte keuze van mij blijkbaar.
Maar wat doe ik weer? Guru3d lijst gewoon de laatste generaties gpus op in zijn gamereviews. Dit is in mijn ogen de beste manier om gpus te vergelijken.

Alle game reviews van guru3d.

Soms is het verschil niet de moeite en soms zijn er uitschieters voor de 6900xt.

[Reactie gewijzigd door BlaDeKke op 23 juli 2024 10:36]

Op basis van een game benchmarks als gemiddelde aannemen. Er zijn games waar bepaalde kaarten minder scoren en games waar bepaalde kaarten juist in excelleren.

Soms ontlopen ze elkaar inderdaad in bepaalde games niet. Als je verder kijkt in de benchmarks van de link die je zojuist gepost hebt zie je resultaten waar op wqhd en 4k de 6900xt gehakt maakt van de 2080ti (bijna dubbel zo snel)

Gemiddeld gezien over meer dan 30 games scoort de 6900xt 30%+ beter. En dat is echt een flinke performance verschil hoor.

Ik kan ook een voorbeeld laten zien waar die 50% beter scoort. Dat heet cherrypicking. Dat betekend niet dat die kaart dan 50% sneller is. Behalve in desbetreffende game.

[Reactie gewijzigd door Adel_F16 op 23 juli 2024 10:36]

Hoe weet je dat @watercoolertje die 2080 Ti niet aan iemand heeft verkocht die eerst een SLI/Crossfire Setup draaide waardoor het netto energieverbruik afgenomen is?

Daarnaast heeft dit natuurlijk helemaal niks met het topic te maken. De discussie ging erover of apparatuur van generatie op generatie wel of niet duurzamer of efficiënter is. Wat watercoolertje met hun apparatuur doet is daarin volledig irrelevant en niet jouw zaak. Hun portemonnee gaat je al helemaal niets aan.
Zuiniger kan ook zijn af en toe eens een generatie kaarten overslaan
Dat kan een gebruiker doen maar het gaat in de discussie toch niet om de gebruiker maar om de vraag of fabrikanten zich er niet beter op kunnen focussen?

Ik verkoop mijn kaarten altijd aan een ander die daardoor zelf geen nieuwe hoeft te kopen, buiten het rondsturen zelf is daar niks meer mee belast.
Voor verwaarloosbare extra performance?
Ik speelde vooral COD MW (tegenwoordig meer Vanguard) en daar is de performance best wel een stuk beter, vooral de ervaring ivm lagere drops en stabielere framerate (gelocked op 144Hz)
https://youtu.be/moJoq2_biyg?t=225

Heb er tussendoor ook nog een 3080 gehad, maar geld is in deze geen issue, ik zit werk/prive ongeveer 12 uur per dag achter mijn computer.

[Reactie gewijzigd door watercoolertje op 23 juli 2024 10:36]

Zou mooi zijn als de industrie over gaat op de 12VO standaard. Dan kan alles met een klap een stuk efficienter worden.
Ook alleen bij idle.
Niet alleen bij idle, maar idd als je systeem 100% vraagt dan helpt 12vo niet enorm. Maar het zal je verbazen hoeveel je systeem idle draait, of bijna idle, ook als je gewoon bezig bent.
Je eigen systeem wel, maar in de industrie en in de cloud staan de meeste machines gemiddeld maar zelden idle.
Die draaien al lang uitsluitend op 12V.
Nee, ze hebben al lang de voltage conversion verplaatst. Maar dat is veel praktischer en eenvoudiger in een wereld waar systemen niet of nauwelijks worden aangepast nadat ze zijn opgeleverd en compatibiliteit een mythos uit een oude saga is in plaats van een alomtegenwoordig principe.
Zoals @Aikon ook al zegt. hoe vaak staat jouw systeem meer dan 20% te draaien? als je dat omrekent in uren per dag vs idle per dag
Tegenwoordig wordt op de GPU gemined toch? Dus richting de 0% idle als ie aan is. :+

[Reactie gewijzigd door Darkstriker op 23 juli 2024 10:36]

Nou ik mine niet met m'n GPU hoor. Maar als je kijkt naar alle computers dan denk ik dat 80% van de tijd een PC idle is
PCs, wellicht. Maar computers? Echt niet.
Zoals ik het artikel lees heeft 6.0 juist verbeterde power efficiency. Dat de apparateur die erop gedrukt wordt stroom slurpt daar kunnen hun niet zoveel aan doen, dat is meer aan de fabrikanten.
Die fase zal altijd tijdelijk zijn. Zodra er iets spectaculair snel op de markt wordt gebracht zullen er altijd partijen zijn die het maximale eruit weten te halen. En vervolgens nog meer capaciteit nodig hebben voor een lagere prijs.
Leuk om te zien, maar misschien komen we in de fase dat snelheid niet meer zo belangrijk is maar er meer op verbruik en andere zaken gefocust kan worden.
Dat komt vast maar momenteel zit PCI een beetje in een inhaalslag. Jarenlang was de PCI bus snel zat voor de meeste toepassingen. Je CPU stond toch vooral te wachten tot je HD weer een rondje had gedraaid. Sinds de opkomst van solid state storage is dat snel aan het veranderen en is storage opeens overweldigend snel. In het begin waren we al heel tevreden met 1 snelle SSD maar tegenwoordig zetten we het liefst een hele rij NVME-drives neer.

Van een afstand bekeken helpt dit overigens om het verbruik te verlagen doordat je minder computers nodig hebt om een bepaald prestatieniveau te halen.
Als het om iets gaat waar er maar een beperkte hoeveelheid is dan is zuinigheid wel een deugd. Stroom is dat echter niet
let wel op dat het aantal channels limited is in veel socs,

Door deze ontwikkelingen kun je dus ipv X4 PCI 3 gewoon op X1 PCI 5 draaien en kun je ineens 4x zoveel HDDs kwijt in je PC / Riser board.

Vooral de AMD series met PCI 4 was dat een verademing , je video kaart kan nl bifurcated op 8X PCI 4 draaien en is dan nog snel genoeg om meerdere X2 PCI4 aan SSD te geven zodat die ook op volle snelheid kunnen draaien.
Hoe werkt de pci-e 6 backwards compatibility met de aangepaste coderingstechniek?
"Maintains backwards compatibility with all previous generations of PCIe technology"
Wel bijzonder want dan moeten hun transmitters meerdere standaarden ondersteunen
De PCIe 6.0 transceivers kunnen twee voltage-niveaus lezen/scrijven, afhankelijk van de data.

Dan zal het wel meevallen om hetzelfde te doen op slechts een van de twee voltages.
Het communiceert gewoon de snelheid. Kijk maar in je BIOS daar staat de snelheid van de PCI-E apparaten vermeld. Dus het zal gewoon zijn transmit snelheid aanpassen aan de standaard van het aangesloten apparaat.
Is er eigenlijk een soort theoretisch maximum aan bandbreedte wat eruit geperst kan worden? Op een gegeven moment loop je toch ergens tegen grenzen aan lijkt me. Bijvoorbeeld de maximale overdracht over een bepaald materiaal wat gebruikt wordt in de verbindingen.
Klopt, maar dat is dus in principe op te lossen met een bredere bus door meer fysieke connecties. De beperkende factor is dan uiteindlijk voornamelijk de daadwerkelijke ruimte die je in wilt nemen met je connectors.
Dat kan ik volgen. Maar op het moederbord zelf loop je op een gegeven moment toch ook tegen beperkingen aan? De afstand van de connector naar de CPU om maar iets te noemen. Of het maximale (of juist minimale) voltage voor aansturing welke niet meer gehaald kan worden doordat de koperlijntjes te dun worden. L1 cache kan bijvoorbeeld wel 3TB/s aan maar deze zit dan ook op de CPU zelf.
Die beperkingen die je noemt zijn volgens mij allemaal praktisch, niet theoretisch waar je naar vroeg ;)

In theorie zouden we de pulsen terug kunnen brengen tot enkele elektronen (of fotonen), draadjes 1 atoom/molecuul dik kunnen maken en schakelen in de orde van grootte van atto- of zeptoseconden: dan kom je waarschijnlijk in de buurt van petabytes per kanaal per seconde?
Waarom is men überhaupt eigenlijk eerst afgestapt van parallelle poorten?
Vroeger had je op een pc parallelle poorten en seriële poorten.
De parallelle was toen al sneller. En toch werd de opvolger USB en dus serieel. Waarom?
De snelheid van het licht?
Tja, op dit moment is het nog niet nodig, aangezien de meeste apparaten nog maar net het limiet van PCI-e 4.0 bereiken, maar vanuit technologisch oogpunt is het wel mooi om alvast ontwikkeld te hebben.

Valt er al in te schatten wanneer de eerste apparaten komen die hiervan gaan profiteren?
Wel nodig voor het aantal lanes beschikbaar te houden ,

PCI6 1 lanes is al sneller dan 4 PCI4 lanes, je kunt dus 4x SSD kwijt zonder snelheid verlies tov PCI 4,

Als je dan een Risir board neemt met M2 slots is het fijn dat je 8 M2 kaarten wijt kan zonder snelheid verlies en je GPU nogsteeds op X8 of ihgv PCI6 X2 draait
Oke, dat misschien wel ja, maar vooralsnog blijft toekomstmuziek. Helaas is de CPU een beperkende factor voor het aantal bruikbare lanes, en met name Intel schiet momenteel nog tekort op consumentenplatforms. Als je op dit moment al veel lanes nodig hebt kun je het beste voor AMD kiezen, aangezien die CPU's doorgaans meer PCI-e-lanes ondersteunen.
Ze zitten nu overigens allemaal op 20 op de consumenten platform CPUs, dus er is eigenlijk geen echt verschil meer.
Meer snelheid per lane betekent dat je voor hetzelfde werk minder lanes nodig hebt of met dezelfde lanes meer werk kan doen. Juist voor situaties waar vanuit de CPU lanes beperkt zijn is een nieuwere PCIe dan ook zo belangrijk.
PCI-e maakt ff een inhaalslagje hoor! Ik anderhalf jaar geleden helemaal blij met m'n PCI-e 4.0 op m'n nieuwe AMD systeem terwijl Intel het nog niet eens had, nu is er al 5.0 en binnen anderhalf jaar ligt 6.0 in de winkel?
Intel sloeg vier over en ging meteen naar vijf, anders had vier denk ik al veel eerder een marktaandeel gehad. PCIe 4.0 was namelijk in 2011 al aangekondigd, maar in 2016 was de hardware er pas klaar voor.

PCIe 1.0 kwam uit in 2003, 2.0 in 2007, 2.1 in 2009, 3.0 in 2010. In 2013 volgde 3.1. De daadwerkelijke PCIe 4.0 chips kwamen in 2016, met PCIe 5 in 2019. Daarvoor had je nog AGP (1.0 in 1996, 2.0 in 1998 en 3.0 in 2002).

Qua daadwerkelijk bruikbare standaarden zat er dus 4-3-6-3 jaar tussen de verschillende releases van PCIe, en 2-4-1-4-3-6-3 jaar tussen alle standaarden voor snelle computerbussen.

Onder de streep is PCIe 6 dus niet snel nieuw, PCIe 4 is juist heel laat op de markt gekomen!
Hoe kom je op het idee dat Intel 4 overgeslagen heeft? Op de 500 Chipsets hadden ze gewoon PCIe 4 support.
Is dat zo? Op Wikipedia zie ik ze eigenlijk alleen maar bij Alder Lake staan, terwijl AMD er veel eerder bij was. Volgens mij is dit zo'n geval van "ze kunnen het wel, maar in de praktijk is het duur en/of een uitdaging om te verkrijgen".

Ik zie dat er inderdaad wel moederborden zijn met PCIe 4 voor Intel (maar dan in maar één slot) maar Intel lijkt in de praktijk de kat uit de boom gekeken te hebben voor grootschalig een nieuwere PCIe-versie aan te bieden. Op zich geen slechte keuze, want PCIe 5.0 is praktisch gewoon "PCIe 4.0 maar dan dubbel zo snel", en PCIe 3.0 is toch pas sinds kort op sommige hele dure SSD's pas echt een bottleneck. AMD wilde waarschijnlijk zo snel en goedkoop mogelijk Intel inhalen, omdat de plannen natuurlijk nog onderdeel waren van hun Ryzen-inhaalslag.
Ik weet dat error correctie al jaren een ding is. Maar een protocol dat fouten gaat verwachten en gaat voorspellen als ik het correct lees? Straks hebben we spectre voor PCIe te pakken. Is het de extra snelheid wel waard? kunnen we niet gewoon PCIe x32 verzinnen voor meer bandbreedte?
Een verdubbeling is toch best een grote stap?
Evolutie is ongeveer de basis van alles in het leven en dan roep jij zomaar even dat het niet nodig hoeft te zijn en er een conspiracy achter verborgen zit (gezien je wijst op uitmelken en er dus een soort vooropgezet plan moet zijn)?

Jij bent zo geboren en bent in je werk niet beter geworden met de jaren? Kon dat niet in 1 keer dan?

Ook is het zo dat die investeringen terug moeten worden verdient dus dat zal in zekere mate ook wat remmen maar dat maakt niet dat we revisies van iets zomaar kunnen overslaan en op hetzelfde uit kunnen komen.

[Reactie gewijzigd door watercoolertje op 23 juli 2024 10:36]

Omdat de techniek nog niet zo ver is en de stap in een keer te groot.
Door incrementele stapjes te doen krijg je dat stukje van het proces steeds beter onder controle, leer je van de fouten en weet je waar en hoe je kunt verbeteren.

Dat heeft niets met uitmelken te maken. Wat denk je zelf, als een techgigant nu ineens 10x zo snel/goedkoop/weet ik wat iets zou kunnen maken dat ze dat niet zouden doen? Dat zou ze in een klap marktleider maken.

Een standaard als dit in een labomgeving bedenken en uibroberen is een. Dat vervolgens zo robuust maken dat het ook geimplementeerd kan worden door moederbord fabrikanten is twee en het dan ook nog eens geschikt maken voor allerlei verschillende gebruikersomgevingen en hoogvolume productie is een derde.

Als voorbeeld: 10 jaar geleden was het (doordat chip processen toen nog niet zo klein waren als nu) het fysiek onmogelijk om een driver/transistors/fet te maken die dit soort snelheden aan kon.
Op het moment dat die driver er wel is zit de bottleneck weer in het PCB materiaal om het signaal goed over te dragen en/of moeten de PCB designers ervaring opdoen met de implementatie er van.
Vervolgens is het (door de kleine beschikbaarheid) relatief dure techniek die pas goedkoper wordt doordat mensen het gaan gebruiken etc etc.

[Reactie gewijzigd door GG85 op 23 juli 2024 10:36]

Ik snap je vraag niet denk ik.
Wat bedoel/verwacht je van 'jouw' pcie12?
Waarom word alles uitgemolken...
Waarom is er niet ineens pcie 12 ofzo... waarom is er nooit een grote stap.
idem voor alles in de pc wereld.. usb ,hdmi ,wifi,bluetooth.. of complete systemen, telkens een beetje erbij en weer een nieuw nummertje ervoor.
Zo te horen werk jij bij de xbox naming divisie :+ .
Echt he, zo onnodig, sla gewoon al die stappen over en bouw gewoon een straaljager. Ook als je in de bronstijd leeft.

Op dit item kan niet meer gereageerd worden.