PCIe 8.0 maakt ssd's met snelheden van 128GB/s mogelijk en verschijnt in 2028

PCI-SIG heeft de PCIe 8.0-standaard aangekondigd. Deze verdubbelt de snelheden ten opzichte van PCIe 7.0, waardoor de nieuwe standaard x4-ssd's met snelheden van 128GB/s mogelijk zal maken. De PCIe 8.0-specificatie wordt naar verwachting in 2028 definitief gemaakt.

PCI-SIG bevestigde de komst van PCIe 8.0 op dinsdagmiddag. De organisatie, die verantwoordelijk is voor de ontwikkeling van PCIe 8.0, deelt nog weinig technische details over de nieuwe versie. PCI-SIG bevestigt wel dat PCIe 8.0 opnieuw gebruik zal maken van pam4-signaling, net als versie 6.0 en 7.0. Daarnaast wordt de bandbreedte verdubbeld ten opzichte van zijn voorganger.

De standaard haalt daarmee datarates van 256GT/s en bandbreedtes van 32GB/s per lane. Op een x16-slot, zoals gebruikelijk voor videokaarten, biedt PCIe 8.0 volgens de organisatie dan ook een bandbreedte van 512GB/s in beide richtingen. Ssd's, die normaliter vier PCIe-lanes gebruiken, zouden in theorie lees- en schrijfsnelheden van 128GB/s kunnen halen met de nieuwe standaard.

Het is gebruikelijk dat een nieuwe PCIe-standaard zijn snelheid verdubbelt ten opzichte van de voorgaande versie. Zo biedt PCIe 7.0 een twee keer hogere bandbreedte dan PCIe 6.0, dat weer de dubbele bandbreedte van PCIe 5.0 biedt en zo verder. Met versie 8.0 wordt die trend dus doorgezet. PCIe 8.0-producten zullen bij release achterwaarts compatibel blijven met voorgaande PCIe-versies, zij het met lagere snelheden, zo bevestigt de PCI-SIG.

PCI-SIG verwacht dat de PCIe 8.0-specificatie in 2028 wordt afgerond. De standaard wordt dan gedeeld met partnerbedrijven, die vervolgens kunnen beginnen met het ontwerpen van producten die gebruikmaken van PCIe 8.0. Het is dus niet zo dat de eerste PCIe 8.0-videokaarten en -ssd's in 2028 op de markt verschijnen. Die zullen vermoedelijk nog enkele jaren langer op zich laten wachten, net als bij voorgaande PCIe-releases. Versie 7.0 is bijvoorbeeld eerder dit jaar afgerond, terwijl PCIe 6.0 nog amper wordt gebruikt voor enterprisetoepassingen, laat staan voor consumentenproducten.

PCIe 8.0 via PCI-SIG
De bandbreedte van PCIe verdubbelt met iedere versie, ongeveer om de drie jaar. Bron: PCI-SIG

Door Daan van Monsjou

Nieuwsredacteur

05-08-2025 • 17:00

73

Reacties (73)

Sorteer op:

Weergave:

Nice! geen videogeheugen meer nodig! gewoon directe bus naar een NVME met PCI-e 8 met 1TB RAM, fijn voor mensen met LLM's of andere zware grafische toepassingen. GPU heeft dan een stuk minder dedicated geheugen nodig, scheelt weer een bak geld.
Je trapt in een algemene misvatting. Enorm veel bandbreedte is 1 ding, maar latency is iets anders. En daardoor is het niet te doen om SSD's (ook al met die PCI-E 8 spec bandbreedte) in te zetten als VRAM.

GDDR7 zit je op zo`n ~10–15 ns kwa latency, een deftige PCIe Gen 5 SSD zit op ~70–150 µs (m.a.w., 70,000–150,000 ns) dus dat is totaal geen vergelijking. PCIe Gen 8 gaat kwa latency ook niet een flinke verbetering zijn als SSD's met NAND nog op dezelfde wijze gemaakt worden.

En dan heb ik het nieteens over de extra latency v.d communicatie tussen die delen. Nu heb je de GPU "extern" v.d "VRAM" in jou idee. Dus dat betekent data heen & weer, en dus meer latency.
Ah jij beschikt al over de benchmarks van de nog niet uitgebrachte NVME's en PCI-e bus.

Buiten dat was het een hypotethische gedachte, om mensen aan het denken te zetten, maar klaarblijkelijk snap je dat niet en sluit je nu al gelijk elke vorm van vrije discussie door te stellen dat iets niet kan... als we daar aan blijven vasthouden is er nooit progressie ;)

Natuurlijk zou je in mijn model een cache moeten hebben zo dicht mogelijk tegen de GPU en dat kan dan bv prima 16GB zijn met hierachter deze nieuwe interface. Buiten dat weten we nog niet eens of in 2028 er al gebruik gemaakt wordt van optische verbindingen, dan is de latency opeens lager dan zelfs jouw laagst genoemde waardes.

En verder nog al zou die latency zo "hoog" zijn als jij zegt, dan is dat nog steeds voor een LLM helemaal prima!

[Reactie gewijzigd door n00bs op 6 augustus 2025 19:49]

Pci-e 5 is net uit. Worden 6 en 7 overgeslagen? Dit is toch niet meer bij te houden?
Pci-e 5 is al uit sinds 2021. Aangezien er nu zelfs nog amper enterprise producten op pci6 worden gemaakt zal het pas in 2027 of 2028 dat we pci-e 6 gaan zien in consumentenproducten.


Dit is gewoon aan aankondiging dat de specificatie helemaal klaar is voor pci-e 8.0 in 2028 maar dat is ver verwijderd van eventuele toepassing
Ergens is het wel een valide punt. Ze kunnen wel elke 3 jaar een nieuwe specificatie uitbrengen, maar als de adoptie achterblijft heeft dat weinig zin. Voor zover ik kan vinden was bij PCIe 2.0 de eerste chipset niet eens een jaar later beschikbaar. Als dat bij 5.0 al meerdere jaren is geworden, is het de vraag of 8.0 uberhaupt nog geimplementeerd gaat worden (of dat er bijvoorbeeld een totaal nieuwe standaard komt).
Ik denk dat AI de adaoptatie wel weer gaat versnellen. Ik probeer veel locale AI modellen en alles komt neer op bandbreedte. Ik heb modellen die sneller draaien op mijn M4 pro lap[top met 48GB dan op mijn 24GB RTX4090.

Maargoed als ze niet verder gaan en de consumenten desktoips laten liggen dan switch naar server hardware voor mijn volgende server PC waarschijnlijk een Epyc of zelfs Dual EPYC met veel RAM. Ik denk dat daar zekre de vraag is voor sneller dus misschien dat ze daar wel direct doorgaan naar PCIe7 we gaan het zien.
Wel benieuwd zijn abonnementen niet goedkoper de komende 10 jaar dan zo'n rig? 8)7 buiten dat sowieso gaaf om te bouwen daar niet van!
Zeker met apple apparatuur denk ik dat een abo goedkoper is. Maar dan is het enige nadeel dat het niet lokaal draait.
Ik denk dat je je vergist wat een dual Epyc systeem kost, dat is al snel duurder dan een Apple device met max. memory ;)
Maar nu vergelijk je wel de Norwegian Escape met een zinkend houtvlot.
Ook daarin denk ik dat je je vergist, er zijn voordelen van unified memory vs. een sloot dimmetjes.
Een voordeel voor apple zie ik wel ja.
Een voordeel voor apple zie ik wel ja.
het is vooral natuurkunde. Apple ramt dat geheugen direct op de SOC. Dat is natuurlijk ruk voor je upgradebaarheid (maar hey, iemand die dat zoekt komt al decennia niet bij apple uit), maar voor je performance is het ongekend. In zo'n M4 SOC zit gewoon alles heel dicht op elkaar, met enorme bandbreedte.

Dat ga je met andere hardware wat over lange (relatief) banen / paden loopt niet evenaren. Misschien als alles optisch wordt op een moederbord. Maar daar praten we ook al jaren over.
Ik heb een M4 pro van het werk met 48GB geheugen, daar draai ik de laatste Qwen3 Coder 30B Q8 op met 256K token context size. Dan haal ik rond de 55 tokens per sec. Op m'n windows bak met RTX 4090 kan ik max de Q4 met 64000 tokens draaien en haal ik 127 btokens per sec.

De nieuwe MoE modellen doen het erg goed op Apple hardware vanwege Unified memory. Je kan bijna al het geheugen aan de GPU toekennen via de commandline (paar GB over laten voor het OS). Als het niet meer in het VRAM pas gaat performance hard naar benden op een windows systeem vanwege het kopieren avn/naar VRAM. Iets wat op een Apple systeem niet hoeft.

Apple heeft gewoon goede hardware, voor de rest ben ik ook geen Apple fanboy, draai liever Linux of Windows.Het wordt tijd dat Intel en AMD wakker worden en weer mee gaan doen in de race ipv hangen op het aloude platform. Een moderne desktop heeft niet eens genoeg bandbreedte voor 2 PCIe x16 sloten. Vandaar dat ik ook op EPYC uitkwam.

DIt is ongeveer waar ik op uitkom, klopt nog niet helemaal, maar het gaat om het idee. Ben alleen benieuwd of die EPYC socs genoeg computer hebben voor LLM's.
https://github.com/AndreVanKammen/esp-relays-driver

Een M4 Ultra met 256GB zou waarschijnlijk ook een goede keuze zijn als deze uitkomt met goede specs. Een M3 ultra doet het ook best goed maar het 512GB model kost zo'n 10.000 euro.

Ik ben pas volgend jaar van plan een systeem te bouwen hopelijk is de AI race dan wat rustiger, nu komt er nl elke week een nieuw model uit met andere performance regels.
nou is de vraag ook, heeft een normale moderne desktop dat nodig? Of de gemiddelde gebruiker van de moderne desktop?

Kijk, voor mensen zoals wij is het in de regel: meer is altijd beter, maar wij zijn niet waar desktops op getailored worden, op hele specifieke niche producten na. Dat je op EPYC uitkwam, is dan ook echt geen verrassing. Profesionele werkstations gebruiken al sinds ik een klein nerdje was server CPU's.

Ik help je hopen dat het volgend jaar rustiger is, maar ik vrees dat je ook volgend jaar midden in het geweld een keuze zal moeten maken, die een maand later toch weer even slikken is. Story of our lives.
Er zijn 3 mogelijke bottleneck
AI compute
Mem brandbreedte
Mem grote

Apple geeft goede balans van alle drie
4de is vermogen verbruik
En dat binnen €3000 tot 10000 oplossing
RTx Pro 6000 96GB kom je heel end maar dat los component van 8 a 10k€
Het is altijd beter om op tijd de standaard specificaties vast te leggen, zodat fabrikanten dit in hardware kunnen gaan implementeren en alles lekker met elkaar samenwerkt, dan andersom te werken, dat fabrikanten eerst de hardware implementeren voordat de specificatie er is.

Want dan krijg je uiteindelijk allebei producten die dezelfde bus naam dragen, maar toch net niet helemaal compatibel zijn.
In het datacenter is er veel vraag naar snellere IO maar bedrijven hebben na het uitkomen van een nieuwe standaard tijd nodig om die producten te ontwikkelen. Voor ons als consumenten is PCI-E 5.0 al meer dan snel genoeg. PCI-E wordt ook in CXL gebruikt wat voor datacenters weer heel belangrijk is:
Wikipedia: Compute Express Link

Daar zitten ze nu op PCI-E 6.0 voor de 3.x standaard maar reken er maar op dat 7.0 daar ook snel zal volgen.
Pci-e 5 is al uit sinds 2021. Aangezien er nu zelfs nog amper enterprise producten op pci6 worden gemaakt zal het pas in 2027 of 2028 dat we pci-e 6 gaan zien in consumentenproducten.


Dit is gewoon aan aankondiging dat de specificatie helemaal klaar is voor pci-e 8.0 in 2028 maar dat is ver verwijderd van eventuele toepassing
Is AL uit sinds 2021? In mijn beleving is dat PAS uit.
De specificaties voor 5.0 liggen er al veel langer.

Dat 5.0 "pas" kort wordt gebruikt staat daar los van.
Voor mijn gevoel zijn we pas ook net uit de pandemie, maar dat is blijkbaar ook al weer eventjes geleden.
Pcie8 verschijnt volgens de kop toch echt in 2028. Dan ga ik er vanuit dat er ook producten te koop zijn met die standaard. De standaarden volgen sneller dan de producenten ze kunnen verwerken in producten. Tussen 3 en 4 zat er 6-7 jaar, tussen 2 en 3 ook iets van bijna 5 jaar. Ondertussen is het een papieren tijger geworden voor consumenten. Voor de enterprisemarkt is er volgens mij gewoon heel veel lanes beschikbaar. Met de komst van 5 was het al redelijk een strijd om mobo's deftig storingsvrij te kunnen voorzien van de traces.

Als een fabrikant er 4 jaar over doet na uitkomen specificatie om een mainstreamcontroller op de markt te brengen, zijn de standaarden sneller ontwikkeld dan fabrikanten het kunnen bijbenen. Dan zouden ssd's met pcie8 pas rond 2035 moeten zijn als ze niet een generatie overslaan. 10 jaar is echt ver weg...

[Reactie gewijzigd door Nox op 6 augustus 2025 10:22]

Wat is er niet aan bij te houden dan? Er zit alsnog jaren tussen elke versie...

Ter info, kijk even naar het plaatje (inzoomen) en dan zie je dat pcie5 al in 2019 verscheen maar nog niet zo lang in producten zit, dus als pcie8 over 3 jaar pas verschijnt en dan 5 a 6 jaar later pas op de markt komt, wat is er dan niet bij te houden?

[Reactie gewijzigd door watercoolertje op 5 augustus 2025 17:12]

Voorheen zaten er 5-6-7 jaren tussen pcie 2, 3 en 4. Nu is het meer een papieren tijger, de standaard moet uitgebracht worden na 3 jaar omdat... Het moet na 3 jaar. Voelt gewoon zinloos. Fabrikanten zijn nu met 6 bezig en volgens de titel moet er in 2028 pcie8 verschijnen.
Jij hoeft het ook niet bij te houden. Fabrikanten kunnen met die specs tzt compatible spul maken.
Het artikel beantwoordt je vraag
512GB/s is sneller dan menig CPU-memory interfaces.

Kan ik dan straks systeem geheugen bij prikken via een PCIe slot?
Het grote probleem is de latency (korte vertraging voor elke schrijf- of leesactie), zeker bij kleine onverwachte bestandjes. Het zal dus allemaal heel schokkerig en stroperig aanvoelen, tenzij je misschien een render aan het uitvoeren bent of iets dergelijks.
Snelheid is niet het enige. Ook latency speelt een rol. Wat het zwaarste weegt, hangt af van de hoeveelheid data die verstuurd wordt. Denk aan de 'snelle' (toentertijd) 1Mps lijn naar India, met een dusdanige latency dat typefouten oplossen je ongeveer wanhopig maakte.

Overigens is er al ooit eerder in ddr slots persistent geheugen gebruikt. Als ik me niet vergis was Optane zoiets (naast de SSD's die er ook waren met die naam). En ook die Optane SSD's hadden een lagere latency dan iig toen en mogelijk ook nu nog. NVMe is juist gekomen om ooa die latency aan te pakken (tov de oude disk stack).

Kortom: een hogere PCIe snelheid zegt niet alles.
Technisch gezien wel, alleen verwacht ik dat mainboards en CPU's die straks PCIe 8.0 ondersteunen, ook echt wel een DDR8 memory bus gaan hebben. Uiteindelijk gaat de grootste hoop van je gegevens van je PCIe bus je memory in, om van daar weer ergens anders heen te gaan. Dus met een voedende bus van 256GB/Sec zal je ook memory moeten hebben dat die snelheid kan verwerken, anders schiet je er niks mee op.
Oprecht benieuwd welke temperaturen hierbij gaan ontstaan. Nu moeten potente SSD's al goed gekoeld worden.
Hoop dat er een makkelijke manier komt om er een 120 of 140mm fan direct op te richten. Was zo blij toen die [censored] kleine rotfans van de moederborden verdwenen. Nu komen ze weer terug op die ssd's.
Het kan alle kanten op, een schijf die die snelheden haalt doet dat misschien wel met meer chips dan we nu op een SSD hebben en met meerdere/grotere controllers waardoor de warmte ook beter te verspreiden is en dus niet perse een hoge temperatuur hoeft te hebben. Of ze krijgen tegen die tijd actieve koeling, dan daalt de temperatuur misschien wel tov nu :)

Denk dat je beter kan kijken naar het verbruik (en dus de energie die als warmte vrij komt) dan naar de temperatuur.

[Reactie gewijzigd door watercoolertje op 5 augustus 2025 17:52]

Helaas zijn die twee grootheden natuurkundig aan elkaar gekoppeld.
Nou ja, de temperatuur is ook gekoppeld aan het koeloppervlak en bijvoorbeeld aan de heatsink. Maar belangrijker misschien: zolang de SSD's nog steeds efficienter worden per gigabyte/s dan gaan we nog steeds de goede kant op. Vooral als de SSD de grootste tijd toch uit z'n neus aan het vreten is - aangenomen dat het energie verbruik tijdens idle ook laag is.

Voor laptop SSD's kijk ik eerst naar het idle gebruik, daarna komt de rest wel :)

[Reactie gewijzigd door uiltje op 5 augustus 2025 19:07]

En hoe gaan ze controllers van SSDs koelen?

Gen5 is al een drama.

[Reactie gewijzigd door TheDeeGee op 6 augustus 2025 10:25]

Simpel, dump je pc in minerale olie ;)
Tja, denk dat dit voor een gewone doorsnee pc gebruiker niet echt interessant is en die snelheidsverschillen voor de meeste gewone taken niet echt significant verschil zal maken. Daarnaast valt mij vaak ook wel op dat software weer automatisch meer gaat eisen qua snelheid en logger word. Dus ja wat voor zin heeft het dan en waar stopt het.
Leuk die massive da5a transfer snelheden maar wanneer gaan de random reads en writes nou eens omhoog


Daar heb ik als consument veel meer aan of mis ik iets
Is een probleem met NAND flash zelf, zal niet veel aan gedaan kunnen worden.
Lekker dan word dus hopen dat iemand intels Xpoint 3d kan maken op een manier die goedkoper is

Hartelijk dank voor je reactie

[Reactie gewijzigd door atthias op 5 augustus 2025 17:11]

Micron? Ik geloof dat die lui dat samen met intel ontwikkeld hebben.
Tot de volgende opslag techniek het overneemt natuurlijk, wat dat dan ook mag zijn
maar wanneer gaan de random reads en writes nou eens omhoog
Zolang we NAND blijven gebruiken, voor consumenten, nooit!
Een zeer onwaarschijnlijke oplossing zou de her introductie van het dure 3D XPoint (Optane) zijn.

Maar als consument kan ik PCIe 6.0 of hoger wel waarderen, als er dan SSDs komen met waarschijnlijk x1 of x2 lanes komen, en ik niet meer een chronisch gebrek aan PCIe lanes zou hebben, na het ter ziele gaan van HEDT en onbetaalbaarheid van Tread Ripper.
XPoint / Optane was zo duur omdat het op een paar laagjes bleef steken. 3D is klaarblijkelijk moeilijk in hoogte te schalen :P. Als je op het einde 4 laagjes XPoint tegen > 200 laagjes flash aan het concurreren bent kom je op een punt dat vanwege de data-breedte flash alsnog even snel is - qua sequentiële lees tijden natuurlijk. Mooi spul hoor maar zoals bij zovele memory techs is het produceren ervan het probleem.

Nou ja, het kwam in ieder geval uit het lab.
Yep, nog steeds tevreden over mijn 900P in de server, en P5800X als OS drive, en die 5800 verslaat nog steeds alle huidige SSDs op het vlak dat echt belangrijk is, de toegangstijd.
Hangt er vanaf. Het rondpompen van een FS of backup gaat ook met flash snel en bij het laden van applicaties en spellen maakt het meestal ook weinig uit - of het moet bestaan uit honderden zoniet duizenden files natuurlijk. Ik heb zelf een schattig 16 GB Optane drive-je gekocht voor 12 Euro. Die zat in een server maar had nog lang niet zijn TBW uitgeput. Kan leuk als extra schrijf cache ofzo dienen in een ZFS systeem ofzo. Was het daarvoor klaarblijkelijk ook.

Kijken of ik er nog 1 of 2 kan krijgen voor mijn ontwikkelomgeving. Kan ik applicaties testen zonder rekening te houden met de snelheid. Ik build liever niet applicaties naar een RAM drive, raak je maar kwijt (en is bagger onder Windows). Jammer dat mijn laptopje maar 1 SSD aan kan.
het laden van applicaties en spellen maakt het meestal ook weinig uit - of het moet bestaan uit honderden zoniet duizenden files natuurlijk.
Omschrijft dat niet pressies je OS schijf? ^_^
Kijken of ik er nog 1 of 2 kan krijgen voor mijn ontwikkelomgeving.
Zijn voor een prikkie op Alli te koop, van 16, 32 tot 64GB, gebruik er zelf ook een als betrouwbare boot van de server
Jammer dat mijn laptopje maar 1 SSD aan kan.
Stop je hem toch in een mee bestelde externe USB behuizing, is een prima oplossing. ;)
dat is dan ook waar ik op hoop

dat laatste zou zeker een voordeel zijn inderdaad
De gross van consumenten zijn prijs gedreven. Dus die pcie 6 7 8 zal niet snel zien in consumenten mobo.
Het maakt het allemaal extra duur.
We zitten nu met bandbreedte die voldoende is voor de massa.
Dan gaat snellere tech pushen wat lastiger.
Is meer iets voor tier1 cache opslag pool in SAN
terwijl PCIe 6.0 nog amper wordt gebruikt voor enterprisetoepassingen
Wordt het uberhaupt ergens al gebruikt? Ben wel benieuwd waarvoor dan. Hebben server moederborden al PCI 6.0 support dan?
Hardware is er wel, al weet ik niet waar je het in kan gebruiken:
https://www.pcgamer.com/h...s-sequential-read-speeds/
Ik mis de oude vertrouwde ISA bus :(


Of AGP :P
Hierzo, PCIe naar ISA: https://nl.aliexpress.com/item/1005006124229955.html

Er zijn ook PCIe naar USB maar ik weet niet helemaal of dat lekker werkt met DMA enzo.

Nou nog even de drivers vinden voor je ISA kaartje, ik weet niet zeker of Win 3.1 drivers nog werken onder Win11 ;)

Oh, en je hebt denk ik een kleine riser ofzo nodig want dat ding kan je misschien beter verticaal monteren.

[Reactie gewijzigd door uiltje op 5 augustus 2025 21:56]

Liever een ISA slot met VLB extensie......
doe dan vesa local bus. :-p

ik had een zo'n monster in m'n 486DX4 100.
Ligt het aan mij of voelt het alsof PCIe 4.0 vorig jaar pas is aangekondigd?

Of ik wordt gewoon oud, dat kan ook.
Uh. Tja. De Z440 met 40xPCIi v3 die ik heb gekocht (voor 180 euro) is geintroduceerd in 2014 - ik heb een nieuwere. Maar PCIe v4 duurde nogal lang, 2016 voor IBM PowerPC (mini-computer), 2019 voor AMD en Intel in 2020 (server) en 2021 (client). Maar PCIe 5 liet daarna een stuk korter op zich wachten. PCIe voor consumenten is toch alweer eh 6 tot 4 jaar oud dus. Tijd gaat snel, te snel voor Intel :P

[Reactie gewijzigd door uiltje op 5 augustus 2025 19:27]

Wordt uit die grafiek ook pijnlijk duidelijk. Zoals ze vanaf de jaren negentig plotten schetst dat een positiever beeld. Kijk je naar PCI-Express en niet voorlopers als PCI en PCI-X, dan zie je in 2002 al 8GB/s staan. ga je dat elke 3 jaar verdubbelen zoals ze aangeven:
2002: 8
2005: 16
2008: 32
2011: 64 (in werkelijkheid kregen we deze snelheid specificatie pas in 2017!)
2014: 128
2017: 256
2020: 512
2023: 1024

Ofwel, hadden we nu theoretisch al die PCI-E 8.0 snelheid in de eerste producten kunnen zien. Er is tussen PCI-E 3.0 en 4.0 een groot gat gevallen wat je al zegt, dat stuk tot 2017 daar hebben ze eigenlijk 2x een stap gemist voor hun eigen vuistregel. Je merkt het vooral in de workstation en server markt, waar ze al meer dan 100x pci-e lanes aanbieden om alle AI en (netwerk)interface kaarten bij te houden. Waren die lanes per stuk sneller, dan hadden ze daar voor een hoop producten op x4 gezeten ipv x8 of zelfs x16.

En minder lanes is makkelijker layouten op moederborden, minder lagen in zo'n moederbord, lagere kostprijs. En zoveel minder lanes doet toch ook iets voor je risico op overspraak, je langste sporen kunnen korter, waardoor het dan weer iets makkelijker wordt om die hoge snelheden betrouwbaar in praktijk te halen. Minder pinnen op de processors ook, in zo'n hele keten had dat best wat geholpen allemaal als die bandbreedtes toch al wat eerder wat hoger waren geworden, maar inderdaad niet zozeer voor consumenten.

[Reactie gewijzigd door OruBLMsFrl op 5 augustus 2025 20:49]

Op dit item kan niet meer gereageerd worden.