Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 43 reacties

Het standaardisatie-instituut achter pci-express, de Pci-Sig, heeft zijn goedkeuring verleend aan de standaardsnelheid voor de pci-express 4.0-standaard. De bitrate van die versie wordt 16GT/s, tweemaal zo snel als de pci-express 3.0-interface.

De pci special interest group, ofwel Pci-Sig, heeft na een onderzoek naar de technische haalbaarheid 16GT/s vastgesteld als standaardbitrate voor de pci-express 4.0-interface. Daarmee wordt de 4.0-versie van de peripheral component interconnect express-standaard tweemaal zo snel als de 3.0-versie, die op zijn beurt dubbel zo snel is als versie 2.0. Het zal echter nog wel even duren voordat de pci-express 4.0-standaard in producten geïmplementeerd wordt; de eerste producten met versie 3.0 verschijnen nu pas op de markt.

De koperen interconnects kunnen 16GT/s halen, zo bleek uit de technische analyse die voor de Pci-Sig werd uitgevoerd. Daarbij zou niet meer vermogen worden gebruikt dan bij de pci-express 3.0-standaard. De nieuwe standaard zou backwards compatible zijn met oudere generaties en volgens vergelijkbare procedés in silicium gerealiseerd kunnen worden. Het standaardisatie-instituut zal de pci-express 4.0-standaard verder uitwerken; rond 2014 of 2015 moet dat werk afgerond zijn.

Moderatie-faq Wijzig weergave

Reacties (43)

nou, nog sneller, nog beter, en nu kunnen onze apparaten nog 300% sneller worden voordat we het gaan merken.
erg leuk maar van mijn hoeft het niet
Dat zeiden we ook toen we van S-ATA150 naar S-ATA300 gingen, maar inmiddels worden de dikkere SSD's lekker genekt door de trage S-ATA600 bus :/

Als je een beetje computing op je GPU wil doen, ben je al ontzettend veel overhead kwijt aan communicatie tussen CPU en GPU, waardoor de extra snelheid van de GPU netto niks extra oplevert ten opzichte van de CPU. OpenCL fourier analyses op afbeeldingen hebben hier al ontzettend last van dus extra bandbreedte is altijd welkom.
When data is not already in the GPU, the data transfert bottleneck makes the GPU less efficient than the CPU for small problem sizes, here N<218

[Reactie gewijzigd door TeXiCiTy op 1 december 2011 13:34]

Je kan het ook andersom zien: bij elke verdubbeling van de snelheid heb je 2 keer minder lanes nodig voor dezelfde snelheid. Bijvoorbeeld: dezelfde bandbreedte die je met 8 PCIe 1 lanes kreeg, heb je nu met 1 PCIe 4 lane. Minder lanes gebruiken maakt je kaartontwerp een stuk simpeler en zal ook de zuinigheid van je systeem helpen.
Maar heb jij die snelheid nu dan nodig? Videokaarten hebben nu nog niet echt behoefte aan 2.0, wellicht de allersnelsten van nu die van 3.0 profijt kunnen halen. Dan moeten ze nu nog twee keer zo veel bandbreedte vereisen voordat ze door PCI-E 3.0 gelimiteerd worden.

Ook disk controllers lopen echt zo snel nog niet tegen de 3.0 beperkingen aan, zeker niet de simpele waar maar een paar schijven aan hangen. Ook SSD PCI-E kaarten krijgen echt PCI-E 3.0 nog niet vol qua bandbreedte hoor.

Het zou me verbazen als we in 2014 echt massaal behoefte hebben aan PCI-E 4.0.

----------------------------------------------

Even oud linkje gezocht aangezien de posts onder mij kennelijk geen idee hebben hoe het nu precies zit.

http://www.techpowerup.co...I-Express_Scaling/25.html

Bekijk die link eens, zie je een prestatiesamenvatting van allerlei benchmarks die getest zijn met dezelfde videokaart waarbij telkens een langzamer slot is gesimuleerd. Je ziet daar al overduidelijk dat er prestatieverschil zit tussen PCI-E 2.0 8x en PCI-E 2.0 16x. Het is weinig, maar het is wel overduidelijk aanwezig.

Pak dan straks de nieuwe HD7xxx serie van AMD, de top kaarten zullen echt PCI-E 2.0 16x sloten nodig hebben om optimaal te kunnen presteren. Als je ziet dat we nu al aan het limiet van 2.0 zitten wil je toch niet dat we slechts een verdubbeling vooruit lopen?

PCI-E 3.0 16x is een verdubbeling van bandbreedte ten opzichte van PCI-E 2.0 16x, dat zou betekenen dat we tussen nu en 2014/2015 de vraag naar bandbreedte slechts kunnen verdubbelen, als er dan geen opvolger klaar staat betekent het dat je op een gegeven moment echt een limiet gaat zien.

En vergeet niet dat PCI-E 2.0 8x vergelijkbaar is met PCI-E 1.0 16x en dat de 5870 nu echt niet de snelste kaart meer is. Een kaart zoals de HD6990 heeft dus echt PCI-E 2.0 16x nodig aangezien PCI-E 2.0 8x hem zou limiteren. Dat betekent dat PCI-E 1.0 16x niet snel genoeg zou zijn voor een HD 6990 en we nu dus al profijt hebben van PCI-E 2.0.

Dan mag je kiezen, of nu iets te snel een nieuwe standaard introduceren of straks tegen het limiet van de interface oplopen?

[Reactie gewijzigd door Tsurany op 1 december 2011 13:38]

Hetgeen wel voordelen levert is dat je minder PCIe lanes gaat nodig hebben om dezelfde bandbreedte te verwezelijken. Hierdoor kan je met de huide systemen meer apparaten tegelijk aansturen, ofwel de huidige systemen vereenvoudigen door minder PCIe lanes te voorzien.

Waar de huidige mainstream systemen u beperken tot 2 PCIe 2.0 x16 slots (meestal dan nog 8x electrical) Kunnen met PCIe 4.0 met dezelfde hoeveelheid lanes 4 keer zoveel kaarten aangesloten worden tegen dezelfde bandbreedte. Op deze manier kan ook quasi alles vanuit de CPU aagestuurd worden, zodat een centrale chipset op het moederbord overbodig wordt.

Daarnaast kan dit wel een voordeel zijn bij GPGPU gebruik waarbij de grafische kaart soms heel veel data van en naar de rest van het systeem moet sturen. Bij games blijft het gebruik meestal beperkt tot het laden van textures, en een beetje real-time 3D informatie van de CPU.
Inderdaad, ik vind de opmerking van Tsurany i.v.m. GPUs nogal kort door de bocht. Het gebruik van GPGPU wordt voornamelijk tegengehouden door het gebrek aan bandbreedte tussen de CPU/RAM en de GPU/on-GPU-RAM. De bandbreedte tussen het 'global memory' en de streaming multiprocessors op een GPU overschrijdt vaak de 100GB/s. Zolang de data echter maar aan PCI-snelheden van 4à8GB/s kan aangeleverd worden, is het vaak niet lonend om berekeningen naar de GPU te sturen. Tenzij je heel veel berekeningen moet uitvoeren op dezelfde data, gaat het sneller om het gewoon op de CPU uit te voeren. Als de snelheid van PCI inderdaad verdubbeld zou worden, kan je ook als je maar half zoveel berekeningen per data-eenheid uitvoert snelheidswinst behalen uit gebruik van de GPU.

GPU-capabilities on-chip zetten of op andere manieren de PCI-bus er tussenuit halen (zie o.a. wat bij AMD Fusion gedaan wordt) helpt natuurlijk ook.
Ik wil er ook even op wijzen dat PCI express niet enkel gebruikt wordt voor interne datatransfer. Er bestaat zoiets als PXI een extensie van PCI die gebruikt wordt voor communicatie met instrumenten in labo's en testinfrastructuur. Hier lopen wij bijvoorbeeld geregeld aan tegen de datatransfer limiet van onze setups.
Inderdaad, kijk naar sata.

Sata III is pas net uit en de SSD's zitten al tegen/ over de limiet heen. Het is toch altijd beter dat jouw hardware de bottleneck is ipv de techniek...
Uiteindelijk gaat alles sneller en we lope toch altijd tege limieten aan:P

Zo simpel is het. maar vindt het leuk om dit te lezen.
Deze limiet ga je sowiezo zien, ze beginnen al met 22nm productie, en dat heeft uit eindelijk ook zn grenzen.

Ik had ergens gelezen dat 9nm echt het maximale is
ja echter denk ik dat daar alweer een oplossing voor is gevonden
inplaats van silicone wafers gaan ze wellicht grafeen wafers gebruiken

dat zal nog wel ff duren maar het belooft heel wat
dat is nog best snel als je bedenkt dat PCI3.0 nu pas een beetje gebruikt wordt.
ze willen eerst geld daarmee ophalen voordat ze de volgende versie volledig uitrollen
veel hinder heb je er niet van vermoed ik, aangezien consumer toestellen de pci bus zelden de bottleneck is ?
Wat zijn we toch allemaal negatief hierboven! Stel je voor wat in de tussentijd nog voor voortgang geboekt kan worden in de hardware, waardoor we dit zéér nuttig gaan vinden.

Maar ik kan het natuurlijk ook mis hebben :)
Nouja, de meeste graphische kaarten hebben nog niet eens 2.0 nodig qua bandbreedte, en misschien hebben de allerduurste kaarten net 2.0 nodig. Dan moeten dus de allerduurste kaarten nog twee keer zo snel worden voordat 3.0 überhaupt nuttig is, en dat zie ik zo snel nog niet gebeuren.
De meesten hebben wellicht 2.0 niet nodig qua bandbreedte maar de HD 5870 profiteert al wel van 2.0. Immers die is sneller in een PCI-E 2.0 16x slot dan in een PCI-E 2.0 8x slot. Aangezien PCI-E 2.0 8x vergelijkbaar is met PCI-E 1.0 16x betekent het dat het voordeel van 2.0 al met een HD 5870 gemerkt kan worden. Moet je voorstellen hoe dat dan is met een top kaart zoals de HD 6990, die zal echt profiteren van PCI-E 2.0. En wat dacht je van de nieuwe HD 7xxx serie straks? Dat top model zal echt wel PCI-E 2.0 nodig hebben om fatsoenlijk te kunnen presteren.


Zie: http://www.techpowerup.co...I-Express_Scaling/25.html
Alsof de GPU alles steeds opnieuw van de CPU moet krijgen. Heel veel zaken die hergebruikt worden, zoals textures, worden eenmalig geladen in het geheugen van de GPU als je bijvoorbeeld van scene wisselt. De scene beschrijvingen (waar bevinden objecten zich en welke textures gebruiken ze) zijn maar een fractie van de data die een GPU nodig heeft om een scene te renderen.

Het grootste voordeel van een zwaardere kaart is vaak dat je meer detail aan kunt zetten bij een acceptabele framerate. Maar dat gaat dat om bewerkingen die puur in de GPU plaatsvinden, zoals anti aliasing. Dus als je van een 5xxx naar een 7xxx gaat zal niet zozeer de data toenemen die je naar de GPU stuurt, maar wel de kwaliteit van het beeld toenemen. Natuurlijk zal bij een toenemende framerate de data wat toenemen, maar dat is niet lineair met die framerate.

Al je de GPU gebruikt om te rekenen dan wordt het verhaal een beetje anders natuurlijk.
Dit is juist een hele goede ontwikkeling. Elke nieuwe busstandaard die verschijnt lijkt overkill in het begin(VLB/PCI/AGP), met een jaartje of 3 is PCI-e 4.0 gewoon de standaard en gebruiken zelfs midrange kaarten het. De volgende standaard zal dan alleen wel weer om de hoek komen.
En niet te vergeten dat je steeds met chipsets om de een of anere reden rond de 40 pci-e lanes in totaal blijft zitten, waarschijnlijk vanwege de complexiteit op het mobo daardoor.
Ook in dat opzicht is deze ontwikkeling zeer positief, omdat je nu met minder lanes, dezelfde bandbreedte kan leveren.

Dus bijv een raidcontroller voor SATA600 schijven, die een pci-e 2.0 x1 aansluiting heeft, heeft nu 500MB/s max doorvoer, maar met die 4.0 standaard ,zou dat dus al x2x2 zijn, dus al 2GB/s, wat dus er voor zorgt dat SATA600 raid 0 setups niet meer zal tegenhouden qua bandbreedte, om maar een voorbeeld te noemen.
meeste hba's zijn sowieso al pci express x8. Afgezien daarvan denk ik dat de meeste toepassingen die veel disks gebruiken bij lange na niet gelimit zijn op bandbreedte van de bus, maar op echte performance van de disks.

vb, ik heb 4x een vertex3 in raid0, in theorie zou je dan tegen de 2 GB/s moeten kunnen halen, maar in de praktijk haal ik bij maximale iops tegen de 30MB/s met een dikke database erop. Oftewel, bandbreedte is hier duidelijk geen bottleneck.
Heerlijke om de kritische noten hier te lezen.
Maar als iemand moet begrijpen dat stilstand achteruitgang is, dan is dat wel een tweaker.

Ontopic
Goed dat de ontwikkeling gewoon doorgaat, jammer is dat zo wel heel duidelijk wordt dat PCI-e 3.0 maximaal afgeroomd gaat worden
De vraag is dan ook wat er na PCI-express 4.0 komt.

PCI-express 5.0 of iets geheel nieuws, we'll see :)
PCI-e kan nog wel even mee zo te zien. Waarschijnlijk duurt het nog 5 a 10 jaar wil er zich een nieuwe standaard presenteren die als opvolger gezien kan worden. Voorlopig is PCI-e op praktisch alle vlakken snel genoeg.
Het zou leuk zijn als je dan wat zouden doen met xdr3 geheugen icm pci 4.0. Aangezien ze nu al gpu met xdr2 uit brengen denk aan de nieuwere 7 series van amd.
xdr2 op de nieuwe kaarten was al ontkracht geloof ik.
radeon nieuwsdiscussietopic al een tijdje geleden :)\

werkt dit: CJ's Radeon Nieuwsdiscussietopic - Deel 122

[Reactie gewijzigd door superwashandje op 2 december 2011 13:51]

Grappig dat iedereen hier alleen maar denkt aan videokaarten op een PCI-E bus?
Toevallig al iemand eens bedacht dat dit voor servers echt heel fijn is, nog snellere controllers voor een nog hogere datadoorvoer. Hier is eigelijk altijd wel gebrek aan, hoe sneller hoe beter! Nu moet de rest van het materiaal het nog bij kunnen houden :)
transfers

http://www.tmworld.com/ar...oes_GT_s_mean_anyway_.php

*EDIT*
waarom wordt de vraag als ontopic gemod en het antwoord vervolgens als irrelevant/offtopic??

[Reactie gewijzigd door Pim0377 op 1 december 2011 13:55]

Waarvoor zijn deze snelheden nog nodig? De meeste pci-e intensieve applicaties (games) zijn over het algemeen magere console ports en die hebben al meer dan genoeg bandbreedte met de huidige vorige standaard. 8)7
De ontwikkeling van pc apparatuur in het algemeen staat natuurlijk ook niet stil.
Natuurlijk zal een budgetkaart in 2015 echt geen versie 4.0 nodig hebben.
Maar proffessionele raidadapters of renderkaarten misschien wel.
In elk geval is er nu een spec waar ze mee kunnen werken.
Bedrijven kunnen alvast beginnen te ontwikkelen nu deze er is, en dat zal wel een paar jaar duren voordat we de eerste dingen met pci-e 4.0 gaan zien.
Domme vraag, maar wat voor eenheid is GT/s? Die G is vast "Giga", en de "s" begrijp ik ook nog wel, maar waar staat die T voor? :?
transfer
.edit: misschien had ik even moeten refreshen voor het posten :)

[Reactie gewijzigd door .oisyn op 1 december 2011 14:13]

deja vu-
AGP all over again.
Al die discussies over AGP 1x, 2x, 4x, 8x kunnen gewoon vervangen worden door pci-x
Ik neem aan dat je PCI-e bedoeld, PCI-X is iets anders.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True