UL brengt 3DMark-test uit om pci-express-bandbreedte te meten

UL heeft zijn 3DMark PCI Express-benchmark uitgebracht. De test bevat een specifiek scenario waarmee de beschikbare bandbreedte van een videokaart in een pci-e-slot gemeten kan worden. De test is uitgebracht vanwege de komst van pci-e 4.0-videokaarten.

UL geeft zelf toe dat in huidige praktijksituaties de pci-e-bandbreedte geen limiterende factor is, maar de makers van 3DMark willen een mogelijkheid geven om te meten wat de maximaal haalbare bandbreedte is van videokaarten. Begin juli komen de AMD Radeon RX 5700 en RX 5700XT uit, de eerste videokaarten die de pci-e 4.0-interface gebruiken.

De nieuwe feature test in 3DMark is zo gemaakt dat de beschikbare bandbreedte de beperkende factor wordt. Dat is gedaan door voor elk frame grote hoeveelheden vertex- en texture-data naar de gpu te sturen. Het doel daarbij is om zoveel data te sturen dat de pci-e 4.0-interface volledig verzadigd kan raken. De resulterende score is de gemiddelde bandbreedte die behaald werd tijdens de test.

Volgens UL is de nieuwe test een manier om verschillende pci-express-generaties met elkaar te vergelijken. De bandbreedtetest is vanaf nu beschikbaar in 3DMark Advanced Edition en in 3DMark Professional Edition. De test werkt met videokaarten die compatibel zijn met DirectX 12.

Door Julian Huijbregts

Nieuwsredacteur

26-06-2019 • 09:25

24

Reacties (24)

24
24
18
2
0
4
Wijzig sortering
Hoewel ik eerst wat sceptisch was over het nut van PCI-E 4.0 voor een gewone desktop, realiseerde ik me dat ik drie PCI-E SSD's in Raid0 heb draaien (no worries, ik heb backups) op een threadripper bak puur vanwege de PCI-E lanes... Waarom? Ik werk met Lidar. En er bekroop me een gek gevoel dat ook ik voor mijn gevoel dicht bij de PCI-E bandwidth limiet zit van m'n videokaart; sterker nog; om dat soort zaken op te lossen had AMD een tijd geleden dit soort dingen:

nieuws: AMD toont Radeon Pro-kaart met aansluitingen voor twee m2-ssd's

Helaas mogelijk wat ver voor op de tijd maar het komt ook mij voor dat de GPU of het VRAM zelfs niet de bottleneck zijn, maar de snelheid waarmee ik het kan vullen rechtstreeks vanaf de CPU/Storage... Bovenstaande oplossing was vooral bedoeld om complexe revit modellen e.d. direct beschikbaar te hebben, maar tsja, de use case van PCI-E 4.0 (en meer) is natuurlijk ook om dit gedeeltelijk op te lossen. Waar ik nu ~8gbyte/sec kan lezen; zal ik met PCI-E4 met gemak naar 15 of meer kunnen gaan, en tsja, dan zal m'n PCI-E3.0 GPU (was voor nVidia gegaan...) wel een bottleneck kunnen hebben.
Wat is het nut van een test waarvan de resultaten niets zeggen over de daadwerkelijke prestaties van een systeem omdat het geteste onderdeel in geen elkel geval de beperkende factor is?
Cijfertjes :+

Maar zonder gekheid: PCIe bandbreedte kan wel degelijk een bottleneck vormen. Bij Multi-GPU configuratie kan er in sommige scenario's een prestatie verschil ontstaan tussen x8x8 en x16x16 set-ups. Tel daarboven op dat steeds meer apparatuur gebruik maakt van PCIe lanes (thunderbolt en SSDs anyone?).

[Reactie gewijzigd door Caayn op 23 juli 2024 09:05]

Cijfertjes :+

Maar zonder gekheid: PCIe bandbreedte kan wel degelijk een bottleneck vormen. Bij Multi-GPU configuratie kan er in sommige scenario's een prestatie verschil ontstaan tussen x8x8 en x16x16 set-ups. Tel daarboven op dat steeds meer apparatuur gebruik maakt van PCIe lanes (thunderbolt en SSDs anyone?).
De videokaart heeft gescheiden kanalen die naar de cpu lopen. Het is niet zo dat wanneer jij 200 ssd's aansluit de bandbreedte van je videokaart daalt.

Techpowerup test regelmatig de zogenaamde PCI-E scaling door de snelste videokaart te pakken. Dit is vorig jaar met de 2080 ti gebeurd. Het resultaat is momenteel een verschil van 2 a 3 procent tussen PCI 3.0 x8 en PCI 3.0 x16. Zie https://www.techpowerup.c...ci-express-scaling/6.html

PCI 3.0 x8 is overigens 7880 MB/s en x16 is 15760 MB/s. Bij PCI verdubbelen beide waardes.
Als je het opneemt in een grotere testsuite is het geen verkeerde test.
Als je het opneemt in een grotere test, dan is het *juist* een probleem, omdat het dan een vertekend beeld gaat geven. een PCI Expres 4.0 zal een groter test resultaat krijgen terwijl er in de realiteit geen verschil is.
Puur interesse in de waarde, is toch leuk om te weten.
Voorbeeld: Waarom zou je de topsnelheid van een auto vermelden als je toch niet harder dan 130 mag rijden?
Offtopic: Of 120 in België... :)

Ontopic: voor de mensen die "klaarkomen" bij het zien van cijfers is het uiteraard wel interessant, meer cijfers = meer insight, en meten is weten...
Bij bijv. GPGPU oplossingen kan de interface bandbreedte een beperkende factor zijn als je veel data moet overpompen.
Dat kan je van heel veel ontwikkelingen zeggen, echter zetten die wel de deur open naar de toekomst. Op dezelfde manier is deze test over een tijdje veel belangrijker dan nu, omdat er meer vergelijkingsmateriaal is.
Bij multi gpu opstellingen is zo'n test prettig. Denk ook niet per se aan gaming, maar eerder aan gpu-rendering waar pci-lanes en dus bandwidth wel een beperkende factor kunnen zijn. Handig tool om te kunnen testen dus.
dat is niet waar. de transfer bandbreedte is beperkt door 4 dingen:
1. System memory bandwidth
2. PCI-E gen
3. aantal pci lanes
4. Device memory bandwidth.

GPUs (device) hebben internal memory copy bandwidth en bandwidth naar buiten toe (heeft temaken met geheugen linear maken, want gpus slaan de data internally vaak anders op).

[Reactie gewijzigd door Vlad86 op 23 juli 2024 09:05]

De test is om de verchillende pciexpress versies te vergelijken.Hoeveel ze te verstouwen hebben en hoe snel de verschillende versies pciexpress versie is waar de videokaart op draait.

[Reactie gewijzigd door rjmno1 op 23 juli 2024 09:05]

Het is maar een kwestie van tijd voordat de eerste game uitkomt die wel instellingen heeft die PCI express 4.0 tot z'n limiten drijft. Dus als jij nu een nieuwe graphics card koopt en binnen 3 jaar Half Life 4 (om maar iets te zeggen) aan het spelen bent die alles uit PCI Express 4 perst, dan ga je je afvragen of je 3 jaar oude beeldkaart dit spel degelijk kan draaien. Op die moment ga je heel blij zijn dat er in 2019 al software voorhanden was om deze bandbreedte te testen.

Verder is het altijd goed als je een nieuw protocol maakt en producten dat je dat wel op één of andere manier degelijk kan testen of die wel future proof is.

[Reactie gewijzigd door B-BOB op 23 juli 2024 09:05]

Er is al een game die grotendeels afhangkelijk is van de PCI-E bandbreedte: Rage (vast wel ook andere games die dezelfde engine gebruiken). Rage maakt gebruik van megatextures, die realtime naar de gpu gestreamed worden.
Ach je kan het verschil tussen 2.0/3.0 en 4.0 meten.
Toch leuk om te weten hoeveel meer de hogere doorlaat....
Wat kan ik met die kennis...?
Of is het zo dat verschillende planken (msi/asus/gigab.) onder (verder) dezelfde omstandigheden een varierende uitslag geven?
Dat zou kunnen, of een device kan geadverteerd staan als PCIe4 maar intern stiekem PCIe3 zijn, of een trage kaart met dikke *WOW* PCIe4!!!! SUPERRRRSNELLL stickers en dito premium tov de normale versie kan makkelijker door de mand vallen, of er kan een andere reden zijn waarom een device de bus niet volgetrokken krijgt terwijl je dat wel zou mogen verwachten op basis van de specs. Wie weet krijg je ermee te zien dat je voeding niet genoeg prik levert ofzo.
intern pcie3? wat je bedoeld is denk ik trage device memory. Net voordat data via DMA gekopierd wordt, wordt de protocol afgesproken, dus je kunt het niet zomaar faken.
Toen PCIe net nieuw was had je een hele stapel videokaarten die intern nog AGP waren, maar met een bridgechip toch een PCIe-aansluiting kregen. Dat lijkt me voor PCIe4 niet heel erg logisch aangezien alles backwards compatible is, maar marketingafdelingen halen wel eens vaker "is compatible met" en "is native" door elkaar en zijn niet vies van een beetje overdrijven. Zie het hele "HD Ready" fiasco bijvoorbeeld. Dan zou je dus kunnen krijgen dat een PCIe3-kaart geadverteerd wordt als PCIe4 omdat 'ie toevallig in een PCIe4-slot past en dan ook werkt (maar niet op die snelheden). Ik zeg niet dat het gebeurt maar ik noemde gewoon een stapel mogelijkheden.
ik snap wat je probeert te zeggen. Marketting probeert altijd een weg te vinden om product in je handen te douwen. Alleen bij deze lijkt het mij overbodig, want de interface is backwards compatible, zo iets zou alleen een device duurder maken dan t nodig is.

Betreft de AGP is het beetje logisch. Dat was in de overgangs fase, waar de interfaces met elkaar niet compatible zijn. Klinkt idd als oude tech uit de voorraad opgemaakt moest worden :)

[Reactie gewijzigd door Vlad86 op 23 juli 2024 09:05]

In theorie zou dat kunnen, maar dat lijkt me onwaarschijnlijk. Ik zat eerder aan de kant van de videokaart te denken. Als deze de inkomende data op een lagere snelheid verwerkt, heeft de hogere linksnelheid geen effect. Daarmee lijkt me dit een test die de doorvoorsnelheid van de videokaart kan test, gelimiteerd door de PCIe snelheid, maar kan lager zijn.
Dit werkt dus alleen voor je GPU maar wat nu als ik de PCIe bandbreedte naar NVME drives of andere hardware wil testen?
Als je een GPU op een x8 af kleiner slot aansluit kan je met HWiNFO ook al zien dat je beperkt in bandbreedte gaat zijn en beter voor een ander slot kan gaan.
Om de bus te kunnen testen moet er iets op aangesloten zitten dat minimaal de maximale bandbreedte aankan. Een NVME device kan dat op dit moment nog lang niet. Hier test je dus niet de bus maar het aangesloten device.
Prachtig filmpje btw.

Op dit item kan niet meer gereageerd worden.