Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 56 reacties
Bron: Tom's Hardware, submitter: player-x

Tom's Hardware heeft een interessant artikel gepubliceerd waarin gekeken wordt in hoeverre de bandbreedte van PCI Express van invloed is op de prestaties van moderne videokaarten. Dit is gedaan met het oog op de opkomst van SLI, aangezien alle huidige moederborden met twee PEG-slots gebruikmaken van een veredelde splitter. Dat wil zeggen dat de gebruiker of één x16-slot óf twee x8-slots tot zijn beschikking kan hebben. Met medewerking van DFI - dat een speciaal BIOS aan de reviewer leverde voor zijn Lanparty 925X-T2-moederbord - en een stuk plakband om de pinnen ook fysiek af te schermen, werd een drietal videokaarten getest met alle mogelijke configuraties van de PCI Express-interface: van x1 tot en met x16.

In de benchmarks blijkt al snel dat er een groot contrast is tussen spellen en professionele applicaties. Waar games als Unreal Tournament en Doom 3 nauwelijks een krimp geven als de bandbreedte wordt afgesneden, is in SpecViewPerf een zeer duidelijk verschil te zien. De conclusie is echter duidelijk: voor de meerderheid van de computergebruikers en huidige videokaarten is een PCI Express x4-link (1GB/s up en down) genoeg. Met x8 en x16 zijn er wel iets betere prestaties waar te nemen, maar de verschillen zijn klein en mensen met een SLI-configuratie hoeven dan ook niet bang te zijn dat de tragere bus een belemmering vormt op het moment dat ze slechts één videokaart gebruiken.

Doom 3 prestaties met verschillende PCI Express-instellingen
Moderatie-faq Wijzig weergave

Reacties (56)

Met de intrede van PCI-Express is wederom een bottleneck, de bandbreedte naar de grafische kaart toe, verlegd.

De conclusie die uit deze testen komt, is naar mijn logica dan ook normaal. Het zou zinloos zijn om een nieuwe bus te implementeren die de grafische kaart wederom beperkt in bandbreedte. Destijds zei men juist hetzelfde voor de intrede van AGP8x tov AGP4x.

Als men in de toekomst de test opnieuw zou doen met bv. een NV55 of een R550 GPU gebaseerde grafische kaart; zouden de uitslagen compleet anders zijn. Alles is relatief in tijd.
Met de intrede van PCI-Express is wederom een bottleneck, de bandbreedte naar de grafische kaart toe, verlegd.

[...]

Destijds zei men juist hetzelfde voor de intrede van AGP8x tov AGP4x.
Jammer de mensen die dat toen zeiden nu nog steeds gelijk hebben. PCI Express x4 staat qua 'downstream' (1GB/s) namelijk gelijk aan AGP4x (de 'upstream' wordt nauwelijks gebruikt door spellen, wel door die professionele applicaties). AGP8x is dus eigenlijk opgevolgd voor het ooit echt nuttig is geworden. Of PCI Express wel benut zal worden in de toekomst: dat zal best, maar de vraag is hoe ver in de toekomst. Daar kunnen imo goed vele jaren overheen gaan.
Of PCI Express wel benut zal worden in de toekomst: dat zal best, maar de vraag is hoe ver in de toekomst. Daar kunnen imo goed vele jaren overheen gaan.
Jaren?
Wat dacht je van SLI (Nvidia) of Multirendering (ATI)?
Daar heb je toch echt PCI-express voor nodig want op AGP zal dit nooit gaan lukken. En die technieken worden binnenkort losgelaten op het publiek.

De vraag of PCI-express nuttig zal zijn is allang beantwoord met een kort maar krachtige "JA". Daarbij is de bandbreedte erg future-proof, en de extra geleverde stroom is ook een must voor de hedendaagse videokaarten. Plus dat de kaart niet meer direct onder de CPU steekte geeft meer ruimte voor koeling.

In mijn ogen allemaal voordelen ten op zichte van AGP.
agp 3.0 ondersteund 2 agp poorten, er is zover mij bekend alleen geen enkel bord dat dit benut
Met AGP is SLI ook wel te doen, alleen AGP kan niet gesplitst worden en dat wordt dus te duur aan de kant van het moederbord. Maar goed, ik zeg ook niet dat PCI Express geen voordelen heeft, alleen dat de bandbreedte nog lang niet benut wordt.
alleen dat de bandbreedte nog lang niet benut wordt.
kwestie van tijd, volgende generatie videokaarten gaan het toch wel nodig hebben denk ik..
er staan met PCI-Express hele nieuwe mogelijkheden open. Zoals de GPU gebruiken als Co-processor voor rendering. Daarvoor wordt die bandbreedte echt nuttig. Ook kunnen videokaarten meer gebruikmaken van het werkgeheugen, wat handig kan zijn voor onboard- of budgetkaarten
Daarnaast hebben spellen zo veel mogelijk 'om' de bandbreedtebeperking heen geprogrammeerd. Alles wordt voor de actie begint in het videogeheugen geplaatst (scheelt ook voor HDD en werkgeheugen), waardoor in-game alleen de instructies tot verplaatsen o.i.d. hoeven te worden gegeven. Dat heeft 'geen' bandbreedte nodig.
er staan met PCI-Express hele nieuwe mogelijkheden open. Zoals de GPU gebruiken als Co-processor voor rendering.
Incorrect, aangezien dit anders ook al met AGP mogelijk was hoor. Nvidia heeft een renderer onder de naam Gelato op de markt gebracht die gebruik maakt van de GPU op de Quadro FX kaart om het proces te versnellen. En aan welke bus wordt deze kaart gehangen tot dusver? Juist ja, de AGP bus.
kijk ik ben ook helemaal niet blij dat ik straks alles in een keer moet vervangen
maar dingen als SLI zijn interessant
pci begon te langzaam te worden zelfs voor de thuisgebruiker dus gingen ze een nieuwe standaard ontwikkelen
met het oog op steeds meer bandbreedte honger van rand apratuur (raid, G-lan, enz.)
hebben ze een zeer flexibele bus ontwikkeld die ook uitermate geschikt is voor video kaarten
zo als de test laat zien was voor prof.applicaties wel degelijk de nieuwe bandbreedte nodig

PCI heeft nu al bijna 11 jaar achter de rug en AGP 7 ik denk dat het wel makelijk is als we straks weer een standaard hebben
en wat ik heb geleezen is de pci-e bus ontwikkeld voor te minste 15 jaar

maar het mooiste van pci-e vind ik dat je er alles mee kan doen
men zou bv een motherbord met een pci-e 1of 2X (onbord) video kaart en de 16X verdelen over 4 x 4X voor raid of G-lan of wat ever
je kan met een standaard chip set al een server bord maken want de bus is niet gedeeld

en net als Sata gaat in de toekomst ook hier de band breedte om hoog van 2.5Gbps > 5Gbps > 10Gbps per lijn in beide richtingen en backward compatibility
dus kunnen we hier voorlopig mee vooruit ook al doet het nu ff zeer
Face it: pci express hebben we helemaal niet nodig, 64 bit pci is er al lang.
En hoe duur is 64-bit PCI-X ook alweer? |:(
Face it: pci express hebben we helemaal niet nodig, 64 bit pci is er al lang. De aanschaf van een compleet nieuwe bak wordt nu gewoon je strot door geramd. Door pci-express, ddr2, socket 775 en andere onzin te gebruiken kan je bijna niets meer meenemen naar een volgende bak.
Komt dat de verkopers ff slecht uit!
AGP8x is dus eigenlijk opgevolgd voor het ooit echt nuttig is geworden.
Dus?
Pas aan een opvolger gaan werken als je de limiet van de vorige generatie hebt bereikt is toch geen optie?
Bovendien worden er nog steeds AGP kaarten verkocht en moet ook PCI-E nog vele jaren mee.
Het is in dit geval juist heel handig om aan een opvolger te werken voordat de limiet bereikt is:

PCI-E is heel erg nodig omdat de PCI-bus niet meer voldoet. PCI-E biedt een zeer veel grotere bandbreedte en snelheid dan PCI. Zoveel zelfs, dat je zelfs grafische kaarten ermee kunt bedienen.

Als je nu ook grafische kaarten kunt gebruiken op PCI-E, waarom zou je dan nog de moeite nemen om AGP op je mobo in te passen? Dat kost ruimte, geld en energie.

Dus AGP wordt onder andere vervangen omdat er een goedkopere, makkelijker en schaalbaarder alternatief is. Niet in de eerste plaats omdat de limiet van AGP bereikt is.
Door te snel een update te pushen kan je steeds moeilijker upgraden. AGP8X is nu nog steeds geschikt voor de nieuwste videokaarten, maar het wordt steeds lastiger een AGP versie te bemachtigen. Dus moet je als je een nieuwe videokaart wilt hebben ook je moederbord vervangen, en misschien zelfs je geheugen en een aantal PCI kaarten die niet meer passen erbij.

En dan zul je zien, heb je eindelijk alles geupgrade naar PCI-E en heb je een leuke SLI PCI-E opstelling, komen ze met iets nieuws (AGP-E misschien?) waardoor het hele verhaal overnieuw begint. Het wordt dus steeds lucratiever om niet te upgraden maar elke X aantal jaar een compleet nieuwe pc aan te schaffen :(
Sorry, maar ik noem iets waarbij de performance 1-2% toeneemt (zie ati kaarten) niet echt een verlegging van de bottleneck, als dit echt zo was zou de performance tientallen procenten lager moeten uitvallen op PCIe x1 of x2 of x4...

Deze bewijst maar weer dat deze bandbreedte nog helemaal niet nodig is, en ook dat het helemaal niet zo veel uitmaakt dat bij SLI modus de kaarten in PCIe x8 moeten werken i.p.v. PCIe x16.

Je hebt idd wel gelijk dat het met de komende generaties meer benut zal gaan worden, zoals ati al een nieuwe techniek heeft aangekondigt om op bijvoorbeeld (budget) kaarten minder geheugen te plaatsen en het systeem geheugen te gebruiken als een soort swap-file. Ook maken SLI (als bij nVidia die tussenconnector niet gebruikt wordt) en waarschijnlijk vooral Ati's MultiRendering goed gebruiken van de Up/Downstream bandbreedte van PCIe.
Tsja ach...

De bandbreedte van AGP 3.0 (oftewel AGP 8x) is 2.1GByte/sec wat overeen zou komen met PCI-E 4x...

Alleen PCI-E 8x en 16x zijn theoretisch (een beetje) sneller dan AGP8x en dat mag ook wel voor een nieuwe techniek! :)
Een ander groot voordeel van PCI-E is dat het meer stroom kan leveren aan de kaart.
Ja, jammer alleen dat kaarten zoveel verbruiken dat die extra stroom geen flikker uitmaken, je moet nog steeds extra stekkertjes aansluiten dus dat is een voordeel van niks :Z
Het voordeel van meer stroom maakt zeker wel verschil. Zo heeft bijvoorbeeld de 6600GT voldoende aan de 75W die PCIe levert, maar heeft de AGP-uitvoering (met een maximum van 45W) wel een extra connector nodig. Grote kans dat dit in de toekomst voor de gemiddelde mainstream kaart vaker op zal gaan.
Verrassend dat de Nvidia kaart veel meer last heeft van een lage PCI-E snelheid dan de ATI kaarten.

Waar zou dat door komen?

Zou dat toch het verschil zijn tussen de Native pci-e en een bridge chip? Ik kan verder eigenlijk geen verschillen tussen die kaarten voorstellen die zoveel met de bus te maken hebben.
je moet het zo zien... de data die over de pci express lijn gaat is bij 40 fps identiek bij nvidia en ati... de grafische engine van doom3 (in 't geval van die tabel in het plaatje) bepaalt wat er per frame naar de grafische kaart wordt gestuurd (shaders, vertices en textures).

blijkbaar is er op een beschikbare bandbreedte van x1 ongeveer 43 frames aan shaders en vertices (en eventueel textures) doorheen te jagen.

de ati kaart in kwestie zit toevalligerwijs qua maximale performance (ongeacht pci express bandbreedte) net boven die x1 top van 43 fps en daarom zie je nauwelijks verbetering bij meer bandbreedte..

in 't geval van nvidia weet de kaart er een stuk meer uit te persen dan die 43 fps top van x1, wat zich uit naarmate de pci express bandbreedte toeneemt.
Ik vind de verklaring heel leuk verzonnen, maar als je bij Tom's de rest van de grafieken bekijkt, dan zie je dat die verklaring niet kan kloppen!

Bij alle andere spellen is het de X800 die de snelste is, en die heeft dan nog steeds geen last van de x1 bandbreedte, terwijl de 6800 er wel veel last van heeft.

Wel ben ik het met je eens dat je zou verwachten dat dezelfde hoeveelheid data over die pci-express lijn heen gestuurd moet worden bij identieke framerates.
Pak bv de 3DMark03 benchmarks. Op x1 presteert net zo goed als de 6800 op x16, terwijl de 6800 op x1 25% prestatie moet inleveren.
(3DMark05 gebruik ik express niet, omdat je daar geen apples-to-apples vergelijking hebt, aangezien daar propietaire Nvidia schadow technieken in gebruikt worden, en dat zou verschil kunnen maken)

Als de hoeveelheid data over de bus gelijk is, en de snelheid van de bus is ook gelijk (allebei x1) dan moet er dus ergens anders een bottleneck zitten.
De meest voor de hand liggende lijkt mij dan die bridgechip.
(Waarmee ik niet Nvidia wil aanvallen, want het is duidelijk dat het ding op x8 en x16 waarop de kaart in de praktijk zal werken, totaal geen bottleneck is)

Er zou in theorie nog verschil kunnen zitten tussen FP24 en FP16/FP32 die Nvidia gebruikt. Dat had een goede verklaring kunnen zijn in de begindagen van de 5800Ultra, aangezien toen heel veel in FP32 ging voor Nvidia kaarten.
Maar nu gaat het overgrote meerendeel in FP16 voor Nvidia kaarten, dus als het uit zou maken, dan zou je eerder verwachten dat het in het voordeel van Nvidia zou moeten zijn.
Wel ben ik het met je eens dat je zou verwachten dat dezelfde hoeveelheid data over die pci-express lijn heen gestuurd moet worden bij identieke framerates.
Dat hangt dus sterk af van driver optimalisaties.
Waarom denk je dat?

Driver optimalisaties zoals die de afgelopen twee jaar slecht in het nieuws zijn gekomen werken volgens mij op zaken die niet via de bus lopen, maar allemaal op de videokaart zelf.

De AGP of PCI-E bus is altijd zoveel mogelijk ontzien tot nu toe, omdat de bandbreedte niet voldoende was. En op die manier is er juist voor gezorgd dat die bus helemaal geen bottleneck is.
Maar als iets geen bottleneck is, dan is er ook niet echt behoefte om op dat gebied veel optmalisaties door te voeren.

Uiteindelijk bestaat de data die over AGP/PCI-E heen gaat volgens mij vooral geometrische data en texture data.
Dan kan je proberen te optimaliseren wat je wilt, maar een stapel 3d coordinaten, blijft een stapel coordinaten. Dat kan je niet zomaar verkleinen.
Compressie op textures zou veel meer effect hebben. Maar de compressie technieken die toegepast worden zijn ook gelijk.

Uiteindelijk gaat er gewoon een berg ruwe data over die bus, die in principe bij beide kaarten gelijk zou moeten zijn.

Ik kan me dus niet echt iets voorstellen wat zoveel effect zou hebben. Daarom zou ik graag horen in welke richting jij zit te denken.
Een game geeft een OpenGL instructie door aan de driver. Die driver geeft het door aan de videokaart. De driver bepaalt dus wel wat er over gaat... En kan dat dus ook versimpelen.
Ok, maar ga dan nu eens wat verder denken over wat die driver kan bepalen aan het spul wat er over een bus heen gaat.

De driver kan aan de videokaart vertellen: teken een driehoek met deze coordinaten: x,y,z
Vul die driehoek met deze texture: ABC

Dan kan die driver hoog of laag springen, de hoeveelheid data die over die bus heen moet gaan is noodzakelijkerwijs gewoon die coordinaten en die texture.
Dan kan ie hooguit landradig zijn in het omschrijven van de opdracht, maar de hoeveelheid bytes die nodig zijn om de opdracht te omschrijven is peanuts vergeleken met de data voor een texture. Zefls als doet ie dat inefficient.

Aangezien een Nvidia en ATI kaart dezelfde driehoek afbeelden, moeten ze noodzakelijkerwijs dezelfde texture en dezelfde coordinaten over de bus heen gooien.

Dus wat denk jij dan dat die driver kan versimpelen?
mjtdevries:
de texture zal over 't algemeen niet verstuurd worden.

er gaan normaliter per frame alleen vertices (met info als 3D coordinaten, texture coordinaten, alpha-level, ...) en shaders over die bus.

feit blijft dat de overgrote bulk van data gewoon de vertex informatie zal zijn wat niet bepaald te optimaliseren valt (hooguit eventueel met compressie, maar ik heb er nog nooit van gehoord dat dit wordt toegepast, ook omdat de driver daar natuurlijk langzamer van zou worden)
Omdat de nvidia kaarten beter presteren en dus ook een snellere toevoer van data vereisen.
Alleen presteert ATI op PCIe x1 weer beter dan Nvidia. Het sneller presteren van Nvidia biedt dus niet een volledige verklaring.. Behalve dus toch ook een verschil tussen native PCIe en een bridge-chip zou ook een aanvullende verklaring kunnen zijn dat de drivers van ATI wat betreft communicatie tussen de GPU en de CPU beter geoptimaliseerd zijn.

edit: versie 1.1 :)
Misschien dat ATI texture compressie gebruikt?
Ik geloof dat het 3Dc heet.
Wordt bij die spellen nog niet gebruikt.
3Dc moet door de programmeur in het spel verwerkt worden. Het is niet iets dat automatisch door de videokaart aangezet kan worden.
De andere vormen van texture compressie worden door zowel Nvidia als ATI ondersteunt en worden ook weer door de applicatie bepaalt.

Er worden wel compressie methodes op de kaart zelf gebruikt die geen ondersteuning van de applicatie vereisen. Maar ook die verschillen niet veel tussen ATI en NVidia.
Wellicht dat ATI ook zoiets heeft gemaakt voor de PCI-E bus, maar ik kan het me eigenlijk niet voorstellen, aangezien het voor zowel AGP als PCI-E geen nut heeft, aangezien x1 niet wordt gebruikt bij videokaarten.
Omdat de nvidia kaarten beter presteren en dus ook een snellere toevoer van data vereisen. Bij een lagere bus vormt dit dus een belemmering voor de kaart omdat deze gewoon niet genoeg data aangeleverd krijgt.
@xer
Dat is volslagen onzin, en iedereen die even de moeite neemt om het orginele artikel bij Tom te lezen kan dat ook onmiddellijk constateren.
Bij alle andere spellen presteert die X800 beter dan die Nvidia kaart, en daar zie je precies hetzelfde: De X800 heeft (praktisch) geen last van de lage PCI-E, en de 6800GT wel.
Gisteravond even een vlug testje gedaan met mijn R9700 Pro en Far Cry. AGP bus teruggezet naar AGP1X en wat blijkt: het opstarten van een veld duurt ongeveer 1,75 keer zo lang, maar zodra hij geladen is is er prima mee te spelen zonder problemen. reso: 1024/768, 0X AA 0X AF, High detail. niet getest op very high, maar ik denk dat dit hetzelfde zal zijn (ik werk standaard op High detail, vandaar dat ik het zo getest heb, dan kan ik de verschillen makkelijker zien)
waarom maken ze die videokaarten dan niet gewoon een flink stuk smaller? x4 in 't geval van ati bijvoorbeeld..

dan zou zo'n kaart op meer mobo's passen en mobo's zouden ook meer/bredere sloten kunnen plaatsen, omdat de videokaart niet alle pci express banen opslokt...
waarom maken ze die videokaarten dan niet gewoon een flink stuk smaller? x4 in 't geval van ati bijvoorbeeld..
En dan?
Je geluidskaart in een x4 slot?
Meer sloten?
Daar is fysiek niet eens plaats voor.
geen probleem zou prima moeten werken
volgens de standaard zou een 1X kaart het prima moeten doen in een 2/4/8/16/32X slot en andersom zo lang het past in het slot
de lijnnen die niet worden gebruikt worden gewoon uitgeschakeld
(vind het alleen jammer dat ze de achterkant van de conector niet hebben open gelaaten zo dat grotere kaarten in kleinere slots passen)
geen probleem zou prima moeten werken
Natuurlijk, maar wat zou het nut zijn?
het nut? raid controllers, gigabit ethernet, dat soort dingen

of wat dacht je van 4 vga kaarten in je systeem? is met x4 kaarten en sloten geen enkel punt.
Wat dacht je van marketing? :)

Denk jij dat de buurman het door heeft dat een x4 kaart net zo snel is als een x16 kaart? Nee, natuurlijk niet ;) En dus hebben we AGP 8x (wat niet 1 normale kaart gebruikt) en PCIe x16 :\
Conclusion: X4 PCIe Is Usually Sufficient
Nu wel ja, maar PCI-Express moet minimaal nog 5 - 8 jaar mee, als het niet meer is. Is toch slim dan dat PCI-Express veel meer bandbreedte aankan dan dat nu gewenst is? Is het meteen klaar voor te toekomst.

Plus dat je nooit weet wat voor 16x PCI-Express kaarten er nog op de markt komen. Misschien komen er wel dikke SCSI/RAID controllers die in de 16x PCI-Express slot kunnen (misschien voor dikke servers?) Dat is nou juist het mooie van PCI-Express. Je kan het ook andere dingen in doen dan alleen maar video kaarten.

De upstream functie van PCI-Express maakt deze configuratie juist aantrekkelijker voor dikke SCSI/RAID kaarten lijkt mij, ipv de standaard PCI-64 dat nu gebruikt wordt. Dan weet je iig dat de bottleneck niet aan de bandbreedte ligt.
Ik dacht ook dat een AGP poort of alleen gegevens leest of alleen schrijft en niet allebij tegelijk kan uitvoeren.
Maar de PCI-x & PCIExpress poort kunnen dat wel.
Als dit een beetje klopt is dat ook een aanwinst tenopzichten van de goeie ouwe AGP poort
er wordt bij de huidige generatie gpu's over het algemeen niet echt gelezen uit de gpu, eigenlijk alleen maar geschreven er naartoe.

shaders worden vrijwel nooit gebruikt om hun resultaten terug te koppelen naar de cpu, omdat dit niet in een geschikte vorm kan. in de toekomst (in DX10 naar ik aanneem) zal hier wel verandering in komen.
Dat is dus bijna waar. Ware het niet dat (zoals hier boven al aangegeven) rendering programma's (3dsmax e.d.) WEL de gegevens uit de GPU teruglezen en die dan verder bewerken. Ook kan dit gebruikt worden bij videokaarten met video/TV capture mogelijkheden. Nu krijg je dus de mogelijkheid video te capturen, dat signaal realtime te converten en daarna weer naar je vga te sturen. Meestal kijk je video-in via overlay en kan je niet iets aan dat beeld veranderen. Reden waarom je het beeld in bijv. "preview" modus van virtualdub zo tekeer ziet gaan (lees diashow, alhoewel het kiezen van een te CPU intensieve codec daar ook een oorzaak voor KAN zijn) Nu zou je genoegen bandbreedte moeten hebben om dat zonder haperingen te doen.
Ik heb ook ooit eens gelezen van een C Math library die berekeningen uitvoert via de GPU. Prima te gebruiken in distributed projects ... als je CPU EN GPU uit hun neus lopen te vreten, waarom gebruik je ze dan niet allebei?
Al met al ... er kan plots veel meer door het eenvoudig duplex maken van een bus, zoals PCI-E is t.o.v. AGP. Ik ben benieuwd wat er ook werkelijk gerealiseerd wordt.
vandaar dat ik ook zeg "over het algemeen".. dit soort situaties kom je in games niet tegen.

je leest je resultaten eigenlijk alleen terug in de vorm van rendered images... niet echt geschikt om wiskundige resultaten uit shaders op te vragen (ook al gebeurt dit dus wel...op een zeer omslachtige manier dus)
Wat maakt het uit dat PCI Express eigenlijk geen nut heeft. Nu kunnen ATI en Nvidea echt alles maken omdat er toch genoeg znelheid voor is. De GPU slots lopen gewoon wat voor.

Nu ff iets anders:
Als je kijkt naar de uitslagen waarom maken ze dan geen bord met 4 4x sloten. Kan je niet zoals met SLI 2 maar 4 kaarten in je PC bouwen. Zoveel verschill zit er nou ook niet tussen x4 en x16 dus dan heb je flink wat performancewinst.
Lekker voor het milieu, en je portemonnee :P
een Fort GT is dat allebij ook niet, maar ze zijn wel allemaal al vertkocht voor dat ze er eenmaal waren... pats factor verkoopt altijd. als marketing in iedergeval, maar misschien houd nvidia nog wat achter de hand en presenteren ze volgend jaar een 3 of 4 weg SLI oplossing
tecure compressie, volgens mij werkt dat enkel over de eigen geheugen bus, niet de systeems interface.

Over het algemeen, lage bandbreette betekend dat data sneller van A naar B is, dus das altijd beter, plus wij willen dat PCI-E ook echt NOOIT de bottleneck zou kunnen zijn. Amd heeft er eigenlijk wel erg goed op ingespeeld, door geheugencontroller op cpu te plaatsen wordt de HT voor andere dingen gebruikt, en hoeveel bandbreette had zo\\\\\\\'n HT ok al weer, 1GHz maal 16 bits / 8 * up en down = 4,0GB/s net als PCI-E 16x overgens.

Dus het een beetje ONGELOVELIJK DOMMMMMM om een p4 te gebruiken omdat zijn I/O de CPU bandbreette moet delen met het geheugen, en dan is 1066MHz - 800Mhz=266, 266MHz * 64 / 8 = 2167MB/s, wanneer het geheugen ten volste wordt gebruikt, en dan vind ik de tegenvallende stap van X8 naar X16 niet zo heel verwonderlijk.
Leer eens de taal een beetje fatsoenlijk schrijven man: "bandbreette"

Verders klopt hetgeen je zegt ook niet.
Een lagere bandbreedte, dus minder bit/sec, betekend dus niet dat data sneller van A naar B gaat.
Een lagere latency betekend dat het oponthoud door klok synchronisatie en het opnieuw schrijven van een geheugencel minder lang duurt.
AMD heeft door het verplaatsen van de memory controller naar "in" de CPU core, één "trage" verbinding van CPU Core naar North bridge chip verwijdert. Oftewel een extra tussenstap is weggevallen waardoor de latency ongeveer 30% verbeterd is.
Dit resulteerde in het sneller beschikbaar zijn van het geheugen en dus een betere performance, ondanks dat de hoeveelheid data die per seconde van de CPU naar het geheugen verplaatst kan worden niet groter is geworden.
Intel heeft een andere benadering gekozen.
Die hebben de bandbreedte vergroot. Oftewel de hoeveelheid data welke per seconde kan worden verplaatst is bij Intel aanzienlijk groter. Er is echter een nadeel en dat is dat in de tijd dat AMD bijvoorbeeld 10 bewerkingen op het geheugen kan uitvoeren kan Intel er slechts 6 doen. Zijn het echter bewerkingen waar grote "porties" data verstuurd moeten worden, dan pakt Intel weer ruimte terug.
Je kunt het een beetje vergelijken met een formule 1 race. Het ene team is zeer snel in bochten (korte snelle acties) en het andere is zeer snel op het rechte eind (lange grote acties).

Wat dit met PCI Express te maken heeft? Weinig.
PCI Express is een uitbreidingsbus. Een uitbreidingsbus is via een South bridge aan een CPU gekoppeld. De South bridge is via een apparte bus met de CPU verbonden en krijgt slecht´s een beperkt gedeelte van de beschikbare bandbreedte toegewezen. De nieuwste CPU´s hebben een geheugenbandbreedte van 6,4Gb/s tot 8,53Gb/s .Oftewel flink meer dan de 4,3Gb/s welke PCI Express 16x tot zijn beschikking heeft en de geheugenbandbreedte van CPU´s is nog lang niet op haar eind, terwijl de PCI Express standaard nog lang niet doorgevoerd is en ook nog lang niet vervangen gaat worden.
ok ik weet verschil tussen latency en bandbreette, enkel, het echt zeggen dat als je de bandbreette verhoogt de data niet sneller van a naar b is, dat kun je niet zeggen.

Verder zou je het moeten zien als een als een soort van grafiek waarin op de X as de data grootte staat en op de Y as de tijd die het duurt. Bij meer latency zie je dat er een soort minimale tijd ontstaat, das is de lateny, daarna begint hij pas met versturen van data, en dan bepaalt de bandbreette hoe snel dat afgehandeld is.

En nee ik heb het gehele versclag niet gelezen, maar jij hebt ook niet mijn hele bericht gelezen, anders had je wel gezien dat ik duidelijk zeg, DE INTEL HEEFT 1 FSB, WAAR ZOWEL I/O als HET GEHEUGEN mee met de processor moeten praten. EN wat dat dan met PCI-Express te maken heeft is het volgende. 4GB/s bandbreette met het systeem, is eigenlijk alleen 4GB/s bandbreette met de processor, er zijn andere dingen die ook invloed hebben maar dat is verwaarloosbaar. Of die 4GB/s gehaalt kan worden hangt dus ook af van de bandbreette van de processor, de AMD A64's hebben voor het systeem een apparte link, een HT van 4GB/s. De P4's moeten met hun FSB zowel met het geheugen als met de rest avn het systeem praten, en zo zie je dat van die 1066MHz FSB waarvan het geheugen het overgrootte deel gebruikt er eigenlijk maar vrij weinig overblijft, en dat verklaart dus ook het kleine verschil tussen PCI-E 8x en 16x van de tests van Toms Hardware Guide.
Je hebt je zeker nooit verdiept in DMA? Het is dus absoluut niet waar dat alle I/O via de FSB loopt.
het is nou niet echt zo dat ze het onderste uit de kan halen met PCI Express...
Maar goed.... de techniek is nog jong zal ik maar zeggen... :P
w8 met smart de toekomst af ;)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True