Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 33, views: 16.640 •

Nvidia heeft een patch uitgebracht waarmee videokaarten uit de 6xx-serie, met een Kepler-gpu aan boord, op meer platforms de derdegeneratie-pci express-interface kunnen gebruiken. Voorheen ondersteunden alleen 1155-borden die interface.

De moederborden van verschillende fabrikanten die met Intels nieuwste chipset, de Series 7 Express-chipset, werden uitgerust, ondersteunen pci express 3.0-interfaces. Ook veel Series 6-borden, oorspronkelijk bedoeld voor Sandy Bridge-processors, maar eveneens voorzien van een lga1155-socket, ondersteunen de hogere bandbreedte die pci express 3.0 biedt. De nieuwste videokaarten van zowel AMD als Nvidia kunnen met de extra bandbreedte overweg. Nvidia trok ondersteuning op het high-end platform op basis van Sandy Bridge E-processors echter in wegens gebrek aan formele certificering voor de pci express 3.0-interface.

Met zijn nieuwste patch heeft Nvidia de pci express 3.0-ondersteuning van het X79-platform, ook bekend als het Sandy Bridge E HEDT-platform, weer mogelijk gemaakt. De patch is geschikt voor de nieuwste videokaarten uit de Kepler-serie, zoals de GTX 670 en GTX 680. Die worden na een herstart gedwongen in pci express 3.0-modus te draaien, zodat de totale beschikbare bandbreedte van een lane van 8GT/s gebruikt kan worden. Overigens zouden vrijwel uitsluitend sli-opstellingen waarbij kaarten in een x8-slot worden gestoken profiteren van de extra bandbreedte. Een x16-slot met pci express 2.0-interface biedt voldoende bandbreedte voor de Kepler-kaarten.

Reacties (33)

jammer dat de high end chipset van amd (990fx) geen pci-3.0 ondersteund.
vooralsnog zijn het intel chipsets die pci-3.0 ondersteunen.

Het verschil in performance is gelukkig miniem
http://www.hardwarecanuck...ce-gtx-690-review-25.html

[Reactie gewijzigd door mrc4nl op 21 juni 2012 21:40]

Het wordt zelfs nog beter getest door Anandtech, die vergelijk namelijk verschillende spelletjes op x2, x4, x8 and x16 via PCI-Express 3.0 om het verschil te vinden.

Er zaten nogal wat verassende resultaten in:

http://www.anandtech.com/...dth-overclocking-and-msaa

Battlefield 3, Civ V, Crysis Warhead, Metro 2033, Batman Arkham City en talloze andere spelletjes die van vergelijkbare engines gebruik maken hebben amper verschil tussen x2 en x16 van PCI-Express 3.0. Dus zelfs met PCI-Express 2.0 x4 kan je die spelletjes gewoon spelen.

Portal 2 is het eerste spel wat een duidelijk verschil toont op x2 snelheid, maar op x4 is het al amper toonbaar.

Dirt 3 en Shogun laten dan eindelijk een verschil zien tussen x2, x4 en x8, waarbij x16 amper voordeel bied.

Voor een enkele videokaart is er dus amper voordeel, maar zodra je dus met een dual, triple of quad opstellingen bezig bent dan is het dus wel interesant, maar dan is een x8/x8/x8 opstelling in PCI-Express 2.0 (of x4/x4/x4 in 3.0) dus al voldoende voor de meeste spelletjes en merk je het alleen in Dirt 3 en Shogun (en alle spelletjes op soortgelijke engines).

Het is wel iets lastiger, omdat je dus bij de CF/SLi opstellingen ook rekening moet houden met de dataoverdracht tussen de verschillende videokaarten en hoe sneller die bus is des te sneller de overdracht van de data die via PCI-Express verloopt.
Ik snap nog steeds niet waarom PCI-e 3.0 al zoveel wordt geplaatst op moederborden. Huidige videokaarten en andere uitbereidingskaarten gebruiken nog niet eens de volledige bandbreedte van PCI-e 2.0.

Goed, het is leuk dat die snelheden te behalen zijn, maar zolang andere onderdelen het niet halen, heb je er niks aan.
Dat is juist het punt.

De bandbreedte moet altijd groter zijn dan de hoeveelheid die je nodig hebt.

Anders loop je juist tegen de limiet aan, en je moet ten allen tijde ervoor zorgen dat je niet tegen het limiet aanloopt.
Daar heb je gelijk in, maar het is ook niet bepaald zinnig om een grote overkill aan bandbreedte te hebben. Ik kan niet bepaald een configuratie bedenken die zomaar tegen het limiet aan loopt.
Als het net zoveel, of maar marginaal meer kost om een betere interface op een moederbord te zetten, is het 1: een verkoopargument, 2: beter voorbereid op de toekomst als in 1x wel die bandbreedte nodig is.
Tja alsof iemand langer dan zeg max 2 jaar vandaag de dag een moederbord in gebruik houdt :S
ja hier. paar jaar geleden mijn athlon x2 vervangen door een phenom x4 en mijn x1950pro door een radeon 4850 en die weer vorige week vervangen door een radeon 6790. alles op hetzelfde moederboord. Ik doe al ruim 3 jaar met dit moederboord en als ik de HDD vervangen heb door een SSD komt daar nog minstens een jaar bij.
Ik wel, tri of quad sli/crossfire (met de nvidia 6 serie of amd 7 seroe) waarbij je gebruikt maakt van resoluties van boven de 11MP.

op het x58 platform had je dan op zijn best 4x pcie 2.0 8x , met socket 2011 kan je dus naar 4x pcie 3.0 8x gaan. Volgens sommige gebruikers op XS kan het prestatie verschil oplopen tot wel 50%

Het is dus los, van het feit dat je zo'n limiet niet wilt tegen komen. Ook nog hier en daar daadwerkelijk nodig. En ja ik begrijp dat dit de niche van niche is.
Zoals in het artikel staat
Overigens zouden vrijwel uitsluitend sli-opstellingen waarbij kaarten in een x8-slot worden gestoken profiteren van de extra bandbreedte
Dus als je 2 kaarten in x8 hebt staan kan je nu meer snelheid uit de lanes krijgen en gebruiken. Maar hoelang denk je dat het duurt dat 1 kaart een x16 op 2.0 dicht kan trekken ik denk niet zo lang dan hoef je niet een nieuwe MB te kopen als je video kaart niet werkt.
Omdat het veel tijd kost om overal pci-e 3.0 gangbaar te maken. De bedoeling is dat tegen de tijd dat videokaarten echt pci-e 3.0 nodig hebben alle moederborden dit standaard aan boord hebben.

Bovendien met een enkele kaart maar met dubbele gpu zit je al vrij dicht op de limiet als je er nog niet over zit. Dit komt omdat de bandbreedte gedeeld moet worden.

Zet eens een moderne high end videokaart in een pci-e 2.0 x16 slot en dan is in een pci-e 2.0 x8 slot. Normaal zal je al een snelheidsverschil merken.

Tevens staat het mooi op de doos en de specs dat het beschikt over de laatste nieuwe standaard dus marketing technisch gebruiken fabrikanten dit ook graag.
Omdat het toch al in de chipset zit, waarom zou je het niet gebruiken? Zelfde als die idiote geruchten over of Apple wel of niet USB3 zou hebben in de nieuwe macbooks, natuurlijk zit het er in, het zit gewoon in de chipset.
Dan kun je voorbereid zijn op de toekomst, anders moet je bij de volgende generatie videokaarten (of de generatie erop) een nieuw moederbord hebben. Als je SLI gebruikt kun je de bandbreedte wel al nodig hebben zoals vermeld in het artikel, nog een argument om ze er wel mee uit te rusten.
De GTX 680 heeft een PCI 3.0 aansluiting. Die past physiek niet in een 2.0 slot dus je zult een 3.0 mobo moeten kopen. In dat geval is het wel handig dat er ook daadwerkelijk PCI 3.0 borden zijn.

Zoals al in het artikel staat heb je er wat aan als je een SLI opstelling wilt gebruiken. Nu is Tri-SLI supported bij de meeste X79 borden dus is het wel handig als je de bandbreedte ook hebt.

Vooral omdat een X8 slot nu dus ook veel meer bandbreedte heeft.
PCI-E 3.0 videokaart passen ook op PCI-E 2.0 of PCI-E 1.0 x16 aansluiting.
PCI-E 3.0 is backward compatibel met vorge versies van PCI-E.
Dus een Nvidia GTX 680 past in een PCI-E x16 1.0 of 2.0 slot en je zal weinig verschil zien met een PCI-E 3.0 aansluiting als deze kaart niet in SLI werkt.
en los van de extra capaciteit die je liever wel hebt, is het mijn ervaring dat als er iets vervangen gaat worden in een PC, dit als eerste de videokaart is.
zo heb ik zelf nog steeds een Q6600 (C2Q, is al een aantal jaartjes oud), maar deze gaat nog prima mee, en begint nu pas een bottleneck te worden.
terwijl ik al meerdere malen heb overwogen mijn videokaart (8800GTS) te gaan vervangen, omdat deze al een aantal jaar de bottleneck is.
maar, toen ik mijn PC aanschafte was PCI-e 1.0 de standaard.

MAW, als ik nu besluit mijn videokaart te vervangen, (ik vermoed dat mijn processor nog wel een jaartje, misschien 2, zelfs 3 volhoudt) zit ik dus met de gebakken peren, want mijn PCI-e is nu de beperkende factor, terwijl de rest van de harde waren nog prima mee kan.
Die kaart had je al lang kunnen vervangen. Dat je PCI-E 1.0x hebt gaat geen bal uit maken als je er een gtx260 (of zelfs gtx560) in zet. Dat is echt procenten werk. Terwijl een nieuwe kaart dubbele of meer performance geeft.

PCI-E 2.0 is weer 2x sneller dan 1.0 dusje 16x slot komt neer op 8x bij PCI-E 2.0.

Verschil tussen x4 en een x8 slot bij PCI-E 2.0 is bijvoorbeeld maar 3%. Tussen een x8 en een x16 slot zit slechts 1%. http://www.techpowerup.co...I-Express_Scaling/25.html

Dat is al jaren zo, ooit zelf een x4 ipv x8 agp poort gehad. Ook nooit iets van gemerkt. Die 6800GT was toch echt stukken sneller dan de 5900XT en de Ti4400 die daarvoor in de pc zaten.

Overigens zelf een e6750 (3.4 ghz) gehad met een 8800GTS 640mb en deze in 2009 vervangen voor een GTX 260 (100 euro terug voor de 8800, 140 euro voor de gtx260, netto 40 euro). Ik kan je dus verklappen dat alles vanaf de prestatie van een gtx260 gaat resulteren in een cpu bottleneck. In de meeste games 55% gpu load bij 1680x1050. Had persoonlijk die 8800 er dus al veel eerder uit gegooid. Als je gamed moet je zeker upgraden. Capaciteit die je over hebt kun je gebruiken voor anti aliasing.

[Reactie gewijzigd door sdk1985 op 22 juni 2012 02:51]

Denk eens wat breder.... Moederborden worden niet alleen gebruikt om videokaarten in te stoppen om spelletjes mee te spelen. Ze worden ook voor andere serieuzere zaken gebruikt.

Zo heb ik bijvoorbeeld een sCMOS camera aan mijn microscoop hangen, die 5MP 16bit @ 100 fps overpompt. Vermoedelijk zetten we er nog een tweede naast, die parralel moet werken. Kun je nagaan wat voor data rate dat is? Heb ik al 2 8x captures kaarten voor nodig. Dan raken je PCI-e 2.0 slots vrij snel uitgeput! Vooral als er dan ook nog een dikke Quaddro video kaart naast zit voor real-time beeldbewerking, en een RAID controller om die data ook nog snel genoeg op SSD te kunnen opslaan.

Genoeg bandbreedte voor alle PCI-e slots is dan wel zo prettig, i.p.v. alleen voor je video kaart!
Waarom nu zo'n losse patch? Wordt dit in komende GeForce drivers ge´ntegreerd, of staat dat los van elkaar? Als het los staat van de videokaart drivers, dient dit dan ook niet toegepast te worden bij Radeon 7-serie videokaarten (die ook PCI-E 3.0 bieden)?

[Reactie gewijzigd door Patriek op 21 juni 2012 15:46]

Dat zou ik ook wel willen weten :) Beetje vaag omschreven in het artikel ...
Though we cannot officially support or guarantee 8GT/s speeds for X79/SNB-E, you can manually enable faster 8GT/s bus speeds (at your own risk) on GTX 680 or GTX 670 GPUs using the following executable: force-enable-gen3.exe
Nou, daarom dus.

Voorlopig dus ook geen driver feature, ze verkopen het een beetje alsof het gevaarlijk kan zijn.

Nu vraag ik mij af of je kunt klagen bij je moederbord fabrikant als er inderdaad iets mis gaat, gezien die toch echt met 3.0 adverteren.
Some motherboard manufacturers have released an updated SBIOS to enable the Intel X79/SNB-E PCI Express 2.0 platform to run at up to 8GT/s bus speeds.
[...]
Though we cannot officially support or guarantee 8GT/s speeds for X79/SNB-E, you can manually enable faster 8GT/s bus speeds (at your own risk) on GTX 680 or GTX 670 GPUs using the following executable: force-enable-gen3.exe
Nvidia levert geen ondersteuning op deze pci express 3.0-snelheid, dus volgens mij staat dit los van de standaard GeForce drivers.
De patch is een firmware 'aanpassing' van je videokaart. Door de firmware aanpassing kan de videokaart aangeven aan het BIOS/EFI dat het gebruik wil maken van PCI-E 3.0 en niet van 2.0 zoals dat nu gebeurt. De Geforce drivers zijn specifiek voor Windows en worden dus pas later geladen en hebben ook geen update nodig. Mocht de kaart niet goed werken dan kun je de patch ook weer terug draaien door '-revert' mee te geven aan de patch. Dit zet dan weer de PCI-E 2.0 flag in de firmware weer terug..
Therefore we’ve decided to only support and guarantee PCI Express 2.0 bus speeds on X79/SNB-E with our standard release drivers. Native PCI Express 3.0 platforms (like Ivy Bridge) will run at 8GT/s bus speeds with our standard release drivers.
Nu er over gerept wordt...ik vond het ook al raar dat AIDA software mijn Nvidia 670 GTX kaart in pci-e 2.0 modus liet zien...terwijl ik had verwacht dat het pci-e 3.0 zou zeggen. Had de pci-e 3.0 modus op mijn MSI X79A-GD45 bios al aangezet daarvoor. :?
Sata 3 SSD's zaten gelijk tegen de limiet aan als sata 3 uit kwam, daarom dat het nuttig is dat we hier een grote overhead hebben. om dit sata senario te kunnen vermijden
Ik neem aan dat je sata-2 bedoeld gezien sata-3 momenteel nog niet volledig wordt benut! Desondanks is het wel fijn om overcapaciteit beschikbaar te hebben. Zo kan je later nog altijd je systeem upgraden.
Ah nee? M'n Plextor M3P 256 GB lees sequentieel tot aan 540 MB/sec wat met overhead limiet is van SATA 600.
Het maakt nog verschil ook met de gtx680 in sli.
Visje krijg meer punten door deze fix van pcie 2.0 naar 3.0
Nu weet ik niet zo goed of het om 16x gaat, maar het mag duidelijk zijn dat
er een bottlenek ergens zit als dit allemaal klopt.
http://nl.hardware.info/n...0-weer-in-op-x79-platform
Visje lijkt de de test maar 1x te hebben gedraaid. Resultaat kan dus net zo goed toeval zijn (achtergrond process). De 3dmark benchmark geeft per definitie altijd net even een andere score.

Het is waarschijnlijker dat het echte verschil veel kleiner is.
Ik ken visje, die gaat niet lopen trollen met benchmarks gezien zijn bekendheid als benchmarker.

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013