Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 82 reacties

De PCI-Special Interest Group verwacht de pci-e 3.0-specificatie pas in het tweede kwartaal van 2010 af te kunnen ronden, en niet al eind dit jaar. Gevolg is dat de eerste producten met pci-e 3.0 pas in 2011 op de markt zullen komen.

De PCI-Special Interest Group liet half juni vorig jaar weten dat de nieuwe pci-specificatie op schema lag om eind 2009 afgerond te worden. De eerste pci-e 3.0-producten zouden dan in 2010 op de markt komen. "We hebben onderschat hoeveel werk erin gaat zitten", moet de voorzitter van de organisatie, Al Yanes, nu toegeven. Hij maakte dan ook bekend dat de specificatie nu op zijn vroegst in het tweede kwartaal van 2010 gereed is en dat producten met pci-e 3.0-ondersteuning een jaar later verschijnen. De organisatie moet onder andere nog details met betrekking tot backward-compatibiliteit en elektrische eigenschappen uitwerken.

Pci-e 3.0 zorgt voor een bitrate van 8GT/s, waarmee de bandbreedte bij gebruik van x16-lanes op een totaal van 16GB/s in beide richtingen uitkomt. Dat is dubbel zo hoog als de bandbreedte van de huidige pci-e 2.0-standaard. De komende pci-e-slots bieden daarnaast ondersteuning voor videokaarten die 300W verstoken; de nieuwe standaard beschrijft dan ook een nieuwe 2x4-stroomconnector. Ook mogen pci-e 3.0-videokaarten in 2011 drie in plaats van twee sleuven in beslag nemen.

8-pins stroomaansluiting voor pci express 3.0 Pci-express 3.0
Moderatie-faq Wijzig weergave

Reacties (82)

"Ook mogen pci-e 3.0-videokaarten in 2011 drie in plaats van twee sleuven in beslag nemen."

Volgens die foto enkel kaarten die 225 tot 300 watt verstoken. Overigens vind ik dit een belachelijke regeling, dan krijg je dus 4centimeter aan heatsink ? Kom op !
Ok, zo'n kaart verstookt veel, maar dat is toch iets overdreven.

Ook is het dan niet meer mogelijk om meer dan 2 PCIe kaarten in bv. CFX of SLI te hebben gewoon omdat het te groot is voor de ATX standaard.
Overigens vind ik dit een belachelijke regeling, dan krijg je dus 4centimeter aan heatsink?
Als je het vergelijkt met het stroomverbruik van CPUs en het formaat koelers dat sommige mensen daarop bouwen dan vind ik die 4cm eigenlijk best meevallen...
Neem dan wel het stroomverbruik mee dat voor het overklokken wordt gebruikt ipv dat wat met standaard kloksnelheid wordt gebruikt.
Grotere heatsink kan ervoor zorgen dat er minder lawaai wordt geproduceerd dus een grotere vind ik persoonlijk wel mooi. Het stroomverbruik is wel echt buiten proporties. Maar er is nou eenmaal vraag naar meer vermogen per kaart dus daar voldoet de markt dan aan. Die bedrijven die het willen hebben natuurlijk ook inspraak bij het vaststellen van de nieuwe standaard.
Denk eens aan kaarten voor in servers. Je ziet steeds meer dat GPU's gebruikt worden in servers, dus ik zou het niet vreemd vinden als je straks kaarten voor de server koopt die gewoon de fans haaks op de kaart hebben staan, en dan 4 ervan (indien het past) op een moederbord. Vervolgens wordt wel alle hete lucht de server uit geblazen.

Overigens pas(sen/t) op een normaal moederbord geen 4 van deze kaarten. Slechts 2 of 3 als het moederbord ervoor gemaakt is en er nog ruimte is aan de onderkant. Naast 2 van deze kaarten blijft er nog een slot over :)
Ben het wel met je eens. Het gaat uiteraard nergens meer over. Om 300 watt te moeten verstoken voor wat pixels op het scherm te toveren. En het leukste is dat het alleen maar steeds meer word al die wattages..

Maargoed aan de andere kant kan je ook denken om het niet aan te schaffen.
Persoonlijk hoeft het voor mij niet meer. En zoals er al gezegd is is pci-e 2.0 ook nog niet echt gigantisch lang op de markt. Dat betreft het AGP het veel langer vol gehouden.

Ik schaf het dus niet aan, en zoek liever naar zuiniger alternatieven..
Obiter Dictum voorziet een herhaling van deze discussie

Zoals in het gelinkte artikel ik ook al heb gezegd ben ik zielsgelukkig dat de datum uitgesteld wordt, in plaats van tůch maar te releasen. Dit is een stuk hardware dat zijn weg zal vinden naar vrijwel alle gangbare mobo's, grafische kaarten en veel andere randapparatuur en dat moet dan ook 100% compatibel zijn en goed werken. Dan wacht ik liever een paar maanden, dan tegen afraffelproblemen aan te lopen, die helaas niet met een softwareupdate opgelost kunnen worden...
Jeuh 3 slots kaarten ....

Indien dit de maat gaat worden voor high end video kaarten mat het formaat moederbord wat mij betreft ook wel eens worden herzien.

Anders worden steeds alle slots ingenomen door videokaarten en blijft er voor de betere audio kaarten of tvkaart wijnig of geen ruimte meer over.
Misschien dat we in de toekomst een videokaart kopen en daar het moederbord in steken...
Nou met 300W voor een video kaart kun je als je naar opgenomen vermogen kijkt inderdaad spreken van een moederboard in je video kaart steken.
Kun je je voorstellen dat er vast ook nu weer idioten zullen zijn die vier van die dingen in hun systeem willen steken. Dan heb je dus een aparte 1200W voeding nodig voor de video processing, terwijl de rest van de kast waarschijnlijk met minder dan 300W al goed presteert.

Ik vind het erg jammer dat er niet hard gewerkt wordt aan een veel zuinigere kaart, iets dat ook gewoon 1080p kan doen maar dan met minder dan 10W, en dat een beetje mee kan komen met de huidige kaarten maar met een verbruik onder de 100W. Het zou een enorme besparing voor alle game liefhebbers op de wereld op leveren als ze in plaats van altijd maar meer vermogen op te slokken eindelijk eens naar kaarten toe gaan die misschien niet beter presteren maar wel heel erg veel minder verbruiken. Ik weet in ieder geval zeker dat er een hele grote markt is voor goede snelle kaarten die niet een kerncentrale nodig hebben om een paar pixels op mijn scherm te toveren.
Onboard chipsets kunnen al 'gewoon 1080p' doen. Geforce 8200 en AMD's 780G kunnen prima HD aan. Die chipsets verbruiken iets van 20 watt, en als je bedenkt dat de North Bridge niet alleen graphics moet doen is dat verdacht weinig.

Altijd maar gezeur over vermogen, terwijl niemand kijkt naar performance per watt. Wedden dat een videokaart die over 2 jaar de volle 300w trekt uiteindelijk per watt veel sneller is dan een 8200? Die onboard dingen kunnen echt niks qua gaming.

Tuurlijk is het waanzin om 4 kaarten die 300watt verbruiken in je PC te stoppen. Maar wie zegt dat een grafische kaart 300 watt moet verbruiken? Op dit moment gebruiken alleen een aantal dual-gpu kaarten op load zoveel, en ik denk niet dat het in de toekomst nog veel erger gaat worden in deze groen-georienteerde samenleving. Die 1200w voor je grafische setup is voorlopig dus nog erg ver weg.

Maar al dat geklooi met pci-e stekkers is ook niet ideaal, dus voor de standaard kunnen ze maar beter wat speling aanbrengen. Stel dat ze voor 225 watt gaan, en er komen al snel videokaarten uit die 300w slurpen, dan schiet je specificatie toch al snel tekort, dat is niet de bedoeling van iets wat jaren mee moet gaan.

Voor jou persoonlijk zou ik de HD4770 aanraden. Prima performance, en het TDP zit op 80w. Load zit typisch op 50w, dus dat is heel acceptabel. Als dat nog te veel is en je wilt HD, neem dan een Popcorn ofzo.
de HD4350 doet 10 watt idle, heb ik ergens gelezen. (is dus niet heel erg onderbouwd, maar vast een aardige indicatie)
Kun je net zo goed een oud ESA kaartje gebruiken.

Idle doet een videokaart niet veel meer dan wat 2D beeld genereren.

Laat een kaart maar eens maximaal werken, en geef dan het wattage weer wat nodig is, dat is een stuk relevanter in dit aspect.
Daarnaast, het is altijd al zo geweest dat er ťťrst pure performance kaarten komen en later pas die-shrinks e.d. om het totale energieverbruik terug te dringen zonder prestatieverlies.
dat inderdaad. buiten dat ik de extra ruimte niet zo nodig acht kun je dan helemaal niet meer bij je andere sloten.

wordt het dan niet eens tijd voor videoadapters in 3,25" behuizingen ofzo? als ze zo enorm worden.. (edit: wacht, met een 4cm koelblok gaat dat helemaal niet passen.. een dubbele 5,25" dan maar? of een andere formaat in een nieuwe standaard die ergens ander in je kast moet?)

(edit2) en jemig man, 300 watt, m'n vorige PC verstookte dat nog niet eens.. (P4 systeem met 3 harde schijven, 2 dvd-drives, tv-kaart, 2e videokaart, geluidskaart..)

[Reactie gewijzigd door Xyzar_ op 6 augustus 2009 15:52]

Misschien standaard de onderste PCI-e sleuf gaan gebruiken voor de grafische kaart? Dan hoeven alleen de kasten groter te worden want de koeler kan dan gewoon lekker uitsteken. Of krijg je dan problemen met latency (langere paden over mobo)...?
Niet dat het mij heel veel uitmaakt (1-slots, passief gekoelde GeForce 7600 GS: ik ben niet zo van de nieuwste games op max willen spelen :p ).
ik ben het met je eens dat ze de ATX ook gelijk aan moeten pakken. voor de huidige videokaarten is veel te weinig ruimte (dat ligt ook gedeeltelijk aan de videokaarten). misschien kunnen ze het beter splitsen.
ik vind dat de videokaarten en de CPU (en een kleine ruimte voor uitbreidingskaarten) aan 1 kant van het mobo moet en het ram, northbridge, southbridge, sata poorten en aansluitingen aan de andere kant. dan kan je een heleboel koelruimte aan je videokaarten en CPU's geven (grote towerkoelers en 4-slots koelers) en doordat de andere aansluitingen (usb, audio, lan enz.) niet aan dezelfde kant zitten kun je er zo 10 slots extra bij plaatsenwaardoor je dus gewoon 2 fysieke videokaart-slots plaatst waar nu 8 sloten zouden zitten. die geef je allebei 32 lanes in een eigen laag op het mobo en je hebt dus genoeg koelruimte. op dezelfde kant van het mobo zitten ook de uitbreidingskaarten maar die zitten niet onderaan maar bovenaan naast een massive ruimte voor de cpu koeler. op deze manier heb je genoeg koeling/ruimte en het enige nadeel is bredere kasten (valt wel mee omdat je de RAM sloten schuin kan zetten en de NB en SB geen grote koelers nodig hebben
even voor de duidelijkheid. het KAN het hoeft niet.
2 extra sloten stond al een tijdje in de specs, maar nu zie je ook dat er maar heel weinig kaarten zijn die meer als 1 slot extra in nemen, en degene die dat wel doen zijn voornamelijk speciale kaarten zoals pasief gekoelde videokaarten.

[Reactie gewijzigd door Countess op 6 augustus 2009 16:32]

probleem is, omdat het KAN wordt het ook GEDAAN.
Is Pci-e 3.0 niet een geheel marketing iets, want volgens mij heb je nu niet eens kaarten die in de buurt komen bij het maximum van Pci-e 2.0. Kan zijn dat dit dan meer toekomst gericht is, maar denk dat dit ook voornamelijk ook marketing doen einde heeft.
Nou, een overklokte GTX295 komt volgens mij redelijk in de buurt van het volledig benutten van de bandbreedte die een x16 pci-e 2.0 slot kan bieden.

Ik geef toe, 3.0 is absoluut nog niet nodig, maar tegen die tijd dat ze em gaan releasen waarschijnlijk weer wel, de volgende ATI kaarten gaan waarschijnlijk ergens tussen de 125 en 150% van de huidige serie draaien, om het maar voorzichtig te schatten, en een 4870x2 die vreet al aardig wat.

Ik denk dat het in de trend is van het is veel te veel voor nu, maar als het uitkomt, dan kunnen we er een tijdje mee voorruit.
Wat dacht je van tripple crossfire op een kaart? Dat verstookt aardig aan energie maar ook aan bandbreedte.
Toen PCI-e werd ingevoerd ontstond deze discussie ook, AGP4x werd toen nog niet eens benut, AGP8x voldoet ook pas sinds kort niet meer, en AGPpro(deed denken aan het jammerlijk snel uitgefaseerde VLB) is (gelukkig) overgeslagen.

Het is goed dat we vooruit kunnen, ik wou alleen dat ze kwamen met energiezuinigere, stille, en vooral kleine kaarten, ipv die water/stikstofgekoelde multislot-monsters.
er zijn genoeg raid kaarten die een 4x slot nodig hebben bijvoorbeeld.
nu zou dat een 2x of zelfs 1x kunnen zijn.
zelfde voor netwerk kaarten.

verder is het geheel backwards compatible dus niemand die je verplict om te upgraden, en de extra kosten zullen niet hoog zijn. ik zie geen reden om het niet te doen.
voor de kaarten komen moet er een grote groep mensen zijn die computers hebben waar ze in kunnen.

[Reactie gewijzigd door Countess op 6 augustus 2009 16:23]

Nu is er de laatste jaren ongelovleijk veel verbeterd in het verbruik van de CPU en de moederborden waarop ze geplaatst worden, maar dat wil volgens mij met de videokaarten nog niet echt lukken.

Nu zou je een videokaart bijna als een aparte pc kunnen zien (pcb met daarop GPU, geheugen en de bijbehorende chips om alles met elkaar te laten praten). 300W vind ik persoonlijk vrij veel, ook al is dat wss onder maximale belasting.
Videokaarten zijn anders veel sneller vooruit gegaan dan desktop cpu's. Qua theoretische techniek en ook qua performance/watt stijging.
Er zijn ook nog steeds videokaarten beschikbaar van nog geen 50W dus je moet deze monsters niet installeren.
Alleen presteren CPU's die nu MINDER verbruiken dus wel MEER dan hun oudere voorgangers. Een Core2Duo of Core i7 doen het echt wel een stuk beter dan een P-IV, maar verstoken een hele klap minder.
Een graka die vandaag even veel verbruikt als eentje 10 jaar geleden is veel sneller geworden ivm een cpu vandaag die even veel verbruikt als een cpu 10 jaar geleden.
Ik neem even 10jaar omdat we op 31 augustus de verjaardag van de GeForce kunnen vieren.

Een i7 verbruikt overigens meer dan een Prescott. 3,8GHz met een TDP van 115W, geeft het exacte verbruik niet aan maar wel een indicatie dat ze minder verbruikten dan een i7 3,3GHz die een TDP van 130W heeft. Vergelijk eens benchmarks tussen beide en je zal zien dat we uiteindelijk geen grote sprongen hebben gemaakt bij CPU's. Voornamelijk omdat toepassingen die 8cores niet gebruiken, waar games de 480 unified shaders (gtx 295) bijvoorbeeld wel altijd allemaal gebruiken.

De berichten laatste jaren nog niet opgemerkt van onderzoekers die ipv ergens GFLOPs te huren gewoon een eigen pc in elkaar steken en iets brouwen met Cuda/FireStream? De reden is dat graka's veel beter zijn in het tellen dan CPU's.
Wie er tijd kan insteken zal zijn zware applicaties vandaag ook al laten gebruik maken van een graka indien mogelijk. Bij programma's om video te verwerken zie je het al opkomen dat ze de CPU opgeven en al die lekkere flops van de GPU gebruiken. F@H is een voorbeeldje waar ze al jaren geleden zijn overgestapt.
Dat is ook de simpele reden waarom Intel met grafische oplossingen van low tot high budget willen komen. Als ze niets doen gaan ze binnen enkele jaren met het probleem zitten dat mensen gewoon geen snellere CPU nodig hebben. We hebben steeds meer snelheid nodig maar als de CPU zichzelf nog aan de architectuur van 20 jaar geleden vasthoudt, zullen de mensen nu eenmaal overstappen op het betere alternatief.

Ik snap echt niet waarom in elk nieuwsbericht op tweakers over zware graka's of 1000W voedingen er steeds weer geklaag moet komen dat het allemaal te veel verbruikt. Je kan een volledige pc met 15W verbruik bouwen, je kan er ook eentje met 1500W verbruik bouwen, super! Van tweakers verwacht je pas geklaag moest die extra stroom zich niet omzetten in extra prestaties.
Mooi punt, goed onderbouwd.

Mijn eerste pentium (66MHz) verbruikte 16W
Een huidige Q9650 verbruikt 95W, oh nee, dat is bijna 6 keer zoveel... Maar in vergelijking presteert hij wel 182keer zo sterk (simpel vergeleken, in effectieve efficientie ligt hij vťťl hoger), dus met andere woorden, per watt is de huidige processir meer dan 30 keer zo efficient, dus moet je eigenlijk de conclusie juist maken, en is een huidige processor 30 keer zuiniger dan een oude processor.

DIT IS GEEN CORRECTE VERGELIJKING, MAAR IMMENS VEREENVOUDIGD!!!

Een gelijkaardig fenomeen bij videokaarten. Ja, ze verbruiken meer, maar zullen veel beter presteren per watt...
En hoe zit het met die kleine PCIexpress poortjes? Zijn daar als eens kaarten voor? Ik vind ze tot nu toe alleen maar lastig omdat er zo weinig gewone pci poorten op het moederbord zitten.
Asus maakt een geluidskaart voor een PCI-E x1 slot. Ook zijn er volgens mij RAId-controllers, maar dat kan ook x4 zijn.
genoeg: geluidskaarten (x1), netwerkkaarten (x1, x4), SATA/SAS/RAID controllers (x1, x4, x8), USB/Firewire (x1)...
zijn genoeg kaarten voor. voornamelijk raid, netwerk en geluidskaarten beginnen te komen
veel andere kaarten zijn over gegaan op USB (video-capture kaarten)
De komende pci-e-slots bieden daarnaast ondersteuning voor videokaarten die 300W verstoken;
Ik weet niet of we hier nou wel zo blij mee moeten zijn. Hier mee moedigen ze AMD en nVidia aan om videokaarten te bouwen die nog veel meer stroom verbruiken dan ze nu al doen. Terwijl dit nu al buitensporig hoog is (meer dan het dubbele van het verbruik van een CPU) :N
Misschien komt dat omdat de mensen die deze standaard opstellen natuurlijk ook luisteren naar wat de fabrikanten willen. Je hebt niks aan een organisatie die niet maakt wat de bedrijven willen want dan gaan ze het nooit ondersteunen.
Ik noem dit nu niet bepaald een vooruitgang. Enkel een verdubbeling van een standaard die we inmiddels alweer jaren hebben. Een die tevens zeker nog wel een aantal jaar meegaat... De nieuwe standaard zal minder lang mee gaan als de huidige met de specificaties die ik hier zie.

Ik dan liever ook gelijk een slot ontwikkeling waarin ook oudere standaarden werken (a la usb). Dan kunnen moederbord fabrikanten eindelijk die oude zou laten vervalen (lees PCI).
uhmm dat doet het ook, is gewoon backward compatible met pci-e 1 en 2.
ik heb het natuurlijk over het oude PCI, niet pci-e.
Pci-express heeft zowat niets met PCI te maken technisch gezien. Zoiets valt eens niet onder backward compatibility. Uit je voorbeeld van de USB zou je een analogie kunnen maken dat USB en de seriŽle poort ook niet meer met elkaar werken.
Mwah, een betere analogie zou zijn om de seriŽle kabels met de huidige UTP kabels met RJ45 stekkers te vergelijken.

PCI en PCI-e zijn namelijk ook 2 verschillende aansluitingen voor producten die hetzelfde deden/doen. Net als de seriŽle en UTP kabels uit mijn analogie.

Maar inderdaad, je punt blijft staan: PCI en PCI-e zijn niet goed te vergelijken als het gaat om backwards compatibility,
USB is toch de opvolger van de seriŽle poort hoor. Op de markt van consumenten en ook op de zakelijke markt.
Er zijn op de zakelijke markt wel nog velen die per se de seriŽle poort gebruiken. Dat komt eerder door oude apparatuur die ze nog willen gebruiken of wanneer de fabrikant geen alternatief biedt.
Ach, de oude PCI-sloten worden vaak gewoon gebruikt om het slot meteen onder de PCI-e x16 sloten "op te vullen"; veel mensen zullen er niet bij kunnen omdat hun dubbelslots kaart ervoor hangt, maar iemand die persť een oud PCI-slot nodig heeft kan hem alsnog gebruiken.
En tja, een verdubbeling in bandbreedte is misschien niet zo heel veel, zeker niet als het weer vier of vijf jaar mee moet. Van de andere kant, er bestaat (binnen PCI-e 2.0) al een specificatie voor x32 connectors. Als de bandbreedte echt zo hard nodig was, waarom gebruiken de fabrikanten die dan nog niet...?
In het 2e plaatje staat dat een 300W kaart 3 slots mag gebruiken.
300W?! Dacht dat het juist een trend was geworden om zuinige en snelle kaarten te maken. Met 3 slots kwijt van je bord, blijft er weinig plek over voor uitbreiding...
Nou wat mij eigenlijk meer verbaast is hoe ze 300W door het moederbord willen krijgen. Lijkt me dan 300W lastig door een PCB te krijgen is.

En hoe gaan ze dat oplossen ivm storingen.
300W is echt bezopen veel, hopelijk zit er ook een zonnecelpaneel bij om het milieu te ontzien...is dit dan de toekomst :? ?

[Reactie gewijzigd door tinoz op 6 augustus 2009 15:37]

De productie van dat zonnepaneel is echter alles behalve het ontzien van het milieu.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True