Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 69 reacties
Bron: PCI-SIG

De PCI-SIG heeft een nieuwe standaard voor PEG (PCI Express Graphics) slots uitgebracht die de videokaart direct van 150 Watt vermogen kunnen voorzien. De slots die op dit moment op de markt zijn kunnen ongeveer 60 tot 75 Watt leveren. Een grote verbetering ten opzichte van AGP, maar eigenlijk meteen al niet meer genoeg voor de huidige generatie videokaarten. Sowieso tappen de fabrikanten zolang ze tegen de rand van de standaard aanhikken liever ook stroom direct van de voeding af, zodat ze zeker zijn van een stabiele voorziening. Om deze reden, maar ook vanwege de verwachting dat toekomstige kaarten nóg meer vermogen zullen opnemen, is de nieuwe versie ontwikkeld. Het op dit moment uitgebrachte deel richt zich puur op ATX-moederborden en -kasten, maar hetzelfde idee in BTX-smaak zit al in de pijpleiding. Het is niet duidelijk op welke termijn we de eerste videokaarten en moederborden kunnen verwachten die het nieuwe slot ondersteunen. Een "high-powered" versie van AGP is nooit veel verder gekomen dan professionele kaarten zoals de Wildcat en FireGL, maar wellicht zal de PCI Express-tegenhanger wel zijn weg naar consumenten vinden.

Maximaal vermogen via de bus geleverd
PCI Express Graphics 150W 150
AGP Pro110 110
PCI Express Graphics 75
AGP Pro50 50
AGP 25
Moderatie-faq Wijzig weergave

Reacties (69)

Gewoon die grafische chips zuiniger maken...Hee, daar is nog niemand op gekomen, en je vangt meerdere vliegen in 1 klap:
1. warmte is minder, daardoor ook minder koeling = goedkoper
2. energievoorziening
3. Zuiniger = goedkoper
Dat ze dat nou eens nooit bedenken?
Puntje 1 en 2, akkoord. Puntje 3: Zuiniger is NIET goedkoper. Voor de eindgebruiker wel want die betaalt minder stroom, maar de fabrikant zal moeten investeren in technologieen om met minder energie hetzelfde resultaat te bereiken, en betaalt dus voor extra ontwikkeling.

Daarnaast vergeet je een groot probleem in videokaarten-land: er mogen geen concessies aan performance gedaan worden, anders koopt iedereen bij de concurrent. Maar deze drijfveer naar betere performance staat tegenover de energie. Want hoe meer berekeningen/sec een kaart maakt, hoe meer energie dat kost.
Ik noem die investeringen niet nutteloos die jij niet goedkoper noemd bij punt 3... Het wordt maar eens tijd dat ze daar in gaan investeren.

Daarbij kan je het natuurlijk ook een sport noemen om de kaart gewoon efficienter met stroom om te laten gaan. Misschien niet eens zown slecht idee voor een milieu organisatie ofzo voor een wedstrijd ofzo. "Maak een zow snel mogelijke grafische kaart met zow min mogelijk stroom"... waarbij ze van die organisatie natuurlijk een dikke vette cheque krijgen als ze winnen waardoor ze hun produktie proces goedkoper kunnen aanpassen om meer van die kaarten te maken ;)
Mod maar vast omlaag, maar ik *moet* dit even kwijt.

Is het nou zoveel moeite om gewoon "zo" en "zo'n" te schrijven in plaats van "zow" en "zown"? Het is hier geen FOK!...
offtopic

dat noemen ze vooruitgang tegenwoordig hier op tweakers :+
Vraag me eigenlijk af waarom ze voor de GPU nog geen speedstepping (ala mobile processors) hebben gemaakt, je gebruikt alleen tijdens het gamen/renderen enzo de volledige capaciteit, waarom dan niet even wat minder als ie toch uit z'n neus aan het eten is?
die is er wel, mijn 6800 gt clockt ook naar beneden in 2d mode, bespaart iets stroom, en veeel warmte
Mag ik vragen hoe je dat hebt gedaan? in de drivers (laatste nieuwe ForceWare drivers) kan ik het namelijk niet vinden en mijn XFX 6800GT is in 2d/idle vaak een dikke 50 graden. Als dit kan minderen met 2D-mode zou dat erg prettig zijn.
Dat moet je zelf niet doen, dat zit in de bios van de kaart. Daarin is een 2d en een 3d voltage geprogrammeerd met 3d voltage 0.2V hoger dan het 2d.
Ik denk dat alle geforcefx kaarten van nvidia dat al hebben (vooral omdat ze anders nogal veel stroom verbruiken in idle, t.o.v. ati-kaarten dan).
De geforce 6 heeft het dus blijkbaar ook.
Tsja en wel klagen over cpu's die 100 watt verstoken...
Ik snap die ontwikkeling zowiezo eigenlijk al niet. Bij processoren proberen ze de verbindingen e.d. allemaal kleiner te krijgen en het energie verbruik omlaag omdat het langzamerhand teveel warmte genereerd om af te voeren en omdat het gewoon veel verbruikt.

Waarom doen videokaartbouwers niet iets soortgelijks? Dit komt op mij nou een beetje over als we willen sneller maar dat het meer energie gaat vreten.. nou ja dat is niet ons probleem. Straks zit je met een continue 300 watt wat er word verbruikt door een pc en de enige die dan juichen zijn de energiebedrijven. Snap niet dat ze het niet omlaag kunnen brengen.
Dit vraag ik mij dus ook al tijden af. Tegenwoordig betaal je je al bont en blauw aan energie. De verwachting is dat vrijwel elk huis voorzien zal zijn van een pc. En nu gaan de fabrikanten er voor zorgen dat we met een vet te kort aan stroom zitten. Ik heb nu al de grootste moeite om de pc koel te houden. En wat je zegt, ik zag laatst die 1000WATT voeding. Staan ze er überhaupt wel bij stil? Mijn magnetron trekt 1000 W. Als dit zo door gaat moet je een supergoedbetaalde baan hebben wil je je pc thuis aan kunnen laten staan. Bovendien mag elk huis wle aangepast worden. Nog even en je hebt een aparte groep nodig alleen voor die pc van je!

Absurde ontwikkeling dit!
het gebeurt idd wel, bij GPU's er wordt nu overgestapt van het 130 nm proces naar 110 nm proces (zowel door Nvidia als Ati). Het komt gewoon niet zo in het nieuws. En als je zo'n top-videokaart aanschaft, ga je meestal voor prestaties en niet voor een stille (lees koele) pc. Trowuens, die 1000 Watt voeding, dat is piekbelasting he (dus alleen bij zwaar gebruik), je verbruikt niet continu 1000 watt (dat doet je magnetron dan weer wel) ;). Bij normaal gebruik (lees wat surfen en downloaden) gebruik je hoogstens enkele procenten meer. Trouwens, de eerste Prescotts liepen inderdaad niet zoals bedoeld, maar daar wordt nu aan gewerkt om het te corrigeren (de 6xx serie en de 5xx J variant).

edit: typo's :P
Dit vraag ik mij dus ook al tijden af. Tegenwoordig betaal je je al bont en blauw aan energie. De verwachting is dat vrijwel elk huis voorzien zal zijn van een pc. En nu gaan de fabrikanten er voor zorgen dat we met een vet te kort aan stroom zitten. Ik heb nu al de grootste moeite om de pc koel te houden. En wat je zegt, ik zag laatst die 1000WATT voeding. Staan ze er überhaupt wel bij stil? Mijn magnetron trekt 1000 W. Als dit zo door gaat moet je een supergoedbetaalde baan hebben wil je je pc thuis aan kunnen laten staan. Bovendien mag elk huis wle aangepast worden. Nog even en je hebt een aparte groep nodig alleen voor die pc van je!

Absurde ontwikkeling dit!
hee, hallo.. je HOEFT die superenergievreters niet te kopen hoor!
Er zijn nog steeds simpele VGA kaarten te koop die geen extra voeding nodig hebben, die zelfs zonder fan afkunnen, en er zijn b.v. ook zeer zuinige processors te koop.. om maar wat te noemen.

Tsja..
als je een PC nodig hebt die 5 miljoen keer sneller is dan de allereerste mainframes.. dan is het helemaal niet gek dat je dan een aparte groep aanlegt voor je PC.
Jeps... Vriend van mij met 300Watt moest z'n cd en dvdspeler en alle ccfl's en casefans losgooien om z'n nieuwe videokaart te voeden... belachelijk gewoon
dan is er iets structureels niet goed
Snap niet dat ze het niet omlaag kunnen brengen.
GPU's zitten gecompliceerder in elkaar dan CPU's en hebben meer transistors aan boord (OK, nieuwste P4 heeft er misschien evenveel, maar dat komt vooral door de berg cache). Vandaar ook de lagere kloksnelheden. Meer transistors verbruiken logischerwijs ook meer energie en produceren dus meer warmte.
eigenlijk is het grote verschil tussen CPU's en GPU;s de manier waarop ze ontworpen worden.
CPU's word voornamelijk met de hand gedaan. voor GPU's duur dat alleen te lang (elke 6 maanden moet er een nieuwe chip klaar zijn) daarom moet een computer programa dat doen.
helaas zijn deze programa's nog niet zo goed in het optimalizeren van de chip zodat er vaak veel probleem gebieden ontstaan.
en deze gebieden houden de clocksnelheid omlaag en het stroom verbruik hoog.
natuurlijk word er wel wat met de hand geoptimalizeerd maar veel tijd daarvoor hebben ze niet.
ga anders er zelf even over lezen. zo heb ik het gelezen op de diverse review sites.
of kan jij mij een andere reden geven dat de clocksnelheid van videokaarten nog geen 20% is van die van met ongeveer het zelfde process gemaakte cpu's? (130mn cpu @ 2.4ghz vs 130nm GPU's @ 520mhz) met toch vrij gelijkte hoeveelheid energie verbruik
nee? dacht ik al want anders had je me al uitgelegd hoe het dan volgens jouw wel zat.

vanwegen de snelle generatie wissels is het voor de GPU gewoonweg niet mogenlijk om zo veel te optimalizeren als bij de CPU het geval is. (6maanden voor gpu's vs minimaal 3 jaar voor CPU's)
ons pap ontwerp IC's bij philip's. dit doet hij nog altijd met de hand omdat de programa's die het automaties doen simpleweg nog niet goed genoeg zijn en daarin inefficiente chips opleveren. natuurlijk zijn ons pap IC"s lang niet zo ingewikkeld als een CPU of GPU maar ingewikkeldere chips maken het probleem alleen maar groter.
Leuk verzonnen, maar ik geloof er niets van.

GPU's lijken qua design gewoon totaal niet op CPU's.
16 pipes op een GPU zetten is nou eenmaal niet zo spectaculair dat je dat met de hand moet ontwerpen. Dat kan je best met een programma doen, zonder dat je daardoor problemen krijgt.
ze verplaatsen het probleem...dan moet er straks een extra connector op je mobo bij :D
Dat zit er dik in, zie je nu al op verschillende SLI-moederborden, een extra 4-pins connector naast het PEG-slot. Maar voor de videokaartenbouwers is het wel makkelijker natuurlijk.
Mijn oudere asus P4T533-R (heerlijk bordje tbh) had al een extra molex connector op het moederbord, speciaal voor het AGP50 slot :) Er waren helaas weinig kaarten voor beschikbaar.

Word het dan niet tijd om over te stappen op ATX24 (normaliter alleen in servers), of er gewoon een stuk of 6 12v draadjes bij te poten.
24pins atx is eigelijk een EPS voeding (dat is de officiele naam)

http://www.xcase.co.uk/acatalog/EPS_Power_Supply_Converter.html
de meeste nieuwe 775 borden hebben al 24 pins ATX aansluitingen... (maar dat komt door de energiehonger van de Prescott :P)
(maar dat komt door de energiehonger van de Prescott )
Dat heeft daar niets mee te maken, ik draai hier een prescott gewoon met normale 20pins ATX connector en het draait perfect. Volgens mij zijn er ook 775 borden met 20pins aansluiting, maar dat weet ik niet geheel zeker.
die extra 4 zijn alleen 5 en 3.3 volt ,* 786562 erikdeperik
die kaart producenten moeten hun kaarten eens wat zuiniger maken en dan pas sneller en beter...dit is slecht voor het milieu en voor de portemonnee van de kaart koper....
Maar goed voor de staat die iets van 0,6x euro cent per kW vangt
Er zijn reeds moederborden met AGP pro110 die naast de 24+8 eps connector voor het systeem nog een 4 pin P4 12V aansluiting naast het AGP slot hebben.
Bestaat dus al.
Het is helemaal niet zo'n goed plan om een grote hoeveelheid power door je PCI EG slot te willen trekken, want het is namelijk helemaal niet handig. Aan de onderkant bij het slot lopen al heel veel banen naar de chip(s), en je wilt als fabrikant daar niet nog eens brede sporen voor power naast moeten leggen. Daarbij moet er dan weer een hele omweg gemaakt worden naar de spanningsregelaars, die eigenlijk altijd aan de bovenkant van een kaart zitten. (Ook weer om de reden dat er onderop geen plaats meer is)
Bij een Geforce 6800 serie zitten de spanningsregulatoren anders gewoon aan de bovenkant (chipkant) zodat deze mee gekoeld kunnen worden en daar lijkt het geen enkel probleem behalve dat de kaart erdoor een absurde lengte krijgt, maar dat boeit mij persoonlijk vrij weinig. Vindt het er zelfs wel stoer en krachtig uitzien...maargoed :P, das ieder z'n mening. Mij lijkt dat dus geen enkel punt.
Ze blijven maar meer watts in alle apperatuur stoppen, hoe meer watts, hoe warmer de boel wordt, wat wordt de toekomst...??

Standaard waterkoeling op de cpu's en gpu's.

Kijk maar eens naar een standaard Intel gekoelde Celeron 2,4Ghz processor, dat kreng wordt al zonder iets te doen 50 graden.

Die warmte is echt een nadeel, daar moeten ze eens wat op vinden, het kan gewoon niet meer lang doorgaan zo. Op een bepaald moment wordt het gewoon allemaal te heet, zelfs voor waterkoeling.

Wat is dan de volgende stap, standaard stikstof ofzo...
Het NOS nieuws van ergends in 2010:

Greenpeace is overgegaan op een andere actiemethode. Tegenwoordig hacken zij pc's en leggen netwerken plat in de hoop dat meer mensen hun pc uitlaten en per openbare computer werken.
Het is momenteel op de digitale snelweg zo druk dat door de warmteontwikkeling de poolkap nog verder dreigt te smelten... :+
50 graden ^o) ik heb een oude pc met een celeron (2,4 ghz) draaien standaart is hij 21 Graden ik weet
niet wat jij er mee hebt uitgespookt maar
ile moet hij tussen de 20 en 25 graden zitten.

/edit

Je kan ook tussen je cpu en koelblok
een peltier zetten ;) zo kun je hem ook
een stuk koeler krijgen dit zou ik eerst overwegen
voordat je aan stikstof begint :P
Waarschijnlijk een ander type Celeron of kijk voor de zekerheid nog eens goed...
Het is bij Celeron's heel gewoon dat ze met een standaardkoeling rond de 50 tot 60 graden zitten...
Heb er hier op m'n werk zeker 18 zo draaien.
IMO moeten ze gewoon de architectuur effecienter maken, desnoods minder snelle producten maar wel wat energie zuiniger. Maar waarschijnlijk zullen overheden wereldwijd daar wel maatregelen voor moeten nemen.

Het is te achterlijk voor worden dat met een aankomend energie probleem onze apparatuur steeds meer gaat lijken op die achterlijke amerikaanse jeeps :r.
achterlijke amerikaanse jeeps
zeg! Pas jij een beetje op je woorden! :7

Het komt gewoon door de sterke concurrentie. De gevraagde groei in prestaties gaat gewoon sneller dan de techniek kan bijhouden (productieproces verkleinen). Dan zijn er maar 2 mogelijkheden>
1 transistors slimmer samenstellen (wie niet sterk is moet slim zijn) of
2 er gewoon meer van gebruiken (brute kracht)
En aangezien het 1e al behoorlijk gebeurd is (vooral op initiatief van ati) blijft alleen het 2e nog over.
:(Wat is er mis met een Jeep, dat jij zo schraperig bent en er niet een kunt betalen betekent niet dat het gelijk een slecht product is, dat ze veel brandstof verbruiken ligt ook aan het feit dat ik met een jeep 20 japaners van kan wegslepen, als je die kracht nodig hebt is daar niks mis mee, dat je dit aanhaald bij videokaarten slaat werkelijk nergens op, dit is een vergelijking van niks dus |:(
Resources, pik. Het gaat niet om schraperig zijn, maar om vervuiling en het uitputten van onze oliebronnen etc.

90% van de mensen heeft geen traktor/jeep nodig (12V, 1024pk, 6.0 liter bla) om dagelijks in de file te staan.
90% van de mensen heeft ook geen normale auto (4V 100pk 1.6 liter) nodig om dagelijks in de file te staan.

Daarvoor kunnen we allemaal met een smartje met 40 pk toe.

Rij jij een smart?

(Ik in ieder geval niet. Ik heb liever een auto die veilig en comfortabel is, en een beetje wat power heeft. Hoeft niet meteen een jeep te zijn, maar het is in ieder geval meer dan wat "nodig" is)
150Watt is wel erg veel vermogen. Dat is 2x zoveel als mijn TV, 3x zoveel als mijn stereo en zo kan ik nog wel even doorgaan. Wat is eigenlijk de opbrengst van een videokaart dat zoveel vermogen trekt? Ga je daar nog iets van terug zien of alleen als je een game speelt met CryTek/Doom III/Half Life 2 engine met alles op max of voor 3D rederers oid? Ik mis het nut van zoveel vermogen voor 1 (weliswaar belangrijk) onderdeel van een desktop computer.
Tsja, het begint onderhand niet grappig meer te worden.

Mijn AMD Athlon 2200 systeempje met 256 mb ram, twee harddisks en inmiddels bijna antieke Matrox G400 trekt idle al 110 watt :(

Als ze nou al slots moeten gaan maken die alleen al voor de videokaart 150 watt kunnen trekken, waar moet dan dat heen :?

Ik zou eigenlijk best willen dat er ook eens videokaarten op de markt komen voor de wat minder snelheids-hongerige mensen. Ik wil op zich best een wat nieuwere videokaart kopen maar ik wil niet zo'n energie- en geldwolf.

Beeldkwaliteit, tv-out kwaliteit en recente directx-ondersteuning vind ik veel belangrijker.
Met een Radeon9600SE passief gekoeld en een beetje vlotte CPU kom je best een eindje, en moderner een Radeon X300, volgens mij kan die ook nog wel passief gekoeld worden (zonder een Zalman heatpipe hamburger), Nvidia heeft ook genoeg aardige kaartjes maar ik vind de tv-out kwaliteit wat minder, maar als je niet beter weet maakt het ook niet uit, en als de desbetreffende fabrikant slecht werk aflevert is de kwaliteit van elke (tv-out) chip/connector minder. Kijk gewoon eens op TomsHardware naar hun grote vergelijkende testen, om FarCry acceptabel te spelen heb je niet persé een X800Pro met een Prescott of Athlon64 nodig.
En ja zoiets scheelt je idd in de kosten. Ik moet nog steeds elk jaar bijbetalen op mijn servicekosten, sinds ik een pc heb staan dan (24/7).
Eindelijk een opvolger voor PCI-e!
Dit is geen opvolger van pci-e maar een uitbreiding op de pci-e standaard die een extra poort toevoegt speciaal voor kaarten (vooral videokaarten) die veel energie slurpen.
Ik ben het wel eens met nas t.

Ik ben zelf ook helemaal niet zo blij met de trend dat computers en met name de videokaarten steeds meer vermogen gaan gebruiken. Een aantal jaren terug hadden de topkaarten over het algemeen nog geen koeling nodig (geen speciale fan, tenminste), tegenwoordig is het de omgekeerde wereld en kan je met moeite kaarten vinden die geen speciale koeling meer nodig hebben. En ik heb liever zo weinig mogelijk bewegende delen in mijn computer: om de herrie (al kan dat inderdaad best meevallen), slijtage en stroomverbruik. Ook de nieuwe generatie processoren zijn ware stroomvreters geworden, en dan met name de Intel EE cpu's.

Toch blijkt het dat het allemaal wel wat zuiniger kan, maar is er alleen een paar jaar voor nodig is om de huidige snelheden te bereiken zonder het enorme energieverbruik. Kijk bijvoorbeeld maar naar de Transmeta processoren. Al zal bijvoorbeeld een 1 ghz transmeta niet echt te vergelijken zijn met een 1 ghz Pentium III, denk ik...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True