Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 58 reacties
Bron: X-bit Labs

Op X-bit Labs vinden we een review waarbij het stroomverbruik van een ATi Radeon videokaart wordt besproken. De aan de test onderworpen Radeon-kaarten zijn de volgende: X800 XT Platinum Edition, X800 Pro, 9800 XT, 9800 Pro, 9600 XT en 9600 Pro. Verder werd de ATi Radeon X800 Pro ook nog eens in extreem overgeklokte stand aan de tand gevoeld over het stroomverbruik.

ATi Radeon logo (breed)

Voordat er wordt begonnen met de test, wordt er nog besproken hoeveel stroomverbruik er mogelijk is via een AGP 3.0-bus. Zo kan een AGP-bus namelijk stroom leveren met de volgende voltages: 12, 5 en 3,3. Hierbij is de maximale waarde respectievelijk 1, 2 en 6 ampère, wat uiteindelijk een maximaal stroomverbruik van 41,8 Watt mogelijk maakt. Ook al gebruiken de meeste videokaarten vooralsnog niet zoveel stroom, momenteel zien we wel een verschuiving in de stroomtoevoer. Zo hebben alle moderne high-end videokaarten een molex-aansluiting.

Dit is niet alleen omdat het stroomverbruik een stuk hoger ligt dan de maximaal aangeboden hoeveelheid van de AGP-bus. Ook wanneer de kaart op piekniveau niet de 41,8W-waarde overschrijdt is een langdurige blootstelling dicht in de buurt van het piekniveau niet goed voor elk computeronderdeel. Door de molex-aansluiting heeft de videokaart apart van de AGP-bus meteen al 110 tot 170 Watt ter beschikking en wanneer er twee molex-aansluitingen gesoldeerd zijn zelfs 221 tot 340 Watt! Niet dat dit ook werkelijk verbruikt wordt, de toepassing van twee molex-aansluitingen heeft juist als bedoeling om een zo stabiel en gelijkmatig mogelijke stroomtoevoer te garanderen.

Het meten van het stroomverbruik van een videokaart is niet een zeer moeilijke bezigheid. Door namelijk het ampere in een stroomcircuit op te meten en deze te vermenigvuldigen met de spanning, krijgen we stroomverbruik in Watt uitgedrukt. Met behulp van een shunt (vier 5W-weerstanden met 0,12 Ohm weerstand) en een voltagemeter kon de reviewer zonder enig probleem achter het stroomverbruik komen. Er is echter een maar, de videokaart krijgt ook via de AGP-bus stroom toegediend. Door de stroompinnen op de videokaart te isoleren en direct door te verbinden naar de voeding, werd dit obstakel omzeild en kon ook hiervan het energieverbruik worden genoteerd.


Shunt Radeon-testShunt Radeon Test 2
De verschillende shunts

De testmachine bestond naast de verschillende videokaarten ook uit een AMD Athlon 64 3400+-processor, een Asus K8V-SE-moederbord en twee 512MB TwinMOS PC3200 SDRAM-plakken. Wat betreft de software was de machine voorzien van Windows XP Pro met Service Pack 1, DirectX 9.0b en Catalyst driver 4.7. Ook werd het stroomverbruik gemeten in de idle- en burnstand, zodat er gekeken kon worden wat de verschillen zijn tussen deze twee stadia. De idle-stand bestaat bijvoorbeeld uit het weergeven van een desktop op een resolutie van 1280x1024x32 bij 75Hz, terwijl de burn-modus gebruikmaakte van onder meer een scène uit Far Cry bij een resolutie van 1600x1200 en geforceerde viervoudige anti-aliasing en zestienvoudige anisotropic filtering.

Wanneer we kijken naar de testresultaten zien we dat een ATi Radeon 9600 Pro in idle-stand nog geen negen Watt verbruikt. Ook in de overgeklokte burn-mode is het verbruik niet energieslurpend te noemen met nog geen twintig Watt. Het is dan ook niet verbazingwekkend dat de videokaart geen gebruik hoeft te maken van een koeler. De Radeon 9600 XT doet mee met het kleinere broertje en laat verder geen opzienbarende metingen naar voren komen.

Dat wordt al anders wanneer we een blik werpen op de Radeon 9800 Pro en XT. In idle-stand zijn de waarden respectievelijk iets meer dan 30 en 38 Watt, maar het echte energieverbruik komt naar voren wanneer de kaarten in overgeklokte toestand aan het werk worden gezet. De Pro versie verbruikt dan net geen 53 Watt, terwijl de XT bijna niet genoeg heeft aan 68 Watt. Opvallend is dat de X800 Pro en XT Platinum min of meer dezelfde waarden vertonen. In idle-stand zijn ze weliswaar een stuk zuiniger met dan wel 15 en 17 Watt stroomverbruik, maar in de modus waar meer gevraagd wordt van de videokaarten, liggen de waarden dicht bij hun voorgangers: namelijk 55 en bijna 66 Watt.

ATi Radeon X800 Pro perspic

Dit beeld verandert gedeeltelijk bij het testen van de extreem overgeklokte X800 Pro-videokaart. In idle-stand is het verbruik nog geen vijftien Watt, maar wanneer alle registers worden opengetrokken en de core- en geheugensnelheid naar 630 en 1180MHz worden opgevoerd, zien we dat het verbruik ook flink toeneemt. Met een waarde van 78 Watt is de toegepaste waterkoeling absoluut een must, omdat de temperatuur van de videokaart anders zo hoog zou worden dat water direct in stoom zou veranderen. Nu is de temperatuur nog een milde 42,4 graden Celsius en is verder ook de V-Core spanning ietsjes opgehoogd naar 1,68 Volt.

De uiteindelijke conclusie luidt dan ook dat een overstap van een Radeon 9800 Pro/XT- naar een X800 Pro/XT-kaart geen problemen op het gebied van de stroomvoorziening zal gaan opleveren. Dit omdat de vier kaarten ongeveer hetzelfde aan stroom verbruiken. Indien er echter van een zwakkere videokaart wordt overgestapt, dan is het handig om eerst ook even een blik te werpen op de voeding en vast te stellen of deze wel van een goede kwaliteit is. Zeker wanneer er gebruik wordt gemaakt van een stroomverslindende processor.

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (58)

Ik mis één waarde in het artikel:
Mijn vrouw's WildCat 5110 loopt bij mijn weten op 1,5Volt, hetgeen een AGP-Pro slot vereist, maar die bieden de meeste moederborden al lang (sterker nog: de A7V333 waar hij in zit is toch redelijk gedateerd).

Ik ben toch wel benieuwd hoeveel Ampere een AGP-Pro eruit weet te persen aan 1,5V
Helaas zijn AGPPro sloten niet vaak aanwezig op moederborden. Stom eigenlijk, want die sloten zijn juist verzonnen voor videokaarten die meer vermogen vereisen.

Het vermogen wat je AGPro slot aankan hangt van het soort slot af.. AGPPro50 kan 50 Watt doorsturen, AGPPro110 kan 110 Watt doorsturen.
Wanneer we kijken naar de testresultaten zien we dat een ATi Radeon 9600 Pro in idle-stand nog geen negen Watt verbruikt. Ook in de overgeklokte burn-mode is het verbruik niet energieslurpend te noemen met nog geen twintig Watt. Het is dan ook niet verbazingwekkend dat de videokaart geen gebruik hoeft te maken van een koeler.
Hmm, voor zover ik weet hebben alle Radeon 9600's vanaf de Pro een ventilator. Alleen de non-pro (waarvan ik er twee in mijn systemen heb vanwege de passieve koeling, en dus stilte) hebben geen fan. Dus als er op de Pro en XT een fan zit, zal ATi dat wel nodig achten denk ik?
Daar zat ik me ook al over te verbazen. Mijn 9600 pro heeft inderdaad een fan en als je kijkt naar de plaatjes op ati.com kun je ook zien welke kaarten een fan hebben. Misschien een typo? :?
Het is toch jammer dat ze de kaartjes van nVidia er niet naast hebben gelegd. Ik ben toch wel benieuwd wat die verbruiken. Zeker gezien het feit dat er toch belachelijk grote koelers op zijn gemonteerd.

Of zijn die misschien als eens elders gemeten?
tsja er zijn wel wat links te vinden, maar ze spreken elkaar tegen.. het is dus gewoon afwachten totdat ze bij xbit de test helemaal afmaken

link 1
link 2
link 3
Grappig om te lezen (tomshardware) dat de 9800 XT (vorige generatie!) meer stroom trekt dan de 6800 ULTRA.

Daaruit blijkt wel dat de discussie over stroomverbruik van de nVidia-kaarten meer is gebaseerd op het wel of niet vermelden door de fabrikant dan door mogelijke problemen. Als ATI namelijk vorige ronde een PSU-advies op de doos had gezet, waren zij aan de beurt. Nu is dat nVidia. In de praktijk maakt het kennelijk geen bal uit, maar is de waarschuwing eerder uit voorzorg.
Die R9800XT verbruikt alleen meer stroom in idle modus ;). Zodra je de kaart gaat stressen verbruikt ie dus wel 27W meer.
In het artikel staat dat nvidia kaarten in deel 2 gemeten zullen worden. Persoonlijk ben ik ook heel benieuwd naar het idle verbruik van de 6800 serie in vergelijking met de x800 serie.
Idle is interresant voor de energie rekening als je een casual gamer bent.
Als dat ding 95% in idle mode wordt gebruikt.
Voor voeding keuze lijkt mij stressed vermogen opname toch een heel belangrijk wetenswaardigheid ivm de voeding keuze.
Na 1 dag werken met een 6800 GT op een door het moederbord overklokt systeem (P4 3000 @ 3300) crashte spontaan de 300W voeding. Het verschil tussen een 400W of 350W voeding was geloof ik 6 euro... Dus 400W gekocht. Nu, een week later, werkt het systeem zo stabiel als maar kan. Wel de behuizing open gelaten...
Bealchelijk grote koelers? De 6800GT is een one slot kaart, enkel de 6800ultra gebruikt 2 slots.
De X800 serie van HIS gebruikt trouwens ook "belachelijk grote koelers" aangezien ze ook 2 slots gebruiken. Zowel nv als ati hebben kaarten die 2 slots innemen.
Toch wel een vooruitgang te noemen dat de X800 serie nauwelijks meer slurpt dan de Radeon 9800 (Pro/XT). Vooral het verbruik in de Idle-stand is interessant, omdat je videokaart toch het grootste gedeelte van zijn levensduur ligt te te nietsen bij de meeste mensen. En dan zijn die 15 a 20 watt minder een hele mooie score.

Mooi dus dat stroomverbruik ook een issue (aan het worden) is binnen de gpu-markt. Hopen dat deze trend zich serieus doorzet. Op dat moment kunnen we een passief gekoelde/zuinige barebone verwachten die we in de huiskamer kunnen inzetten als multimedia center en gameconsole :D
Mijn Centrino notebook verbruikt een totaal van 12W en presteert beduidend beter dan een 2-jaar oude desktop die ver over de 100W zit exclusief monitor. Helaas zijn er nog nauwelijks Pentium M moederborden te vinden in desktop formaat.

Gewenst is dat zeker: 100W is nu eenmaal meer dan 200 euro stroom per jaar!
Gewenst is dat zeker: 100W is nu eenmaal meer dan 200 euro stroom per jaar!
ik zou wel eens willen weten hoe mensen aan dit soort uitspraken komen. men kijkt alleen naar het wattage, maar deze werkt in dit geval op 12 of minder volt. als je dit omzet naar 220 kom je aan veel minder en dus minder KWH op de teller in de meterkast
Eh. Misschien volgende keer beter opletten bij natuurkunde voordat je mensen verbetert. ;)

Een watt is een watt. Dat heeft niks met het voltage te maken. Wat verandert als je iets omzet naar een ander voltage is de stroomsterkte. (het aantal ampère)
maar deze werkt in dit geval op 12 of minder volt. als je dit omzet naar 220 kom je aan veel minder en dus minder KWH op de teller in de meterkast
Nee, je denkt verkeerd, sterker nog, je voeding verbruikt meer dan dat er aan de 12V uit komt (door verlies)

In de electro techniek gaat men er bij een voeding van uit:

Pin ~ Puit
(P is het verbruik, dus Watt in ~ Watt uit)

Je kan dat met allemaal wiskundige formules gaan uitrekenen, maar zo goed heb ik dan weer niet opgelet bij electro dat ik dat allemaal kan uittekenen hier.

~ = 'ongeveer gelijk aan' teken
Kijk ff naar deze reactie van SvdV @ tweakers.be dat verduidelijkt misschien
@onno

bedankt voor deze nietsonthullende flame. nu weet ik nog niet veel helaas :'(

hoe krijg je het dan voor elkaar om 100 watt te gebruiken voor je vidkaart en 150 watt voor je proc, voor de rest van de onderdelen ook nog het een en ander zonder dat een goede 250 watt voeding klapt :?
De GPU bakker's zijn in een concurentie strijd verwikkeld waar het in eerste plaats gaat wie de hoogste performance bied.

Dieschrinks houd zuiniger maar ook meer transistor's mogelijk voor meer performance maar ook meer verbruik en hogere klokken mogelijk die verbruik ook verhogen.

'n dieschrink houd in performance winst en vermogen verbruik vergroting.

Passief is altijd mogelijk als je voor budged gaat
'n lichte budged core zal bij dieschrink zuinig zijn.
High-end en zuinig gaat niet samen.

ATI komt met 0,11 budged kaarten
zeker erg zuinig maar performance een heel stuk minder.

Ik zie het zo de X800pro slurpt relatief minder maar dit is nog te veel ook al heeft nVidia de overtreffende trap.
Als je zuinig wil moet je in performance hakken

De performance ceiling wordt niet meer bepaald door klokschaling en transistor count maar juiste balance tussen Performance en vermogen opname.

Wat bij de X800 beter is dan bij 6800 reeks.
en dat zal bij de volgende dieschrink voor high-end belangrijk worden aangezien je dan naar 100watt kan gaan.

Ik zie geen vooruit gang want aan een X300 mis je de game performance voor zuinigheid.

R500 zal zeker niet passief worden.
De vraag is alleen wat gaan ze als vermogen limiet aannemen 100watt? 120?
Ook al is er een verband tussen temperatuur en verbruikte vermogen en is het misschien niet het doel van het artikel. Toch had ik het leuk gevonden om temperaturen van de chips en misschien nog wel meer, de temperatuur in de kast erbij willen zien.

Ik heb nu mijn processor overklokt, maar als ik daar een nieuwe hittebron bij stop, dan kun je er vergif op innemen, dat ik hem met een kaart die veel warmte afgeeft minder ver kan overklokken. Ik zou dus een afweging moeten maken tussen minder grafische power (kaart met meer performance en wellicht een hoger verbruik/meer warmteafgifte) en processorpower (kaart met minder warmteafgifte en misschien minder performance).
Hoeveel watt heb je nu dan nodig in een typisch systeempje, 300 watt, heb je dan ruim genoeg?

Stap binnenkort over van een Geforce 2 pro.
Volgens mij is 350 Watt tegenwoordig wel standaard. Maar als je de keuze hebt, probeer dan toch een 400 Watt voeding eruit te slepen. Zeker met die nieuwe videokaarten en die massa`s met fans die in een PC zit tegenwoordig.
Massa's met fans... En jij denkt dat dat veel eet?
Mijn Vulcano 7+ eet met 5.5W op 12V het meeste van alle fans in mijn kast (7 of zo). Een gemiddelde fan eet net zo'n 3W. Daar hoef je dus niet wakker van te liggen :P
Je kan beter een 350W voor 90% belasten dan een 400W voeding voor 75%. De meeste voedingen werken effecitienter bij een hogere belasting.
Je kunt dan beter die 400Watt nemen. Als je die 350 bijna volledig belast heb je geen ruimte meer voor een "piek" of voor verdere upgrades. Met een 400 of 480 model kun je langer vooruit. :)
massa fans ? in welke eeuw leef jij? Tegenwoordig heben we "water koeling" ;)
Het hangt dan ook wel een beetje af van de rest van je systeem. Als je een P3 800mhz hebt en 1HD, dan is 300W zeker voldoende. Maar als je een P4EE 3.4GHZ met 2 WD Raptors in Raid 0 en dan nog 2 x 200GB hd's voor storage, dan kom je zeker niet met 300W mee toe...
Als je een goede kwaliteitsvoeding van 300W hebt, dan kan je nu er nog mee werken, maar pas op als het een OEM of een goedkope voeding is.
Als je voeding doorbrand, dan kan het je hardware mee in zijn graf nemen...
Antec, CWT, Chieftec, Enermax, Coolermaster, Zalman om een paar bekende merken op te noemen. Zoek een review van de voeding, zodat je kan zien wat het beste voor je is. Geluidsproductie en dergelijke...
Hdd's (en ook highend hdd's) trekken niet meer als 10watt tijdens startup, 5watt idle en 8watt stressed, dus dat is onzin.
En een P4 Prescott 3.4Ghz draait MAKKELIJK op een goede 300watt voeding.

BTW, Antec, Chieftec en Enermax is meuk, aftreksels van OEMers en branden te vaak door (i know, ik werk op de RMA van een computerzaak).

Beste voedingen die ik tot nu toe heb gezien zijn Tagan voedingen, 300 verkocht, 1 kapot (zekering doorgebrand).
En een P4 Prescott 3.4Ghz draait MAKKELIJK op een goede 300watt voeding.
Tuurlijk maar geld dat voor elke config
'n kaal basic prescott-rig vertegen woordigd niet het gross van de gebruikers maar alleen een deel daarvan.
daarnaast zal een groot deel ook gaan upgraden.

Vermogen advies is voor gemiddeld mainstream gebruik dat houd in een overmarge boven op upgrade marge houden.
'n Prescott doet het ook op 'n 250Watt in een kaal systeem out of the box.
Helemaal als het een internet chat email box gebruik is.

Zodra je er een zware G-kaart extra schijven DVD speler en DVD brander dan wordt het erg krap of trekt het niet.

Dat vaak een 300Watt het trekt is leuk als je de gok wil wagen. Vooral omdat de meesten het met 'n cheap nontrue power noname voeding het moeten doen of een budged merk met bij behorende lage kwaliteit.

Maar om bij elke upgrade je voeding te vervangen voor iets wat net wel weer voldoet is ook niet goed.

Tenzij je niet upgrade en je PC zoals ie out of the box geconfigureerd is gebruikt tot ie weer aan vervanging toe is.

Ik stop er 430 in wat een ruime marge is maar ja het systeem kan dan onbezorgt door groeien naar 'n high-end game rig en extra schijven etc.

De mainstream users gebruikt vaak de standaard voeding wat met de kast meekomt en dat zijn vaak geen true power en lage kwaliteit voedinkjes.

Zulke voedinkjes hebben meer baad met overmarge en verlengt de levens duur.
Op de doos van mijn Radeon 9800 Pro staat: Recommended 300Watt PSU...

Als je uitgaat van een normaal systeem, bijvoorbeeld 2 harddisks, DVD brander en een Pentium 4 op 3Ghz moet het gewoon werken.

Als je gaat overklokken of veel apparatuur in je kast hebt hangen dan kun je het best ook je voeding upgraden ;-)

Als je een Nexus of Zallman voeding hebt dan zal het wel werken maar pas op voor El-cheapo voedingen (Antec, Chieftec, Target etc) want die zijn instabiel en halen het vermogen misschien net maar dan daalt de spanning meestal waardoor je systeem instabiel wordt.
heel goed dat hier ook eens naar wordt gekeken.
30 a 38 watt voor de 9800 pro in idle stand is toch wel ff schikken. Zeker als je nagaat dat bij veel mensen de pc 90% van de tijd rustig op een desktop pagina staat te niksen...
Er zijn genoeg tools om dat zelf in te regelen hoor. o.a. Rage3D tweak biedt je gewoon de mogelijkheid om voor een ATi kaartje je kloksnelheid laag te houden tot het moment van starten van een (al dan niet specifieke) executable van deze of gene spel.
volgende stap voor videokaart makens : "cool and quiet(TM)" voor videokaarten?
nVidia heeft al GPU throtteling in zijn chips gebakken (als ik het goed heb gelezen). De clocksnelheid gaat dan naar beneden als deze niet nodig is. Weet de resultaten hier niet van (wachten op deel 2 van dit artikel).
zet gewoon een verbruikmeter tussen je PC en het stopcontact.

en probeer eerst eens met een oud PCI v-kaartje voor dat je je Geforce er terug inprikt.
Zo weet je direct het verbruik van je hele config ;)
Dit komt doordat het 0,15 vs 0,13. ATI perst meer resultaat uit maar een oudere dieschrink kan je niet verdoezelen.
Door namelijk het voltage in een stroomcircuit op te meten en deze te vermenigvuldigen met de ampèrewaarde, krijgen we stroomverbruik in Watt uitgedrukt
Van zo'n zin gruwel ik!
Stroomverbruik wordt uitgedrukt in ampere, energieverbruik in Watt.
De titel zou moeten zijn:
Energieverbruik ......onderzocht.
Door namelijk de spanning (in Volt) (..) te meten en deze te vermenigvuldigen met de gemeten stroomsterkte (in Ampère), krijgen we het energieverbruik (= het vermogen) in Watt.

Zo zou het ongeveer moeten zijn. Maar wat in het artikel staat is ook begrijpelijk.
Maar wat in het artikel staat is ook begrijpelijk.

Misschien wel begrijpelijk maar het blijft een verkeerde uitspraak waardoor je enkele niet zo kundige tweakers een verkeerde les geeft.

Op zich wel aardig om te zien dat de keuze van je voeding degelijk rekening moet houden met het verbruik van de videokaart.
Niet iedereen heeft zoveel natuurkunde-lessen gehad als "wij tweakers" :P
Maar iemand die iets onderzoekt moet die kennis toch wel degelijk in huis hebben. :+ Maar goed neemt niet weg dat het wel een leuk onderzoek is. Maar ik neem aan dat dit voor , alle componenten op het PCB van de kaart geldt, het energie verbruik. Of laat ik d`r even van uit gaan dat het alleen voor de GPU geldt. Dan zou je wellicht kunnen gaan berekenen of je een passief gekoelde X800- in de uitvoering -Pro of -XT kunt gaan maken. `K zie op het forum regelmatig zelfgemaakte waterblokken voorbij komen. Maar misschien dat d`r eens een keer gekeken kan worden naar het zelf maken van een passief koelblok voor vid-kaarten.
@pinockio

[check out the bigbrains on drekseimertutje mode]
Jou aannamen is niet ongeveer goed. Die klopt 100%. Ze zullen wel in de war zijn geweest met (8> P = I(kwadraat) x R. Waarom, nou U = I x R, voluit kan je dus schrijven P = I x R x I, beetje wiskunde en hop! formule klaar P = I(kwadraat) x R.
[/check out the bigbrains on drekseimertutje mode]
en wanneer er twee molex-aansluitingen gesoldeerd zijn zelfs 221 tot 340 Watt!
Waarom is dat toch? Die twee molexen komen uit dezelfde voeding, vanaf hetzelfde 12V/5V circuit. Waarom kunnen ze dan toch meer vermogen leveren dan één molex :?
Omdat de limiet 170 W per kabel is blijkbaar.
nu we precies weten wat een ati doe tis het jammer dat ze geen nvidia's getest hebben. na de duidelijke uitleg waarvoor de molex is leek het me wel interessant om eens te weten of nvidia's ook daadwerkelijk zoveel stroom slurpt als men claimed.
verder wel een mooie test eigenlijk ook het uitsluiten van de agp is netjes gedaan. jammer dat ze dit soort feitjes nooit van de makers zelf uit meegeven eigenlijk het zou heel handig zijn om dit te weten op voorhand om een systeem samen te stellen
Als je het artikel had gelezen of de reacties hier, dan had je kunnen weten dat dit part 1 is en dat part 2 de nvidia kaarten beslaat.

M.a.w. nog even wachten, denk dat iedereen hier ook benieuwd is naar die resultaten.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True