Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 70 reacties

Het idle-stroomverbruik van Nvidia-videokaarten is in combinatie met een G-sync-monitor met een hoge verversingssnelheid veel hoger dan bij gewone monitors. Nvidia heeft het probleem bevestigd en werkt aan een oplossing.

Ryan Shrout van PC Perspective ontdekte het probleem bij het testen van de Asus PG279Q, een 27"-monitor met G-sync en een refreshrate van 165Hz. Hij merkte dat het testsysteem veel meer energie verbruikte in de idle-stand dan wanneer hij een monitor met een verversingssnelheid van 60 of 120Hz gebruikte. Het verbruik liep op tot wel 200 watt, terwijl het systeem niets anders deed dan het weergeven van het bureaublad. Een blik op de kloksnelheden van de gpu, een GTX 980 Ti, verklaarde het hogere verbruik. Normaliter klokt de videokaart zijn gpu terug naar 135MHz, maar bij verversingssnelheden van 120Hz en hoger nam Shrout snelheden tot wel 885MHz waar.

Het probleem zou alleen voorkomen bij monitors met G-sync. Bij gebruik van een 144Hz-monitor zonder G-sync-ondersteuning week het stroomverbruik in de idle-stand niet af. Shrout stuurde zijn bevindingen op naar Nvidia en kreeg een reactie van de videokaartenmaker. Daarin geeft Nvidia toe dat er een bug zit in de manier waarop de gpu kloksnelheden aanpast bij gebruik van een monitor met G-sync en een hoge verversingssnelheid. Het bedrijf zegt aan een fix te werken die de kloksnelheid van de gpu omlaag zal brengen, net als bij andere monitors. De oplossing moet in een volgende driver verschijnen.

PC Perspective - Verbruik Nvidia-gpuPC Perspective - Verbruik Nvidia-gpu

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (70)

Het probleem zou alleen voorkomen bij monitors met G-sync. Bij gebruik van een 144Hz-monitor zonder G-sync-ondersteuning week het stroomverbruik in de idle-stand niet af.
Ik merk dit probleem anders ook al heel lang bij mijn setup met een 'normale' 144Hz monitor.
Omdat ik 2-3 monitoren aan mijn systeem heb hangen weigert de GPU tevens om in de zuinige powerstate te gaan en blijft hij altijd op de 3D powerstate plakken.
Het handmatig overriden van de powerstate heb ik al geprobeerd maar dat resulteert in artifacts en uitvallende monitoren.
Schijnt ook een bugje te wezen in de drivers die al jaaaaaren aanwezig is.

[Reactie gewijzigd door Zorian op 9 november 2015 10:22]

Zou het aanpassen van de verversingsnelheid op de monitoren niet kunnen helpen? Dit lijkt me vrij makkelijk te kunnen in Windows?
Dat helpt, bij 60Hz gaat ie wel netjes in de idle powerstate.
Maar hey, daar heb ik geen 144Hz monitoren voor gekocht...
Die heb ik juist omdat ik 60Hz te traag vind en me dood erger aan de screen tearing en stuttering op 60Hz. :p
Misschien eens onderzoeken of je niets kan scripten om automatisch te wissellen tussen die twee? Dan kan je de 144Hz aanzetten wanneer het moet en op andere momenten met 1 dubbele muisklik terugkeren naar 60Hz
Dit is inderdaad mogelijk. Ik heb dit ook aanstaan op mijn PG278Q. Je kunt in applicatiesettings van nvidia control center instellen dat wanneer je een spel opstart hij de "hoogst mogelijke ververssnelheid" gebruikt. Zo gebruik ik op desktop 120Hz (en blijft nog wel in low power mode) en gaat ie naar 144Hz wanneer ik een game opstart.
Dat zal vast kunnen, maar het verschil tussen 60Hz en 144Hz is al merkbaar in idle modus als je een beetje casual op websites rondneust of in Windows zelf bezig bent. ;) Dan wil ik het ook graag op 144Hz hebben.
Dat ie dan voor nu warm wordt en niet in een lagere powerstate wil neem ik maar voor lief. Beter dan koppijn. :)
Ik heb pas met zon scherm mogen werken en hoewel ik moet zeggen dat het zeer fijn is, is het koppijn krijgen van 60 hz miscchien een beetje overdreven.
Niet iedereen is even gevoelig voor dat soort dingen. Maar ik merk daadwerkelijk het verschil. Het kost me veel meer energie om achter een 'slechter' lcd scherm te zitten, wat uiteindelijk hoofdpijn kan geven.

120-144hz is echt heel erg kalm voor de ogen. Niet alleen dat, maar ook een vrijwel 1 op 1 reactie tijd van muisbewegingen maakt een gaming scherm het echt wel waard.
Tripple-sli configuratie doet ook wonderen voor je systeem althans, voor je budget misschien wat minder.
Stuttering, ok.
Maar screen tearing zou alleen maar erger moeten worden op hogere refresh rates.
Voor tearing hebben we juist technieken als V-/G-/Free-sync.
Dit ervaar ik persoonlijk omgekeerd eigenlijk.
Zou kunnen komen omdat ik gevoelig ben voor flikkeringen.
Spaarlampen en oude CRT's hoef je mij bijvoorbeeld niet voor te schotelen, is net een enorme stroboscoop op hoge frequentie. :+
In games heb ik wel altijd Vsync aan inderdaad, screentearing valt mij al heel snel op bij snel bewegende beelden.
Vaak zie ik dat bij anderen op hun computers en als ik dan vraag of ze er geen last van hebben is het antwoord doorgaans steevast 'maar welke screentearing heb je het over?'. ;)
Nou, als je kijkt naar de techniek en verklaring voor screen tearing, zou het theoretisch vaker moeten voorkomen.
Het voordeel daarintegen is dat een hogere frequentie de screen tearing ook weer sneller oplost (de volgende goede frame komt sneller).

En wat andere gebruikers betreft ken ik je probleem, ik heb zelf een G-Sync monitor, en sindsdien merk ik het veel sneller bij andere monitoren zonder dergelijke technieken.
Precies ook de reden dat ik persoonlijk de FPS ten minste boven de 80 probeer te houden in spellen waar snel accuraat richten een vereiste is, het voelt ook op 60Hz een stukje snappier aan.

Vsynch ben ik zelf nooit zo van geweest eigenlijk in elke conditie, en FPS limiters creŽren vaak ook latency, en als het niet precies 60 is wat Vsynch dan wel weer doet komt er vaak erge tearing.

Sommige spellen hebben overigens wel goede FPS limiters ingebakken, een voorbeeld daarvan is in elke geval CoD. (ook de oudste spellen)
Precies ook de reden dat ik persoonlijk de FPS ten minste boven de 80 probeer te houden in spellen waar snel accuraat richten een vereiste is, het voelt ook op 60Hz een stukje snappier aan.
Dat heeft te maken met de snelheid waarmee de input wordt afgehandeld. Op 80 FPS is de muis/toetsenbord input die is gebruikt voor het renderen van de frame die je ziet maximaal 12,5ms oud. Op 60 FPS is die input in het ergste geval 16,66ms oud.

[Reactie gewijzigd door Armada651 op 9 november 2015 11:23]

Dat klopt niet; je gaat uit van een instantane verwerking. In werkelijkheid is het gebruikelijk om de input sampel rate los te koppelen. Bij multi-player is dit zelfs de norm.

Stel dat je op 60 Hz input samplet en ook op 60 Hz (60 FPS) tekent. Dan is je input sample typisch 16.7 ms oud. Maar als je op 60 Hz input samplet en 80 FPS displayed, dan zal dat out-of-sync lopen. De totatle delay kan dan oplopen tot 16.7 + (2/3 * 12.5) = 25 ms.

Niet dat het eigenlijk uitmaakt. De ondergrens voor een "instantane" beleving is circa 100 ms. Daar zit je sowieso ruim onder.
En wat zeg je nu eigenlijk??? Dat 80 fps meer vertraging geeft dan 60 op een 60hz scherm?

Dat is echt niet zo. Laat mij op 100 pc's spelen met een scherm van 60hz en met 50% op 80 fps en de andere 50% op 60 fps en ik pik ze er allemaal uit. Ik hoef niet eens te spelen. Ik zie het zelfs als iemand anders speelt
Zoiets dacht ik inderdaad ook al, ik gebruik ook nog niet voor niks een PS/2 muis :P.
Ik speel al heel mijn leven hard-core shooters. Maar ik kan me echt niet voorstellen dat je het verschil merkt tussen een ps/2 muis of een USB muis. Maar wat betreft de 80 fps ben ik het helemaal met je eens. Lager dan 80 fps merk je heel goed verschil in hoe snappy een game aan voelt. Bij 60 fps is het net een drol die je aan het rond draaien bent. Sommige zeggen dat je niet meer dan 60 fps kunt merken op een 60 hz scherm maar dit is echt onzin.

Wat ik persoonlijk wel heb gemerkt is dat sli rond de 60 fps echt een stuk minder goed loopt dan een enkele kaart op 60 fps. Als je met sli speelt dan is minstens 80 maar liefst 100 fps aan te raden. Daaronder krijg ik hetzelfde gevoel als dat je vsync aan hebt staan. Alsof alles vertraagd op het scherm komt. Alsof alles net een fractie van een seconden later draait dan dat jij je muis beweegt. En dat is eigenlijk niet het ergste. Maar wel dat de muis een fractie van een seconden te laat stopt. Hierdoor ga je theoretisch gezien constant je tegenstander voorbij met richten bij een shooter. Dit corrigeren... dat maakt je langzamer
Dank voor de informatie, dat klinkt allemaal vrij accuraat in mijn oren, zat misschien in de toekomst aan SLI te denken maar zoiets maakt het wel moeilijker, was er al wel bang voor maar volgens mij is er al een hoop verbeterd, gelukkig speel ik niet alleen shooters.
De output naar de videokaart wordt ook gebufferd. Wat de game naar de kaart stuurt wordt als het ware in de achtergrond gerenderd. Deze buffer kan behoorlijk oplopen, afhankelijk van de complexiteit heb ik gemeten (door code in DirectX te injecteren) dat de backbuffer dan 3 frames achter kan lopen op de "wereld". En dat is nog maar de backbuffer, die moet ook nog wachten tot hij naar front "flipt".

Je mikt dus met je muis op een figuurtje dat al drie frames oud is. Een tweede videokaart toevoegen maakt deze queue nog groter, dan loop je bij dezelfde situatie 6 frames achter, maar wel bij een dubbele framerate, dus in milliseconden maakt dat niet uit.

Dit gebeurt op alle videokaarten vanaf Windows Vista.

(Alvast ter verduidelijking: Dit heeft niets met triple-buffering ofzo te maken, dat komt pas NA de backbuffer. Dit gaat over de DirectX queue in combinatie met de hardware queue.)
Heb je het dan niet over de flip queue size? Die staat standaard in de driver op 3, met een tool zoals RadeonPro is het mogelijk om deze lager te zetten. Ik heb hem zelf op 2 gezet zodat alles net wat "snappier" aanvoelt en ik het persoon ben dat wagenziek wordt van input lag ;). Ik speel dus ook nooit met v-sync aan.

Te lage waardes van de flip queue size zorgt ervoor dat je microstuttering kan krijgen.
Als ik dit zo lees ben ik erg blij dat ik geen last heb van 60hz/fps gaming. En tearing is te verhelpen met adaptive vsync of een andere form er van.

Jammer van het extra stoomverbruik hopelijk weet Nvidia daar wat op te vinden met zijn driverteam.
Screentearing vind ik ook echt lelijk maar voor competitive shooters neem ik het voor lief (geen geld om nu al op free of g sync over te stappen.)
In de ervaring heb je op 144Hz monitoren juist GEEN Screen Tearing, en op monitoren met een lagere refresh rate 60Hz enz. juist veel vaker.
Maar het komt wel voor, je ziet het alleen niet om dat de volgende refresh na ~6.9ms komt.
Op 60Hz komt deze pas na ~16.7ms, dus de "tear" staat veel langer op het scherm.

In de theorie daarintegen, komt screen tearing voor omdat de GPU een nieuwe frame pusht naar de monitor terwijl deze aan het refreshen is, waardoor het scherm voor de helft het oude frame, en de andere helft het nieuwe frame is.
Doordat op 144Hz de monitor veel vaker refresht is de kans groter op een tear, maar deze zal dus korter op het scherm staan.

De -sync technieken lossen dit op op verschillende manieren:
- V-Sync probeert het op te lossen door op dezelfde refresh rate te gaan zitten, en de rest van de tijd te "wachten". Als het renderen van de frame langer duurt dan de refresh time van de monitor, zal de gpu 1 frame "skippen" om hem dan in de volgende interval alsnog te pushen. (De stutter die voorkomt bij v-sync)
- G-/Free-sync lossen dit op door de gpu te laten beslissen wanneer een refresh moet plaatsvinden. (Dus niet op een klok in de monitor). Dus: render -> push -> refresh.
De uitleg is inderdaad mooi en klopt helemaal, maar in mijn ervaring op mijn 144Hz scherm heb ik GEEN last van tearing, en ik zet altijd V-Sync uit en heb geen G-Sync/FreeSync.

Ik weet echter echt wel wat screen tearing is en het is vervelend als je het hebt, maar het is gewoon NIET aanwezig op hoge kwaliteit monitoren met een 144Hz refresh rate met lage responstijd.
Stuttering, ok.
Maar screen tearing zou alleen maar erger moeten worden op hogere refresh rates.
Voor tearing hebben we juist technieken als V-/G-/Free-sync.
Nee hoor want hoe hoger de frequentie des te kleiner de tear.

Immers tearing ontstaat wanneer tijdens de beeldopbouw een nieuw frame wordt ontvangen. Op 120 Hz is deze beeldopbouw 2x sneller niet meer relevant dan op 60 Hz (volgende frame). De duur is korter en daarmee dus ook de mate van verschuiving. Je beweegt in-game immers niet ineens anders met een snellere monitor.
Met meer fps heb je mogelijk meer tearing, maar met een hoge hz scherm niet.

Stel je hebt 50 fps heb je mogelijk 50 tears per seconde. Als je scherm dan 144hz is heb je dus ook 94 refreshes zonder tears op je scherm. Dus relatief minder tearing met een sneller scherm.

Als je hoge fps hebt en een lagere frequentie scherm kan je meerdere tears tegelijk op je scherm te zien krijgen.
V sync vertraagd de output op het scherm. Er is een gigantisch verschil tussen 60 fps zonder en 60 fps met v sync. Op een of andere manier heb ik gigantische vertraging in mijn muis als ik v-sync aan heb staan. Voor mij echt geen optie. Ik speel trouwens op een 980ti. Spellen als bf3 spelen op een nutteloze 150 tot 200 fps per sec. Waarbij ik een gigantische coil whine heb. Maar vsync is geen optie.
Handmatig twee profielen met Nvidia Inspector op bureaublad, heb ik al heel lang.

Eentje voor idle/non 3D gebruik (geforceere op laagste powerstate), en eentje 'adaptive' maw zodra je een 3D spel o.i.d. speelt gaat hij auto op high.


Want de throtteling op mijn 670GTX is zo onbetrouwbaar als wat. Een videotje afspelen kan al hogere clocksnelheden triggeren wat helemaal niet nodig is.

Zelf powerstates forceren is ideaal :) Alleen niet vergeten ;) Ben het wel gewend.

[Reactie gewijzigd door Marctraider op 9 november 2015 15:58]

Misschien ligt het bij jou niet zozeer aan de 144Hz+, maar aan de multi-monitor set-up?
Ik heb ook 3 beeldschermen aangesloten;

27" Qnix 2560x1440px @ 100 Hz (DVI)
24" LG 1920 x 1080p @ 60 Hz (DP)
42" Loewe tv 720P @ 60 Hz (HDMI)

M'n 980 GTX draait nu idle op 1000 mhz core clock en 1750 memory clock terwijl ik alleen Firefox aan heb staan... De kaart weigert lager te gaan. Hij is overigens watergekoeld en zit idle netjes op 31 graden celcius.

Dit komt bij mij voornamelijk door de HDMI tv die aangesloten is. Als ik deze kabel loshaal, ook al staat de TV uit, kan de kaart wel weer rustig op IDLE clocks draaien. Er klopt dus inderdaad iets niet helemaal in de drivers lijkt me.. Ik heb hier overigens al een aantal jaren last van.
Vreemd ik heb een 4K tv met hdmi 2.0 aangesloten draaiend op 4K@60hz en daarmee draait mijn gtx 970 gewoon netjes 135mhz idle. Dat is dan wel het enige scherm wat eraan hangt
meerdere resoluties is het probleem. zolang je monitoren aansluit die zelfde resolutie gebruiken is er geen probleem. in u geval is er maar 1 monitor, dus geen probleem.
In stin00 zijn geval zijn er meerdere monitoren. Dit is al jaren bij nvidia het geval. (AMD weet ik niet 100% zeker, maar dacht dat het ook daar het geval is)
Dat zou kunnen doordat je 3 monitoren gebruikt.
Heb je het ook getest met 1 monitor actief?
Probeer anders eens 120Hz in te stellen, bij mij gaan de kloksnelheden dan omlaag t.o.v. 144Hz. ;)
Dit lijkt mij best logisch want de videokaart moet dan toch ook harder zijn best doen om die refreshrate bij te houden?

Of denk ik nu te simpel?
Ja wel iets, maar over het algemeen heeft de videokaart t niet zwaar in windows, zeker niet met een idle desktop. Kijk maar naar het verschil in MHz van de kaart, 135MHz om een scherm met 60 of zelfs 120 Hz aan te sturen en vervolgens meteen 885 MHz voor 144 Hz of 165 Hz. Dat is compleet uit verhouding, en ze kunnen hem uiteindelijk ook op 165Hz heus wel op 135 Mhz in idle krijgen verwacht ik.
Los daarvan hoeft het scherm niet zo snel aangestuurd te worden in die mode, er veranderd namelijk niets op het scherm, dan kan de gsync het scherm vasthouden en hoeft de kaart eigelijk niets te doen. :)
Natuurlijk verandert het scherm wel of zit jij de hele dag naar een stilstaand plaatje te kijken? Ik heb nog geen monitor met hoge refreshrate, maar ik lees vaker dat dit ook op de desktop al zeer merkbaar en prettig is (je muis beweegt bijvoorbeeld vloeiender).
Ze hadden het over idle mode. Dan gebeurt er niets op het scherm.
Dit is overigens de reden dat de klok in je taskbar alleen minuten en geen seconden weergeeft. Schermupdates elke seconde bleken een duidelijk meetbare invloed op het energieverbruik te hebben !
Dan begrijp je niet wat er met idle bedoeld wordt. Dat betekent niet dat de user idle is (en er dus inderdaad vaak niks gebeurt), maar de hardware. Als jij gewoon een beetje aan het browsen bent dan heeft je pc daar bij lange na niet zijn volle snelheid voor nodig, het grootste deel van de tijd zit deze duimen te draaien. Om energie verbruik en warmte productie te beperken wordt daarom de snelheid van de cpu en gpu terug geschakeld op momenten dat de volle snelheid niet nodig is. Idle mode is de meest zuinige stand en degene waar je pc het meest in zit als je geen zware taken aan het draaien bent, maar er kan zeker nog wel van alles gebeuren.
Ik weet wel wat idle betekend en ik snap we wat er bedoeld word. Dat had je niet uit te hoeven leggen.

Misschien begrijp jij het verkeerd. Zodra ik maar iets met mijn muis doe gaat de CPU uit idle, en zodra een venster verschuift gaat de GPU uit idle. Ook al is het maar heel kort, het gaat uit idle.
Ik denk dat je blik een beetje te zwart-wit is. Tegenwoordig zijn er diverse power states. Ik geloof dat mijn GPU er minstens 5 heeft. Des te zwaarder de belasting des te hoger het voltage en de frequentie. Je kunt dit o.a. uitlezen met gpu-shark: http://www.geeks3d.com/20...g-utility-geforce-radeon/ .

De traagste van deze states vallen wat mij betreft nog onder idle (2d modes met hele lage frequentie en voltages).

Los hiervan valt mij op dat mijn GPU vandaag ook niet onder de 1018 Mhz wil (2560x1080 @ 60 Hz). Misschien zit er iets raars in de laatste driver.

[Reactie gewijzigd door sdk1985 op 9 november 2015 14:35]

Dat van de powerlevels weet ik, dat zie ik ook. Ik zeg alleen dat ie uit idle komt.
Dus jij denkt dat je pc 200 watt gaat verstoken als jij een beetje met de muis heen en weer gaat bewegen? :S
Nee, waar haal je dat vandaan?
Er zijn meerdere stappen tussen idle en full-power. Het verbruik van je processor gaat misschien maar iets omhoog, maar idle is het niet meer.

Maar we wijken af. In het oorspronkelijke artikel hebben ze het over een computer met alleen windows desktop op het scherm. En daar veranderd niets aan, dus dan hoeft je videokaart eigenlijk ook niet met 144hz te refreshen.
Tja, het is een beetje flauw om te gaan zitten zeuren over wat nou precies de definitie van idle is. Jij zegt het is helemaal niks doen, ik zeg het is de laagste powerstate (wat sdk1985 hierboven ook zegt).
Uiteindelijk maakt het bijzonder weinig verschil en is het een beetje sofisterij om daar zo op door te drammen. Het punt is gewoon dat het helemaal niet zoveel power zou moeten kosten om een stilstaand scherm weer te geven, ook al wordt die 144 keer per seconde naar het beeldscherm gestuurd.
Jouw idee dat de videokaart helemaal niks zou hoeven doen klopt overigens niet. Gsync kan niet een beeld vasthouden, het heeft namelijk geen eigen framebuffer. De videokaart zal dus altijd tenminste de minimale refreshrate aan moeten houden. Dan moet je echter weer heel erg snel schakelen zodra er wel activiteit is want niemand zit te wachten op een hakkelende muis terwijl je videodriver de refreshrate nog aan het verhogen is. Dat kan allemaal wel, maar het lijkt me een erg ingewikkelde oplossing voor een simpel probleem. Waarschijnlijk zit er gewoon ergens een bug in en als ze die gefixt hebben dan scheelt het weer erg weinig of je nou op 144hz of op 30hz werkt.
Iets harder, ja, maar niet zo hard dat hij direct naar 800Mhz moet gaan.
Ik vind het toch raar dat nVidia nu pas aangeeft aan een oplossing te werken. Dit probleem staat al tijden op bijvoorbeeld Reddit.

Helaas heb ik er zelf ook last van icm een pg278q en 970.
Ik vind het toch raar dat nVidia nu pas aangeeft aan een oplossing te werken. Dit probleem staat al tijden op bijvoorbeeld Reddit.

Helaas heb ik er zelf ook last van icm een pg278q en 970.
Waarom zouden ze er eerder aan werken, het treft maar een kleine groep gebruikers die meerdere schermen hebben of schermen met een hoge verversingssnelheid? Ze hebben iets van 80% marketshare en mensen blijven hun kaarten toch wel kopen, of er nu driver problemen zijn of niet dat verandert niks aan de situatie :Y).

[Reactie gewijzigd door Sp3ci3s8472 op 9 november 2015 13:52]

Omdat het toch wel een vrij groot probleem betreft, ook al gaat het misschien maar om een relatief klein aantal gebruikers.
Mijn R9 290 doet dit ook al sinds jaar en dag met 2x 120Hz monitoren. Het geheugen wil niet omlaag clocken waardoor het idle verbruik hoger blijft.
Gelukkig gaat je idle gebruik hier minder van omhoog dan dat je core op 3d snelheden loopt. GDDR5 pakt volgens mij iets van 50-60 Watt.

Ironisch koop je een Nvidia kaart omdat ze zo zuinig zijn deze generatie; heb je er niks aan omdat hij idle zoveel gebruikt. :z
Valt mee op zich gewoon geen 60+ hz aanzetten en het probleem is opgelost :+

[Reactie gewijzigd door Spliffire op 9 november 2015 18:00]

Dat gaat ook op voor het GDDR5 geheugen neem ik aan, geheugen is bij highend kaarten maar 1/5 - 1/3 van het totale gebruik (afhankelijk van de kaart).

Probleem is als een gpu zijn geheugen of core clocksnelheid omhoog gooit dat ook het voltage omhoog gaat, een verhoogt voltage verhoogt het gebruik kwadratisch.

Edit:
Volgens het artikel op pcperspective was de grens toch 120hz?
Overigens is het onhandig dat je ineens alles weg edit, nu slaat mijn post nergens op :P. Een streep erdoor is dan duidelijker.

[Reactie gewijzigd door Sp3ci3s8472 op 9 november 2015 18:14]

Ja had het even aangepast omdat hier het verbruik wel erg omhoog gaat vs wat ik mee maak via web browsers. Maar gpu verbruik speelt ook een enorme rol, TDP loopt bvb op wanneer game A veel zwaarder is dan game B met de zelfde clocks en voltage, game b verbruik dan veel minder dan game A. Je geeft het elf ook al aan zie ik.
Al dat gezeik over t iets hogere verbruik van amd en nu dit lolol.
Ik had dit jaren geleden al..

De kaart klokt zich niet terug wanneer er meerdere schermen zijn aangesloten op 1 kaart..

Ik loste dit toen op door er een simpele gpu bij te zetten.. Scheelde toch ruim 100 watt in idle..
Nvidia Inspector kan de idle clocks forceren met multi-monitor met de GTX 500 en lagere series die hier problemen mee hebben, AMD heeft/had er overigens ook last van.

Nvidia Inspector openen > taakbalk rechtermuis op programma icoon > Multi Diplay Power Saver.

Je ziet overigens wel een flicker optreden als hij schakelt tussen Idle 2D en hogere clocks.

[Reactie gewijzigd door CriticalHit_NL op 9 november 2015 10:46]

Kijk, dat is nou mooi om te horen.

Ik had het probleem zelf ook al opgemerkt op mijn Asus ROG Swift (PG278Q) i.c.m. 2 Titan X's.
Maar ik maakte hier een aanname dat dit inherent was aan 144Hz (niet G-Sync).
Is een bug die echt al een jaar+ bestaat, jammer dat het een grote YouTuber vereist om het op te lossen...

(Ik draai mijn PG278Q op 120hz om alleen die kloksnelheid naar beneden te brengen)
Ik zie precies hetzelfde met 3 60Hz monitoren op mijn 980Ti. De kaart loopt constant op 885 Mhz waardoor ook de fan de hele tijd blijft draaien. Dit was in het begin niet zo dus ik denk inderdaad dat het een bug in de driver is.
Netjes? Ze reageren vrijwel direct en geven toe dat er een bug is. Dan denk ik; dat weten ze al langer dan vandaag; ze zijn "betrapt". Hoezo netjes 8)7
Een soortgelijk probleem is als je SLI draait, hierbij schakelt de driver nooit terug naar een lagere P stand en blijft dus altijd op high-performance draaien ookal zit je op bureaublad (Dit is alleen met meer dan 1 beeldscherm), een enorme energie slurper dus.. Hier hebben ze al jaren niks aan gedaan, wel erg slecht..

Je KAN het forceren naar een lagere stand door NVinspector te downloaden en dan Multi-Display Energy Saver uit te voeren, dit programma schakelt de standen automatisch voor je op basis van hoe intens de GPU gebruikt wordt, het omschakelen wordt wel vaak "accompanied" door 1 frame zwart beeld dus als je een programma gebruikt dat NET soms intens genoeg is om te wisselen (bij mij bijvoorbeeld Diablo II) dan is dit nog redelijk storend (al is dit weer te fixen door de % drukte lager te zette, maarja dat moet je dan weer doen voor elk programma die daar weer op het randje op zit, zo heb je NOOIT een goede sweet-spot)

TL;DR

Multi-Display en SLI = Altijd hoge P state = energie slurper = BUG
Al heel lang zo, nogsteeds geen fix.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True