Discord kan door bug kloksnelheid geheugen Nvidia-kaarten verlagen

Chatapp Discord kan door een bug in de software van bepaalde Nvidia-kaarten de kloksnelheid van geheugen in die kaarten verlagen. Nvidia erkent het probleem en belooft op een later moment met een update te komen.

Discord logoAls gebruikers Discord open hebben staan, dan kan het geheugen van bepaalde videokaarten 200MHz lager uitkomen, zegt Nvidia. Een update die het probleem oplost volgt later, maar Nvidia biedt alvast een fix aan voor wie het zelf wil oplossen. Via GeForce 3D Profile Manager is het mogelijk om de waarde 'Setting ID_0x50166c5e = 0x00000000' toe te voegen aan het profiel voor Discord, waarna het geheugen weer op de maximale snelheid kan draaien.

Gebruikers meldden de bug sinds enkele dagen en het lijkt vooral te gaan om kaarten uit de RTX2000- en 3000-serie. Gebruikers van kaarten uit de nieuwe RTX4000-serie lijken geen problemen te ondervinden. Het is onbekend hoe het probleem heeft kunnen ontstaan, maar het ligt vermoedelijk aan een update voor Discord die op RTX4000-kaarten AV1-streaming mogelijk maakt. Door de lagere kloksnelheid van het geheugen ondervinden gebruikers prestatieproblemen in games, als Discord tegelijk open staat. Dat gebeurt vaak, omdat veel mensen Discord gebruiken om te chatten tijdens het gamen.

Door Arnoud Wokke

Redacteur Tweakers

31-01-2023 • 20:43

63

Reacties (63)

63
63
24
2
0
24
Wijzig sortering
https://www.nvidia.co.uk/...Results.aspx/199863/en-uk

Nvidia claimt het opgelost te hebben in versie 528.49 (sinds gisteren uit)
Ik heb hardware-acceleratie in Discord uit staan, ik neem aan dat Discord zich dan niet met de videokaart bemoeit.
Zojuist getest zowel met als zonder hardware accel. en ook zonder dat gaat de memclock met 200mhz omlaag.
Edit: de fix die in het artikel vermeld wordt verhelpt het probleem.

[Reactie gewijzigd door Militia Pilot op 22 juli 2024 14:32]

Ik neem aan dat de instelling die jullie aanpassen niet CUDA uitschakelt - dit is namelijk de standaardinstelling in de NVIDIA-driver: zodra een applicatie CUDA gebruikt wordt de memory-clock (omwille van de stabiliteit?) op 'P2'-niveau gehouden, de instelling '0x50166c5e' uit de workaround is ook wel bekend als "CUDA - Force P2 State" en deze staat standaard aan (behalve voor een aantal PhysX-spellen).
Leuke security issue, vindt het vreemd dat een App zoals Discord bij hardware settings kan komen.
Voor het zelfde geldt zorgt een bug voor een voltage verhoging, waardoor je kaart kapot gaat :?
Jij had deze zeker nog niet meegekregen dan? https://www.tomshardware....-rtx-3090s-from-new-world

Zeker niet onmogelijk dat je kaart kapot gaat door een bepaalde app of game.
Is wel een ander soort geval. Dat ging meer om teveel aanspraak maken op bepaalde type resources, waar de kaart niet mee om kon gaan en overhitte. Niet omdat er bepaalde settings zo direct werden veranderd.
Is wel een ander soort geval. Dat ging meer om teveel aanspraak maken op bepaalde type resources, waar de kaart niet mee om kon gaan en overhitte.
Een kaart zou nooit moeten oververhitten, ongeacht de verzoeken die het verwerkt. Thermal throttling moet dat voorkomen.

[edit]
Was geen commentaar op jou, @Argantonis, maar meer een aanvulling. :) Om terug te komen op @Akamatsu: een spel of applicatie maakt niet de kaart kapot. De kaart maakt zichzelf kapot.

[Reactie gewijzigd door The Zep Man op 22 juli 2024 14:32]

Sterk afhankelijk welk component oververhit.

Een cpu/gpu chip zelf heeft doorgaans temperatuursensoren en bijbehorend powermanagement (al dan niet in software).
Maar omliggende componenten niet. Je kan daarmee ongemerkt een ander component buiten zijn (thermische) limieten brengen.

Zeker als de omstandigheden waarbij deze situatie optreed complexer worden is het moeilijker en moeilijker om het bij voorbaat te testen. Er zijn gewoon altijd een hoop randsituaties.
En daarom ben ik een voorstander van een frame-cap op menu's of loading screens. Als je dat niet doet dan rendert je GPU tot in einde der tijde wel duizenden FPS's wat totaal onnodig is.
heel veel games hebben dat ook. Van alle games die ik ooit heb gespeeld hebben denk ik maar een stuk of 5 die feature niet standaard. witcher 3 is eentje die me makkelijk te binnen schiet. Ik speel toch bijna altijd met een frame cap aan. 144 in de meeste games en 300 in esports games.
Het was vroeger kennelijk nog erger. Met MSDOS hadden applicaties vaak direct toegang tot de gpu (en andere pci interfaces). DirectX was van wat ik er van begrijp uitgevonden zodat games nog steeds de gpu konden gebruiken.

Al die virtualisatie, sandboxing en user access control, dat is later toegevoegd. Elke check op runtime kost ontwikkeltijd en performance, en vaak zag men eerst de noodzaak van dat soort maatregelen niet in. We hebben veel vooruitgang geboekt, maar een perfect systeem waarin alle software draait zonder onbedoelde bijwerkingen bestaat niet.
DirectX is ontstaan omdat OpenGL niet wilde voldoen aan Microsoft's voorwaarden. Destijds had OpenGL voor bijna elke game eigen plugins/modules. Microsoft wilde het meer standaardiseren, OpenGL wilde daar niet in mee.... Maar is jaren later met 2 of 3 alsnog die route gaan volgen.

edit:
typo

[Reactie gewijzigd door batjes op 22 juli 2024 14:32]

Dat is inderdaad jammer, anders hadden we nu een goede open standaard i.p.v. gesloten iets. Gelukkig is Vulkan er ook, anders was het helemaal triest geweest.
Ergens is het jammer.

Ergens is het ook weer goed dat er niet maar 1 standaard is.

Een significant deel van de grafische ontwikkelingen de afgelopen 10-15 jaar, komt bij Microsoft vandaan. DirectX Box :)

Concurrentie is goed voor de ontwikkeling.

[Reactie gewijzigd door batjes op 22 juli 2024 14:32]

Anoniem: 58485 @Larry41 februari 2023 06:58
Het kan ook een bepaalde power state zijn wat je op veel videokaarten ziet. Een 2D modus, een Blueray modus. Een encode modus. En een 3D modus. Alle profiles hebben respectievelijk een bepaalde setting in acht zoals voltages, kloks en dergelijk. Moet je nu echt voor 2D de GPU op z'n hardst laten draaien? Nee.
Wat een bizar probleem, vraag mij toch of hoe dat gelinked is aan elkaar.

Een update voor AV-1 codec speciaal voor de 4000 series verlaagt de kloksnelheden van sommige 2000 en 3000 series kaarten??
Wellicht heeft de update iets gewijzigd aan de manier waarop Discord gebruik maakt van de resources van de GPU en is daardoor iets stuk gegaan. Een moderne GPU heeft veel verschillende performance levels waarop hij kan draaien en blijkbaar vraagt Discord hier een foutief profiel aan of geeft de nVidia driver foutievelijk het laatste woord aan de voorkeur van Discord.
Van waar die 200mhz,

Klinkt niet echt als een energy zuinig profiel of iets dergeliks
Het klinkt in mijn oren ook niet als iets dat discord moedwillig heeft ingebouwd. Het zal iets te maken hebben met het schrijven van geheugen register 0x50166c5e.
Stond even verbaasd te kijken en kon niet direct een link vinden vanuit een chatapp en de videokaart, maar voor zover ik begrijp kan je via die chat ook met beeld erbij chatten. Dan kan ik mij nog wel iets erbij voorstellen dat acceleratie door de videokaart gedaan word. Maar dan toch wel apart dat de chatapp dusdanig van invloed kan zijn op de drivers en dan het videogeheugen kan underclocken. Vraag mij ook af wat voor nut dan aansturing vanuit de app richting videoram heeft. Enigste wat ik mij erbij kan voorstellen is dat de app misschien een deel videoram voor de app reserveert en daar ergens iets mis is gegaan.
Discord, ik snap de populariteit sowieso niet. Ik heb er altijd een hoge cpu load mee…(5-10%) Zal wel aan mij liggen denk ik dan.
Over de hoge cpu load heb je gelijk, ik heb een mini pctje met een 8 watt intel n5095 chip, ik kan daar perfect Red alert 2 op spelen, tot je discord opent, dan is het 1 groot lag feest.
Ja precies een Dos game die oorspronkelijk op een Pentium II 266 draait vergelijken met een Windows applicatie van nu.
Ik lees hierin dat software tegenwoordig nauwelijks efficient ontwikkeld word (iets wat ik dagelijks merk). Dus tsja.
Efficient vs. Efficient genoeg :p

Als professioneel scripter en amateur programmeur wordt ik niet beoordeeld in hoeverre ik efficiënt gebruik maak van een stukje hardware. Ik wordt beoordeeld op het opleveren van functionaliteit.

Ik merk persoonlijk wel sinds 2 jaar af toe gesprekken op dit vlak maar daar blijft het bij want dat duurt het ontwikkelen langer of je hebt meer FTE nodig in je project.
Ik merk het in de software die ik gebruik. Als iets gemaakt is met electron bijv. moet het wel heel goed zijn om bij mij in dagelijks gebruik genomen te worden.
Het ontwikkelen van software is inderdaad van low level programmeren gegaan naar het aan elkaar coderen van libraries. Performance is ook functionaliteit, maar veelal van ondergeschikt belang aan de zaken waar de stakeholders wat aan denken te hebben.
Dat is spijtig genoeg wat er aan de hand is ja. Er wordt minder en minder omgekeken naar efficiëntie.

Bij mij heeft op dit moment Discord 150MB geheugen in gebruik, terwijl Teamspeak3 maar 10MB nodig heeft.
Ik denk dat je mijn comment niet begrijpt.
Als ik Red alert 2 speel zonder dat discord draait speel het perfect, maar als ik Red alert 2 speel en dan tegelijk discord open, dan is het lag feest, wat laat zien dat Discord aardig wat van je cpu vreet, en ik dat met een lage performance systeem dus goed kan merken.
Ik zeg niet dat Red alert 2 minder recources zou moeten gebruiken dan Discord.
Teamspeak was feitelijk beter.
Uhm misschien is dat best logisch met zo een processor ook ? |:( :D
Waarom kan deze processor dan wel 60 fps 4k video afspelen op Youtube? of 20 tabs in chrome zonder problemen? Performance is ongeveer gelijk aan een intel i5 2e generatie, dat zou het lastig moeten hebben met Discord volgens jou?
Wist je wel wat de performance van de cpu in kwestie was voordat je je comment maakte?
Nee maar ik snap dat een 8watt processor tov een gemiddelde processor sneller een 100% load zal hebben.
Laagdrempelig, ingebouwd screensharen, makkelijk inrichten van servers, gratis, moet ik doorgaan?
De super lage latency, nodig om een beetje goed te killen met een groepje in Warzone of iets dergelijks
Latency in een voice chat.. ok..
Ik weet niet of je weleens naast een collega hebt gezeten terwijl je beide in dezelfde teams call zit? Een latency van 1-2 sec is meer regel dan uitzondering.

Bij Discord is die latency hooguit 0,5 sec. Je hoort het wel, maar het is minimaal.

Idem met bijvoorbeeld teamspeak, of ventrilo, daarmee ben je erg afhankelijk van de (re)encoding snelheid van de server, plus de latency naar de server zelf.

Latency van 1-2 sec in een game als mw2 maakt best een verschil en kan nét dat verschil zijn als je iemand(en) ziet aankomen. :)

[Reactie gewijzigd door EnigmA-X op 22 juli 2024 14:32]

Teamspeak was beter wat dat betreft
Dat ligt volledig aan waar de server draait. Discord draait de servers zelf dus je zult altijd ongeveer dezelfde performance hebben.

Ik heb op genoeg TS servers gezeten van iemand die het zelf op een brakke PC en internetverbinding hostte, plus je verbindt dan van overal op de wereld met dezelfde server, ipv met eentje die het dichtste bij jou in de buurt zit.
De afstand van jou tot de server heeft geen invloed als de andere partij verweg zit en op een eigen server die weer dicht bij hem staat. Het gaat om de totaal afstand tussen jou en de andere partij.
En uiteraard de tijd die het kost om het signaal te verwerken beide kanten op.
Ik zou zelfs zeggen dat je beter beide op dezelfde server kan zitten dan op 2 verschillende, dat scheelt een netwerk hop en daarmee tijd, en tijd is latency.
Ja! Echt super irritant als je in teams zit en soort van in dezelfde ruimte. Kan echt seconden vertraging in zitten en dan ga je dus dwars door elkaar heen praten als je niet bij elkaar in de buurt zit.
Meeste gamers hebben een 6 of 8 core cpu.
Dat klijne beetje preformance missen we not echt ( ook omdat geen een game nog echt alle core,s benut )
Maar discord zelf heeft veel goede dingen vooral voor een comunity ( of gewoon om in contact met mensen te komen ) of oplossingen te zoeken voor de problemen in the game ( of het zoeken naar groepen om mee te spelen ) is het geweldig
Ik kan bevestigen dat zelfs met een gtx 1650 super ik ook benadeeld werd door deze bug mijne ging zelfs met 1000 MHz naar beneden

Tijdelijke fix is overigens heel simpel nvidia inspector downloaden dan type je discord in de zoekbalk en zoek je de force p2 cuda state zet die op off en het probleem is opgelost.

Standaard staat die optie aan.
Het klopt niet helemaal wat je zegt, je effective memory clock ging met 1000Mhz omlaag. Je base clock ging maar met 125MHz omlaag omdat je videokaart "octal data rate" geheugen heeft. Je effective clock is je base clock x8 omdat je geheugen per cycle 8 keer kan data kan verplaatsen.

Ik heb het getest op mijn 1080Ti en daar ging mijn base clock ook met 125Hz omlaag en de effective clock met 1000Hz.
Goed punt maar ik denk dat de essentie vooral vanuit mij meer lag in de oplossing dan in hoeverre een individu benadeeld wordt.

Wel blijf ik er bij dat ik van plaats 7001 memory clock nog maar 5001 zag wat althans naar mijn visie zelfs 2000 verlies zou zijn gewoon echt waar.

Daar en tegen snap ik wel waar je heen wilt 6001 is immers effectief 12002 ik ben niet geheel bekend met hoe dat je dat precies berekend maar ik was ze met discord mooi wel kwijt xd
Net gecheckt bij mijn GTX 1080, en Afterburner meldde zelfs 500 MHz minder in mijn geval. Testte verder door een tech demo te draaien met Afterburner's monitor er bij en Discord te sluiten en weer te openen. De voorgestelde fix in de post werkt gelukkig wel na het toe te passen en Discord nog eens opnieuw op te starten daarna, blijft nu mooi op 5006 MHz draaien in plaats van 4516 MHz.
Heeft de Linux Nvidia driver ook deze bug, gebeurt er dan het zelfde met Discord open en weet iemand hoe je dit kan testen?

Op dit item kan niet meer gereageerd worden.