Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Nvidia voegt frameratelimiet toe aan driver-opties van GeForce-videokaarten

Nvidia heeft met een driver-update gebruikers van zijn grafische kaarten de mogelijkheid gegeven om een maximum-fps in te stellen in 3d-toepassingen. Tot op heden moest dat nog met een extra applicatie of binnen dergelijke programma's zelf geregeld worden.

De update zit in GeForce-driverversie 441.87 en is volgens Nvidia de meeste gewilde feature bij de gebruikers, zo schrijft Softpedia. Het instellen van een maximum-fps heeft voordelen zoals het besparen van energie, warmte- en geluidsproductie verminderen en het niet overschrijden van de maximale verversingssnelheid van de monitor. Waar games deze optie zelf niet bieden, waren gamers aangewezen op een applicatie als Rivatuner Statistics Server om dit te bewerkstelligen. AMD heeft deze functie sinds 2015 in zijn drivers.

Verder voegt Nvidia onder meer ook Variable Rate Super Sampling toe, waarbij in vr het middelpunt van het gezichtsveld onderworpen wordt aan maximaal 8x supersampling, mits de framerate boven de 90 is. Zo wordt het punt van het gezichtsveld waar de gebruiker hoogstwaarschijnlijk naar kijkt, van betere kwaliteit voorzien en wordt minder rekenkracht besteed aan de periferie.

De instelling gaat tot minimaal 40fps en maximaal 240 fps, in ieder geval op een test-desktop met GTX 1070 met 144Hz-monitor. Vermoedelijk verruimt Nvidia dit nog voor 360Hz-monitoren en 300Hz-laptops, of wordt het bereik met die apparaten automatisch groter. De functie werkt ook bij 3d-benchmarks, waardoor resultaten onnauwkeurig kunnen worden. De drivers zijn handmatig te downloaden, maar zijn ook binnen te halen met de gebundelde software, GeForce Experience.

Door Mark Hendrikman

Nieuwsposter

07-01-2020 • 16:17

79 Linkedin Google+

Reacties (79)

Wijzig sortering
Hehe eindelijk, het heeft voornamelijk veel voordeel bij G-Sync monitoren (waardoor het vreemd is dat ze er nu pas mee komen), als je namelijk net onder de max refresh rate van je monitor blijf dan blijft G-Sync intact, ga je eroverheen dan stop G-Sync met werken wat tearing tot gevolg heeft. Tot op heden altijd aangewezen tot de ingame optie of Rivatuner, native ondersteuning blijft toch altijd het beste en nu is het hopen dat Nvidia hier verder op blijft doorontwikkelen.

[Reactie gewijzigd door Turismo op 7 januari 2020 16:25]

Wat is het probleem als je tegen / boven de refresh rate van je monitor zou komen?
zoals ik al zei tearing, maar ook onregelmatige frametimes. De regel die veel mensen in hun hoofd hebben dat hoe meer fps beter is dat klopt niet. Je kan beter stabiele frametimes hebben voor een soepele ervaring.

Ik heb dus liever 80 fps met stabiele frametimes, dan 150 fps met onstabiele frametimes.

Zijn veel artikelen over en testen die het op Youtube beter uitleggen, mocht je er meer van willen weten:
https://www.youtube.com/watch?v=4yeROJQR_qE
https://medium.com/@laksh...mooth-gaming-fbd740410e04

Er zit namelijk nog best een kunst in om de sweetspot van een loodrechte frametime te behalen.
Maar als je dat eenmaal hebt, en je speelt dat een uur dan weet je dat je niet meer anders wilt, het is in combinatie met G-Sync echt een groot verschil (Het is een gevoelsmatig iets ook, maar wel zeker meetbaar met Rivatuner)

[Reactie gewijzigd door Turismo op 7 januari 2020 16:32]

zoals ik al zei tearing, maar ook onregelmatige frametimes. De regel die veel mensen in hun hoofd hebben dat hoe meer fps beter is dat klopt niet. Je kan beter stabiele frametimes hebben voor een soepele ervaring.

Ik heb dus liever 80 fps met stabiele frametimes, dan 150 fps met onstabiele frametimes.

Zijn veel artikelen over en testen die het op Youtube beter uitleggen, mocht je er meer van willen weten:
https://www.youtube.com/watch?v=4yeROJQR_qE
https://medium.com/@laksh...mooth-gaming-fbd740410e04

Er zit namelijk nog best een kunst in om de sweetspot van een loodrechte frametime te behalen.
Maar als je dat eenmaal hebt, en je speelt dat een uur dan weet je dat je niet meer anders wilt, het is in combinatie met G-Sync echt een groot verschil (Het is een gevoelsmatig iets ook, maar wel zeker meetbaar met Rivatuner)
In de praktijk ligt het allemaal wat genuanceerder.

Eerste punt om in gedachte te houden is dat hele hoge fps wel degelijk altijd een latency voordeel oplevert, ook op een 60 hz monitor. Voor wie praktisch is ingesteld: Linustechtips heeft recent met een (ex) pro gamer getest
  • 60FPS/60Hz
  • 300FPS/60Hz
  • 240FPS/240 HZ
De resultaten: 0.67 hits op 60 FPS, 6 hits op 300 FPS en 7.66 hits op 240 Hz. Hier zie je dus dat met 300 FPS op 60 Hz véél beter resultaten worden behaald dan met 60 FPS op 60 Hz.

De verklaring hiervoor is vrij simpel. Wanneer er iets op je scherm gebeurd dan reageer jij daar als mens op, bijvoorbeeld door op een knop te drukken. Dat is de eerste set vertraging (zien, denken, bewegen, clicken, enz). Vervolgens wordt dit signaal omgezet en opgepakt door de game en in de volgende frame verwerkt. In die volgende frame zit het probleem. Want bij 60 Hz duurt een frame 1/60 = 16 Ms. Met een beetje pech kom je ongunstig uit (of heb je een frame buffer) en zit je op 2x 16 = 32 ms latency. Daar komt dan vervolgens ook nog de latency van het scherm zelf bij. Hierdoor ervaar je een enorme stroperigheid en moet je eigenlijk 'vooruit' gaan denken in je interactie met de game. Als je veel gamed kun je dit leren, maar prettig is anders. Ga je naar 300 fps (extreem voorbeeld) dan praten we over 3ms per frame en daarmee ben je van een enorme latency bottleneck verlost, ook op die 60 Hz monitor.

Heb je daarom persé 300 fps nodig? Nee want zodra je een hogere Hz monitor pakt dan pak je enorm veel terug aan de andere kant. Persoonlijk, dus 100% subjectief, merk ik geen verschil tussen 120 Hz en 144 Hz. Echter in rainbow six siege speel ik alsnog liever met 180 fps dan met 120 fps op die 120Hz monitor. Zo lang het totale plaatje van latency maar klopt is er niets aan de hand. Maar het is zeker niet dat hoge fps niets toevoegt, want dat doet het aantoonbaar wel.

Dan over de stabiliteit: Tja er zit een kern van waarheid in. Maar ook hier ligt het allemaal wat genuanceerder. Wat je wil voorkomen is microstutter, het ervaren van een korte hapering die je niet terug ziet in je normale FPS weergave. Microstutter kun je tegenwoordig vastleggen met vrijwel elke tool (rivatuner/msi afterburner/fraps) in de vorm van de frame time 1% low en 0.1% low. Stel je haalt 150 FPS en ineens zak je heel kort in naar 29 FPS dan zie je dit niet in je normale FPS meter maar jij ervaart wel dat je game voor je gevoel even niet reageert.

Ik heb dit letterlijk meegemaakt op mijn 2500K icm rainbow six siege dat ik enorm veel dips had naar <30 fps terwijl mijn frame rate boven de 100 zat. In dat scenario is het inderdaad beter om een lagere frame rate aan te houden. Immers dan krijgt de cpu wat lucht en krijg je minder extreme frame drops. Dit is exact wat ik destijds heb gedaan. Zie screenshot: https://tweakers.net/ext/...7Cc/full.png?nohitcount=1
Samevatting:
  • 2500K uncapped: 103 FPS met dip naar 29 fps
  • 2500K 80 fps limit: 79 fps met dip naar 40 fps
  • 8700K uncapped: 140 fps met dip naar 86 fps
  • 8700K 120 fps limit: 120 fps met dip naar 98 fps
We zien daar duidelijk dat ik mijn 0.1% low frame rates onderhand verdubbel door een frame rate limiter te gebruiken. Dus in die situatie moet ik je 100% gelijk geven.

Nu de nuance: met dezelfde settings dip ik uncapped naar 86 FPS. Het cappen van die frame rate voegt niets meer toe omdat je deze microdips niet opmerkt en het effect ook minder groot is (13% verbetering ipv 137%). Anno 2019 heb ik een andere videokaart, draait de cpu met een overclock en heb ik lagere details en haal ik gemiddeld 180 FPS. Nu het stuk dat ik niet met je eens bent: Die 180 fps hoeft absoluut niet loodrecht te zijn voor een soepele game ervaring. Dat dit zichtbaar schommelt tussen de 130 en 180 heb ik helemaal geen last van. Dus ik kan je in mijn huidige situatie geen gelijk geven. Ik heb liever die 'instabiele' 180 fps dan dat ik op 90 fps zou gaan cappen.

In de praktijk:
1) zo lang 0.1%/ 1% dips niet onder de 80 fps vallen heb je daar helemaal geen last van
2) zo lang je gpu de bottleneck is en niet je cpu dan heb je zelden last van dips

[Reactie gewijzigd door sdk1985 op 7 januari 2020 18:56]

Goede uitleg, bedankt voor de zeer complete aanvulling, zal erg nuttig zijn voor anderen.
Ik ben gewoon niet zo'n ster in genuanceerd iets uitleggen, maar je verhaal klopt inderdaad, ik ben bekend met de test van Linustechtips en veel eigen praktijk ervaring.
En dat is met VR nog veel meer van belang, want inconsistente frametijden zijn een heel mooi recept voor bewegingsziekte.
De regel die veel mensen in hun hoofd hebben dat hoe meer fps beter is dat klopt niet.
Dat komt vooral door het feit dat, althans vroeger vooral (vandaag niet zoveel meer, althans de grootste engines hebben dit van elkaar losgekoppeld) je input vasthing aan de FPS. Meer FPS -> snellere registratie van je kb+m/controller input. Dit is momenteel enkel nog in de Source engine een 'ding' maar Unity, UE4, en anderen hebben dit al even allemaal losgekoppeld.

Dat daargelaten - als je refreshrate het aankan en je hebt stabiele FPS, is hoger beter.

Hoewel... FPS is slechts half het verhaal natuurlijk.

Je kan perfect bijvoorbeeld een halve seconde lang 120 fps halen... en dan op frame 121 een frametime hebben van een halve seconde. je average FPS voor die seconden ligt dan nog steeds op de alom begeerde 60 fps, maar gegarandeerd dat je op zo'n moment je controller/muis door de kamer wil doen vliegen.

Dus: consistente frametimes zijn eigenlijk waar je naar moet kijken. FPS op zich is leuk maar dient in perspectief te worden geplaatst.
Lees ik er overheen of wordt freesync niet eens genoemd in dat artikel?
Moet dat uitmaken? het gaat over frametimes, niet freesync.
Frametimes geld over alle type monitoren, Freesync, G-Sync of geen van beiden.
Voornamelijk high refresh monitoren hebben hier baat bij wanneer frametimes tot perfectie zijn getuned.

[Reactie gewijzigd door Turismo op 7 januari 2020 16:43]

Battle(non)sense heeft hier een aardige video over gemaakt, met opname van zijn monitor via high speed camera waar tearing goed zichtbaar bij word en het effect van G-Sync + V-Sync of G-Sync + FPS Cap

De focus licht wel is waar op Input lag. maar dit gaat veel al hand in hand met frame time.
Tevens worden hier G-Sync en Nvidia Ultra Low Latency (NULL) bij onderzocht wat hun voordelen zijn.

NVIDIA G-Sync + Null Setup & Input Lag Results
https://www.youtube.com/watch?v=OAFuiBTFo5E
Was het tot nu toe niet het beste om Vsync aan te zetten in de control panel en uit in alle games? Zodat er een FPS limit op zat? Heb zelf een Gsync scherm maar hoor graag tips. Tot nu toe heb ik het altijd zoals bovenstaand gedaan in ieder geval :')
De manier waarop G-Sync optimaal werkt is:
  • G-Sync aan, liefst fullscreen only
  • V-Sync aan in Nvidia Control Panel, uit in-game
  • FPS limiet op 3-4 FPS onder de refresh rate van de monitor
  • Bij meerdere monitoren: stel alle monitoren in op dezelfde refresh rate
Uitleg:

G-Sync moet uiteraard aan staan. De fullscreen only variant is betrouwbaarder, maar werkt alleen voor games die exclusive fullscreen (correct) ondersteunen. De windowed/borderless variant kan soms problemen geven, zoals dat de Nvidia G-Sync indicator aangeeft dat G-Sync aanstaat, maar dat het eigenlijk niet werkt. Dat is meestal te verifieren door de FPS indicator van de monitor aan te zetten: als deze met de game performance mee schommelt dan werkt G-Sync, zo niet dan werkt het niet.

V-Sync moet aan staan omdat G-Sync gemaakt is om in combinatie met V-Sync te werken. Als V-Sync uit staat dan krijg je nog steeds tearing binnen de G-Sync range. Het gebruik van de Nvidia Control Panel optie wordt aangeraden, omdat je dan sowieso enkel V-Sync aanzet. In-game V-Sync opties zetten vaak ook andere zaken aan, zoals triple buffering, wat je juist niet aan wilt zetten.

De FPS limiet is nodig omdat G-Sync enkel binnen een bepaalde range actief is. Specifiek van zo'n 30 fps tot de refresh rate van de monitor. Niet tot en met! V-Sync is dus niet een effectieve limiet, want je haalt dan nog steeds de refresh rate van de monitor in FPS, waardoor G-Sync uitgeschakeld wordt en je effectief speelt met enkel V-Sync aan. De reden waarom je 3-4 FPS onder de refresh rate wilt zitten met een limiter is omdat deze limiters niet 100% accuraat zijn. Ze hebben een beetje speling nodig, want ze schieten altijd een beetje over de ingestelde limiet heen. Nu kan dit dus in Nvidia Control Panel ingesteld worden in plaats van RivaTuner Statistics Server, of iets dergelijks, nodig te hebben. De hoeveelheid speling die nodig is is afhankelijk van de refresh rate van de monitor. Hogere refresh rate (b.v.: 240Hz), meer speling (b.v.: 4 FPS).

G-Sync werkt (bijna altijd) niet correct als er meerdere monitoren aangesloten zijn met verschillende refresh rates in Windows 10. De G-Sync monitor gaat dan stotteren als er iets actief is op de andere monitor. De meest betrouwbare workaround is om alle monitoren op dezelfde refresh rate te laten draaien. Een alternatief is om niks de GPU te laten gebruiken op de tweede monitor, maar dat is lastig en meestal niet wenselijk. Dit probleem is een aantal jaren geleden geintroduceerd door een Windows 10 update. Zogenaamd zou Microsoft een oplossing gevonden hebben in een testversie van Windows 10, maar ik heb dat ook enkel maar ergens op Reddit voorbij zien komen dus we zullen het zien of dit ooit nog opgelost wordt.

[Reactie gewijzigd door Droniac op 7 januari 2020 18:37]

Je stuk over v-sync klopt niet. V-sync is niet gemaakt om met g-sync samen te werken. Met v-sync uit heb je geen tearing binnen de g-sync range.

Waar het dan wel voor dient: met v-sync aan, zorgen de drivers ervoor dat v-sync actief wordt als de framerate buiten de g-sync range komt. Dus met een 144Hz scherm zul je tearing kunnen ervaren met een framerate van 160fps, als je v-sync uit hebt staan, maar niet als je het aan hebt staan. Waarom niet altijd v-sync aanzetten is dan de logische vraag. Het antwoord is lag. G-sync is latency-vrij, v-sync echter niet. Boven de g-sync range heb je dus opeens latency als je v-sync aan hebt staan.

Kortom, wil je geen latency buiten de g-sync range, dan zet je v-sync uit; wil je geen tearing buiten de g-sync range, dan zet je v-sync aan.

Tot nu dan, want nu zet je gewoon je fps limit net onder het maximum van je g-sync range. Dan maakt het dus helemaal niet meer uit of je v-sync aan hebt staan of niet (ervan uitgaande dat je nooit onder de ondergrens van g-sync komt uiteraard).
Sorry, maar mijn stuk over V-SYNC klopt wel degelijk. Zie: https://www.blurbusters.c...ag-tests-and-settings/15/ en bekijk het antwoord op "Wait, why should I enable V-SYNC with G-SYNC again?".

In het kort:
Met G-SYNC aan komt er nog steeds tearing voor binnen de G-SYNC range. Dit kan namelijk als frames te snel gerendert worden. Dan komen deze in de huidige scanout cycle terecht en dat zorgt voor tearing. Alleen met V-SYNC aan wordt daarvoor gecompenseerd: de te snelle frame wordt naar de volgende cycle verschoven. Dit wordt niet voorkomen met zaken als framerate limieten, gezien dat enkel een limiet is op het aantal frames per seconden en niet de minimum frametime voor elke frame binnen die seconde.

V-SYNC is dus wel degelijk vereist voor het correct functioneren van G-SYNC en het volledig elimineren van tearing binnen de G-SYNC range.

[Reactie gewijzigd door Droniac op 7 januari 2020 23:42]

Jouw link bevestigt precies wat ik zeg, dus ik snap niet helemaal waarom je beweert dat jouw stuk klopt.
So what happens when just one of those 144 frames renders in, say, 6.8ms (146 FPS average) instead of 6.9ms (144 FPS average) at 144Hz? The affected frame becomes ready too early, and begins to scan itself into the current “scanout” cycle (the process that physically draws each frame, pixel by pixel, left to right, top to bottom on-screen) before the previous frame has a chance to fully display (a.k.a. tearing).
Dan wordt er op dat moment dus 146fps gerenderd, dus buiten de g-sync range, dus heb je tearing als je v-sync uit hebt staan. Exact wat ik ook beweer. Als frames in meer dan 6.9ms gerenderd worden op een 144Hz g-sync monitor, hoef je v-sync niet aan te zetten om tearing te voorkomen. Want dan vallen alle frames binnen de g-sync range.
Nee, dat stuk bevestigd wat ik zeg en spreekt jouw verhaal tegen. Zie:
G-SYNC + V-SYNC “Off” allows these instances to occur, even within the G-SYNC range, whereas G-SYNC + V-SYNC “On” (what I call “frametime compensation” in this article) allows the module (with average framerates within the G-SYNC range) to time delivery of the affected frames to the start of the next scanout cycle, which lets the previous frame finish in the existing cycle, and thus prevents tearing in all instances.
Dus ook binnen de G-SYNC range. Bij fps gaat het om gemiddelde frames per seconde, niet frametime per frame. Dus ook als jij 'maar' 120 fps haalt op jouw 144Hz monitor, kan je alsnog daarbinnen enkele frames hebben die sneller dan 6.9ms renderen en binnen andere frames weergegeven worden op de monitor. Als V-SYNC uit staat.

[Reactie gewijzigd door Droniac op 8 januari 2020 12:04]

We bedoelen volgens mij hetzelfde, maar interpreteren het anders. fps = 1/frametime. Dat kan op any given moment berekend worden. Per frame. Als je een frametime hebt van 2ms, heb je op dat moment 500fps. Bij een volgend frame kan de framerate al weer lager of hoger zijn. Oftewel, dat stuk spreekt mijn verhaal dus totaal niet tegen, je kunt gewoon geen tearing hebben als je frametimes hoger zijn dan de verversingstijd van je gsync scherm, ook met vsync uit.

Beetje vergelijkbaar met km/u, dat kun je ook over een tijdsduur van 1s berekenen. Dat gaat niet altijd per uur. Fps kun je ook voor 1 frame berekenen, dat gaat niet altijd per seconde. Kortom, jij doet een vorm van afronding, waardoor je stelling versimpeld wordt en eigenlijk niet meer klopt ;). Als ik 'maar' 120 fps haal op mijn 144Hz monitor, kan ik inderdaad daarbinnen enkele frames hebben die sneller dan 6.9ms renderen. Maar die paar frames zijn dus niet 120fps, maar bijvoorbeeld 150fps, waardoor ik tearing heb als vsync uit staat. Precies wat ik de hele tijd al beweer. Dat ergens een of andere teller maar elke seconde of elke paar seconde updatet, en daardoor constant 120fps weergeeft, maakt dat nog niet de werkelijkheid. Je rondt enorm af. De werkelijkheid is dat er enkele frames op 150fps gerenderd worden.

[Reactie gewijzigd door Bart ® op 8 januari 2020 12:12]

Natuurlijk kan je frames per seconde ook per frametime berekenen, maar het blijft een gemiddelde waarde over een tijdsperiode. Het interpretatieverschil zit hier echter in de context en niet de definities.

Jij hebt het voornamelijk over stabiele framerates boven of onder de refresh rate. Ik heb het over een onstabiele framerate binnen de G-SYNC range, waarin af en toe een enkele frame voorkomt die boven de refresh rate uitstijgt. De reden waarom ik (en blurbusters) dat tearing binnen G-SYNC range noem is als volgt:

G-SYNC aan. V-SYNC uit. 144Hz.
In de huidige scanout cycle zit een "120 fps" frame dat prima binnen de G-SYNC range past. Het volgende frame wordt echter plots in "160 fps" gerendert. Deze wordt direct meegenomen in de huidige scanout cycle waar het "120 fps" frame al grotendeels klaar is. Het onderste deel van de scanout bestaat dan ineens uit een "160 fps" frame. Tearing.

De "160 fps" frame wordt niet achtergehouden of los weergegeven. Het gaat niet om ineens een reeks frames van "160 fps", de rest zijn allemaal rond de "120 fps" binnen de range. Wat je dus op het beeld te zien krijgt is een "120 fps" frame met tearing aan de onderkant, gevolgd door nog een "120 fps" frame. Tearing binnen de G-SYNC range.

Met G-SYNC + V-SYNC aan wordt het "160 fps" frame wel achtergehouden voor de volgende scanout cycle. Dan heb je dus geen tearing binnen "120 fps" frames / beeld.
Je zegt dat de beste oplossing is om alle schermen op dezelfde refresh rate te laten draaien. Ik kan me voorstellen dat veel mensen een primaire (100hz+) monitor hebben en een secundaire standaard 60hz monitor. Dan heb je dus een probleem?

Ik heb bewust mijn monitor (dell alienware 34" 120hz) aangeschaft icm mijn videokaart 2080. mijn oude 60hz schermpje staat er als extra los bij. Dit is dus niet handig?

Als dit echt zo is ga ik denk ik maar een extra scherm aanschaffen met wat hogere refresh rate.
toch wel benieuwd hoe dit allemaal zit, en of win10 hier iets aan gaat doen.

In elk geval, bedankt voor de tip dat dit wel eens zou kunnen voorkomen.
Het is inderdaad de beste, of meest betrouwbare, oplossing. Het alternatief om niks actief te hebben op het tweede scherm werkt ook prima, maar is natuurlijk niet erg werkbaar.

Sommige mensen beweren andere methoden gevonden te hebben om het probleem op te lossen. Zoals de G-SYNC monitor instellen op 120Hz en de andere monitor(en) op 60Hz. Bij mij lost dat het probleem niet op, maar wellicht bij anderen wel.

Een goede methode om dit fenomeen te testen is als volgt:
  • Open https://www.testufo.com/ op de G-SYNC monitor.
  • Open een ander browser scherm op de 2e monitor en bekijk daarop een YouTube filmpje en beweeg daar de muis.
  • Als de UFO Test op het G-SYNC scherm grote fps verschillen en veel stuttering aangeeft bij activiteit op de 2e monitor, dan is het multi-monitor probleem aanwezig.
  • Als de UFO Test stabiel blijft (b.v.: 119-120fps bij 120Hz) en af en toe 1 browser stutter aangeeft, dan is het probleem opgelost.
Ik draai ook mijn 144Hz G-SYNC monitor op 120Hz, omdat mijn 2e monitor maar tot 120Hz gaat. Als de G-SYNC monitor op 144Hz staat dan is die UFO test een grote rode nachtmerrie en is het gestotter zichtbaar in de animatie zelf. Met allebei op 120Hz is er niks aan de hand.
Ja klopt, die regel klopt nog steeds in principe, al zou je wenselijk er nooit gebruik van hoeven te maken.

Je G-Sync blijft werken tot je erover heen gaat, dus stel je scherm is 100Hz en je blijft er net onder 99 fps max dan blijf je in G-Sync condities (hence the framelimiter zo handig is) . Maar als je dus geen framelimiter hebt en je gaat erover dan kicked Vsync in waardoor je tear free blijft, echter vsync komt met de input lag penalty, dus liever blijf je 1 tot 2 fps onder je max refreshrate.

Blurbusters heeft de beste uitleg en het uitgebreid getest
https://www.blurbusters.c...ag-tests-and-settings/14/

[Reactie gewijzigd door Turismo op 7 januari 2020 16:44]

Ik had ergens gelezen (volgens mij Nvidia forum) dat voor het beste resultaat Gsync en V-Sync in nvcp aan met een framelimit van 3fps onder de max fps van de monitor. Er werd een speciale reden aangegeven om toch v sync te gebruiken. Kan het stuk niet meer vinden helaas.
Ik had ergens gelezen (volgens mij Nvidia forum) dat voor het beste resultaat Gsync en V-Sync in nvcp aan met een framelimit van 3fps onder de max fps van de monitor. Er werd een speciale reden aangegeven om toch v sync te gebruiken. Kan het stuk niet meer vinden helaas.
Dat klopt: https://www.blurbusters.c...ag-tests-and-settings/15/

GSync gaat er voor zorgen dat je monitor zijn framerate aanpast aan de framerate van de game. Maar dit betekent niet dat er geen tearing meer mogelijk is. Als je framerate veel varieert kan het dus zijn dat de framebuffer toch nog wordt aangepast tijdens het uitlezen. Door VSync aan te zetten in je Nvidia Control Panel zorgt de driver ervoor dat de framebuffer pas kan veranderen nadat de volledige frame is uitgelezen. En omdat je GSync hebt aan staan, weet het scherm meteen dat er terug een frame klaar staat en kan die dus meteen het volgende beeldje beginnen tonen.

GSync + VSync zorgt er dus voor dat je de kleinst mogelijke latency hebt, terwijl je toch alleen maar volledige frames toont. Met VSync uit kan het in principe net nog dat tikkeltje sneller, maar dat verschil is minimaal.

Als je wat terug gaat in die post (trouwens het naslagwerk op vlak van VRR settings op dit moment) dan zie je dat die kleine vertraging af hangt van je framerate. Hoe hoger je framerate, hoe kleiner het effect. Op 60fps zit je met gemiddeld 5ms vertraging door VSync aan te zetten, maar dit daalt tot 1-2ms bij 144Hz. In mijn ogen een kleine kost om verder wel van perfect beeld te kunnen genieten. Als je bij de top 0.1% van gamers zit wil je misschien VSync uit houden, maar over het algemeen is dit verschil verwaarloosbaar. En als je dan toch zo serieus bent, kan je even goed naar 240fps gaan, waarbij het verschil minder dan een milliseconde is.
ik verwacht dat met deze toepassing vsync dan uitgezet kan worden? gezien vsync er in dit geval voor zorgde dat de refresh niet hoger ging dan de max van je scherm. en je dus de nadelen van vsync kan vermijden? weet het niet zeker misschien dat anderen er meer van weten.
V-Sync uit in games, aan in control panel, fps cap < 3 onder refreshrate.
Volgens mij maakt het niets uit welke vsync je aan heb staan als er maar 1 aan staat en als je maar een fps cap onder de refresh rate heb ingesteld.

https://www.youtube.com/watch?v=OAFuiBTFo5E

https://www.youtube.com/watch?v=7CKnJ5ujL_Q

Toch wel de beste uitleg met resultaten.

Het is duidelijk dat al deze tech nog lang niet perfect is gezien de moeite die we moeten doen voor optimale resultaten. Je fps cap moet niet onder je 144hz zijn maar onder 95% gpu load en dat is bijna onmogelijk zonder uren monitoren

[Reactie gewijzigd door computerjunky op 7 januari 2020 18:26]

En daarvoor zet je boven die cap ook v-sync aan, zodat als het erover heengaat, v-sync tearing tegen houdt.
Hehe eindelijk, het heeft voornamelijk veel voordeel bij G-Sync monitoren (waardoor het vreemd is dat ze er nu pas mee komen), als je namelijk net onder de max refresh rate van je monitor blijf dan blijft G-Sync intact, ga je eroverheen dan stop G-Sync met werken wat tearing tot gevolg heeft. Tot op heden altijd aangewezen tot de ingame optie of Rivatuner, native ondersteuning blijft toch altijd het beste en nu is het hopen dat Nvidia hier verder op blijft doorontwikkelen.
Persoonlijk gebruik ik zelden een frame rate limiter in combinatie met g-sync en ook v-sync zet ik uit.

Je krijgt van Nvidia niet echt uitleg over g-sync. Dus laten we even de misverstanden de wereld uit helpen. Het eerste misverstand is dat je op zoek moet naar een speciale g-sync optie of dat je v-sync moet uitschakelen wanneer je een g-sync scherm aansluit. Dat is niet zo. Je kunt gewoon v-sync aan laten staan en dan zal g-sync alsnog zijn werk doen. Stel je hebt een 120 Hz monitor dan zal de game niet boven de 120 FPS uitkomen, met 88 FPS zal de monitor op 88 Hz draaien. Met 120 FPS zal hij op 120 Hz draaien. Natuurlijk krijg je op de maximale Hz dan wel de bekende latency penalty. Die gelukkig door de hogere Hz wel minder extreem is dan met v-sync op 60 fps.

Dan het tweede misverstand is tearing. Als je v-sync uitzet dan kun je inderdaad meer FPS halen dan de monitor kan weergeven. In theorie kun je dan inderdaad tearing zien. Echter zou een frame rate limiter deze tearing niet moeten oplossen. Logisch want op een 60 Hz monitor zorgt een 60 FPS limit er ook niet magisch voor dat je geen tearing meer hebt (120 ook niet). Je scherm en je videokaart kunnen eenvoudig net uit de pas lopen. Dus ook dit is niet de reden voor deze feature. Wat overigens bij mij wel héél goed tegen tearing werkt is bijvoorbeeld 200+ fps op en een 60 Hz scherm.

Zelf heb ik nu sinds de zomer G-sync en eigenlijk zet ik zelden v-sync aan, eigenlijk alleen in strategie games zoals Civilization. Op mijn pricewatch: Acer Predator X34P Zwart merk ik geen tearing bij 180 fps op 120 Hz. Het is niet zo dat ik tearing nooit zie, ik heb ook weleens een acer gezien waar ik 3 tears tegelijk op het scherm zag (144 Hz) dus het scheelt ook een beetje per monitor.

AFAIK heeft de reden dat dit een veel gevraagde feature is heeft met latency te maken. Er heeft iemand ooit een keer een test gedaan en daaruit bleek dat het heel gunstig was om 1 FPS onder de maximale Hz van je monitor te blijven in combinatie met G-sync. Mogelijk verwijs jij hier ook naar in je post. In theorie heb je dan inderdaad geen tearing, geen buffering en minimale input lag. Daar komt dit vandaan. Of dit echt houd snijdt weet ik overigens niet aangezien veel hogere FPS ook weer een aantal voordelen heeft, zie andere post.

Persoonlijk vind ik deze feature vooral fijn voor games, zoals rainbow six siege, waarbij je in het laadscherm ineens 240+ fps haalt. Voor die games is deze feature heel prettig. Dat met HZ -1 fps zal ik eens proberen :X .

[Reactie gewijzigd door sdk1985 op 7 januari 2020 19:42]

Klopt niet echt. Default gaat de videokaart dan over op v-sync als je aan de max refresh rate zit. Door het maximum aantal frames lager dan je max te zetten blijft hij op gsync en voorkom je lag of stotteren. Je beeld gaat alleen tearen als je geforceerd vsync uit hebt gezet (niet de vsync ingame, in Nvidia control panel).
Ik heb een laptop waar de GPU makkelijk te warm kan worden want de koeling is niet optimaal ontworpen.
Ik rate limit mijn eigen FPS om te GPU minder hard te laten werken want het is beter om een lagere constante fps te hebben dan dat de trottle in kickt en je framerate naar beneden duikt om dat de GPU aan het terug klokken is omdat ie te warm is geworden.

Dus het is erg tof dat er nu directe ondersteuning voor fps limiting in drivers komt.
Dus als ik een 60Hhz monitor heb (ik heb een alienware 15R3, GTX 1070 met G-Sync) dan moet ik dus 58 or 59 frames als max instellen?

Ik heb het vaker gelezen dat idd voor gesync je 1 of 2 frames onder je refresh rate van de monitor moet zitten. Veel games kunnen dat niet, je kunt alleen het vast zetten op 30 , 60 of 120. Het dan voor mij onduidelijk of G-Sync actief was, of dat je ook nog de V-Sync moest aanzetten. Bij sommige games zag je tearing (en dan zette ik maar de V-Sync ook op actief) op andere niet. Is er ergens een optie of je kunt zien of G-Sync actief is of niet?

EDIT: ik heb mijn vraag te vroeg geplaatst, antwoord is reeds gegeven in comments hierboven. Ik hoef geen antwoord meer ;-)

[Reactie gewijzigd door mccpi op 8 januari 2020 08:54]

Handig voor laptops om stroom (warmte) te besparen.
Als je gaat gamen op een laptop is het aan te raden om de adapter te gebruiken. Anders is je speelsessie snel voorbij.
uiteraard, maar de fps lock voorkomt ook een boel onnodige warmte en daarmee thermal throttling.
Waarom een maximum van 240?
De noodzaak ontgaat me volkomen.
En waarom minimaal 40?

Er zijn games waarbij 25-30fps normaal/target is, afhankelijk van je systeem.
Ik denk aan o.m. P3D (Flight Simulator)
het maximum is dan minimaal 40
Ja, en de vraag is dus, waarom? Als ik een maximum framerate van 5 in wil stellen, laat mij lekker?

Waarom zou je dat doen? Nou bijvoorbeeld als je een game 's nachts laat lopen (omdat je bijvoorbeeld tegen een paal aan zwemt in Oblivion, of omdat je een shop open hebt in bepaalde MMO's). Nergens voor nodig dat de PC dan staat te blazen, gewoon op een waakvlammetje laten lopen.
Omdat 40 de minimum is wat g-sync waarschijnlijk aankan.

En daar is het voor bedoelt. Niet om op low power je pc langdurig aan te hebben.
Maar Gsync heeft geen minimum framerate wat het aankan. Als je onder een bepaalde waarde komt (ongeveer 36 volgens google) dan gaat de gsync module frames dupliceren om de refreshrate van het paneel niet te laag te laten zakken, maar als je framerate bijvoorbeeld naar 20 zakt of zo dan blijft de boel prima gesynct.
Als het doel juist het niet meer nodig hebben van externe software of ingame, waarom beginnen ze dan bij 40fps, terwijl gros van games de instelling vanaf 30 fps hebben? 30 FPS is ergens de gangbare fps om games 'vloeiend' te houden (zie consoles), die je dan op lagere systemen dan ook wil hebben, secondair zit je met 30fps (op oude hardware) dan ook in een betere zone met een 60hz monitor. De logica van minimaal 40 ontgaat mij dan.
Mocht je een scherm hebben met een refresh rate van 240hz én het lukt je om een of andere manier om meer dan 240 frames te pompen in een game, dan kan je dit limiteren op 240frames, waardoor je dus niet onnodig veel frames pompt, wat resulteert in verhoogde energie verbruik en eventueel in een hardere slijtage van je videokaart.

Ja functie is waarschijnlijk voor een erg kleine groep, maar ik neem even aan dat het toevoegen van 240hz als limiet maar erg weinig tijd extra koste om ook te implementeren. Dus noodzaak is er in al deze gevallen niet, maar wel erg prettig om te hebben.
Hoe is die framerate-limiet anders dan 'adaptive vsync'? Dan kon je ook al kiezen voor 60 FPS (bij 60Hz), maar als de framerate daaronder zakt, gaat die niet gelijk naar de helft (30 Hz/FPS), maar wat de GPU daadwerkelijk kan berekenen.
Ik denk dat de wens voornamelijk vanuit G-sync gebruikers komt, met Gsync aan word adaptive vsync uitgeschakeld namelijk.
Omdat je dan ook vsync aan hebt. Ik wil absoluut geen vsync vanwege de akelige vertraging, maar ik wil wel mijn framerate gecapt hebben op ~ 60FPs omdat ik geen onnodige inspanning van mijn videokaart behoef, en ik liever een stabiele 60 haal, dan dat hij flink doorschiet, en wanneer het even te zwaar wordt weer veel lager wordt, die delta verschillen zijn dan veel groter.

Ik gebruik al jaren multi display power saver hier voor, maar mooi dat het ook native gaat kunnen, al zie ik zo niet 123 of de GTX970 hier ook nog van profiteert.
Zou je hiermee coil-wine problemen mee kunnen voorkomen?
0 issues met mijn GPU behalve als hij 1000 fps maakt, dan kun je hem soms heel iets horen.
Yes, kun je ook met bijvoorbeeld MSI afterbruner (rivatuner) proberen.
Vraag:

Is dit niet (ongeveer) hetzelfde als een fps cap DUS geeft dit weer meer input lag?

Zou fijn zijn als er binnenkort een artikel is die input lag meet met de verschillende opties in Windows op aan/uit/fast sync etc.
Fps capping limiter zou juist kunnen zorgen voor minder input lag.
Frametimes is de key, zoals ik al eerder heb vermeld, veel frames is niet de heilige graal.
Driver based FPS is limiter minder goed dan RTSS of in-game fps qua latency.

[Reactie gewijzigd door Marctraider op 7 januari 2020 16:37]

Hoe weet je dat nou? heb je dit al getest, in de regel is het juist native based opties die de voorkeur hebben.
Omdat dit al door anderen met grote regelmatig is getest? Sources:

blurbusters.com
Battle(non)sense
Persoonlijke ervaring ;-)

Technisch gezien ligt het er aan in welk gedeelte van de chain wordt gecapped. Driver based fps limiters geven de meeste latency.

Prefereer in-engine -> rtss (cpu based) -> driver (gpu based)

Behalve als er geen in-engine cap is of een derp implementatie.

[Reactie gewijzigd door Marctraider op 7 januari 2020 17:05]

Ik wacht nog wel even uitgebreide testen af van inderdaad blurbusters e.d. met deze driver versie.

Ik snap je bedoeling, maar het komt een beetje ongefundeerd over sinds de driver optie net uit is, tenzij er een beta was waar het al in zat.
Wat ik heb begrepen zat het er al een tijd in. Alleen hebben ze het met deze drivers aan het control paneel toegevoegt. En dan kan het prima zijn dat het al meer maals getest is.
Hier kan ik me bij aansluiten, laten we het gewoon testen en dan oordelen.
Ben er wel blij mee, iets wat ik al eerder had verwacht maar helaas. Nu overal vsync uit en niet meer in de duizende frames schieten in bepaalde apps en games.
Ik onder voorbehoud want een build in limiter is niet perse beter. Dit heeft een bepaald YouTube kanaal al getest. Het kan de latency verhogen en dat is kwalijker dan 3rd party software moeten gebruiken.
Dus eerst maar even testen hoe de Nvidia variant het doen ten opzichte van de amd variant.

Die hele ultra low latency functie komt ook niet altijd even goed uit de test. Als je tegen je gpu limiet aan zot qua load kan je wel eens 3x zoveel latency hebben als je dit gebruikt. Ik had dan ook liever een gpu % load limiter gezien dan een fps limiter.

[Reactie gewijzigd door computerjunky op 7 januari 2020 18:15]

Ja ben ik met je eens. ultra low latency is troep, heb dikke vette frame drops als ik het aanzet. Heb het gewoon uitstaan, 144 fps ftw haha.
Het werkt wel maar je moet eerst aan een hele lading voorwaarden voldoen.
Zo moet je fps gecapped zijn onder je refresh rate, moet je vsync aan hebben staan, en moet je gpu load onder de 95% zitten anders schiet je latency omhoog en heb je alsnog tearing.
Voldoe je niet aan deze eisen krijg je de meest rare resultaten van toch superlage latency tot 4x de standaard latency.
Zal dit werken voor windowed-borderless werken? GTAV is heel slecht met framerates op windowed en krijg je dan hoger dan het aantal toegestane framerates.
Volgens mij is fullscreen altijd beter qua fps dan windowed door de manier waarop er met resources omgegaan word.
Ik heb nog nooit een game gezien die beter werkt in windowed. Van lagere fps tot haperingen en microstutters. Ik zou nooit in windowed willen gamen. Maar ja ondanks dat je het niet moet willen zal het wel werken. Het is immers een 3d toepassing.
Mooie toevoeging!

Toen ik tijd geleden nog call of duty 2 speelde op de computer had ik ook altijd mijn frames vast gezet op een maximum, dit zodat ik bepaalde jumps kon uitvoeren die met een andere hoeveelheid fps niet mogelijk waren. :)
Modern warfare 2 bedoel je? Strafe Jumping, elevators, al die mooie exploits destijds. Jammer dat dit in de steam versie niet kon worden ingesteld. Gelukkig had ik AlterIW.net
Ik bedoelde echt cod2. Geef in console de volgende command: com_maxfps 125 em je fps locked op 125. Om inderdaad bepaalde strafe jumps te kunnen doen.
Die command werkt ook in MW2! Veel gebruikt in mijn private servers etc.
Good to know! Goed dat dat nog steeds werkt!


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone 11 Microsoft Xbox Series X LG OLED C9 Google Pixel 4 CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True