Nvidia kondigt G-SYNC Pulsar-tool tegen motionblur bij variabele refreshrate aan

Nvidia kondigt tijdens de CES 2024 een nieuwe G-SYNC-technologie genaamd Pulsar aan waarmee motionblur bij gebruik van een variabele verversingssnelheid aangepakt moet worden. De eerste monitor met G-SYNC Pulsar-ondersteuning komt later dit jaar op te markt.

Nvidia G-Sync PulsarPulsar combineert twee technieken om de voordelen van vrr en Ultra Low Motion Blur te combineren, zo schrijft Nvidia. Deze twee technologieën werken vooralsnog niet zo goed samen. ULMB maakt gebruik van strobing om de backlight van een monitor effectief te laten flikkeren wanneer een nieuw beeld getoond moet worden, zonder de overgang van frame naar frame te belichten. Dit vermindert motionblur aanzienlijk, maar dit kan niet goed afgestemd worden op een variabele verversingssnelheid.

Met G-SYNC Pulsar kunnen monitors Adaptive Overdrive toepassen om deze kwaal te verhelpen. Met deze techniek worden overgangen van pixelkleuren door een algoritme afgestemd op zowel de plek van een pixel op het scherm als de huidige verversingssnelheid. Dit moet ervoor zorgen dat 'leesbaarheid en blurvermindering vastgehouden worden op een spectrum van verversingssnelheden en over het gehele scherm'.

Daarnaast maakt Pulsar gebruik van wat Nvidia Pulse Modulation noemt. Strobing kan namelijk als neveneffect voor een flikkerend beeld zorgen, wat voor sommigen onprettig is om naar te kijken. Door de strobepuls dynamisch aan te passen op helderheid en duur, wil Nvidia dat beelden prettig voor de ogen zijn terwijl flikkering verminderd wordt.

Nvidia G-Sync Pulsar

De technologie kan volgens Nvidia 'effectieve bewegingsduidelijkheid' tot 1000Hz bewerkstelligen. Vooralsnog werkt G-Sync Pulsar alleen op specifieke monitors die dit ondersteunen, waarvan het bedrijf vooralsnog alleen de onlangs aangekondigde ASUS ROG Swift PG27 noemt, die in de tweede helft van dit jaar op de markt moet komen.

Op de CES-beurs kondigde Nvidia ook aan dat G-SYNC, vooralsnog dus zonder eventuele Pulsar-ondersteuning, beschikbaar komt via de cloudgamingdienst GeForce NOW.

Door Yannick Spinner

Redacteur

09-01-2024 • 14:35

33

Reacties (33)

33
32
14
0
0
9
Wijzig sortering
Is dit niet een laatste strohalm om G-Sync relevant te houden tegenover Freesync?
Motion blur van lcd schermen tegen gaan is al een jarenlange issue waaraan ze werken.
na ULMB en ULMB2 hebben ze nu eindelijk een oplossing die ULMB met Gsync kan combineren
Nope, dit is bijna de heilige graal om eindelijk van een minpunt af te komen van sample and hold displays.
Gsync is meer dan VRR de laatste tijd. Het is ook de monitor (en module) perfect tweaken om goede responses te geven over het hele bereik van framerates , wat lang niet elke monitor doet.
En het zorgt voor colour accuracy , etc..

Dus ze blijven dingen vinden en verzinnen om monitors beter te maken, en dat allemaal onder de gsync naam. Het zegt eigenlijk dat er een partnerschap is tussen de monitor maker en Nvidia en dat Nvidia zich met de tuning van de monitor bemoeit.

Er zijn hele goede monitoren zonder gsync, dus staar er niet blind maar, maar een echte gsync certified monitor betekent meer dan 'we hebben vrr'.

Freesync is nog steeds vrr ja/nee. Freesync premium niet veel meer.
Ik ben geen gamer, maar het voelt een beetje als:

1. Je hebt een snellere videokaart nodig om sneller te kunnen bewegen
2. Doordat je sneller kan bewegen, wordt het beeld wat waziger
3. Je hebt een NOG snellere videokaart nodig om dat weer tegen te gaan
4. Goto 1.
Het is een techniek dat in de monitor zit. Hoe gaan meer FPS of een snellere GPU hierbij helpen? :?
Ik lees dat de eerste monitor die het ondersteunt nog moet komen, maar niet direct dat het monitor-side only is. Zover ik weet is G-Synch een videokaart functie
G-sync is geloof ik een combinatie van een chip in het scherm (de G-sync module). Die communiceert met losse onderdelen op de Nvidia videokaart (daarom werkt het ook alleen op Nvidia GPU's).

Je hebt dus geen extra performance nodig. Wel eventueel een nieuwe videokaart als de chips op de videokaart aangepast moeten worden voor deze technologie.
3. Je hebt een NOG snellere videokaart nodig om dat weer tegen te gaan
Waar blijkt dat uit dan? Nergens (in het artikel) staat hoeveel (extra) power dit kost, dus ik vraag me af hoe je tot het idee komt dat je hier een snellere kaart voor nodig hebt dan je al hebt.
De aanname is dat extra functionaliteit extra rekenkracht vraagt en dat kan invloed hebben op de al bestaande functies (mits men op max settings draait natuurlijk).
Dit gaat zelfs niet over je videokaart, maar wel over je lcd scherm
Lees er meer over op https://blurbusters.com/category/testufo/
Neen, dit is die videokaart je scherm die je helpt om de blur tegen te gaan als je scherm dat ondersteund .

[Reactie gewijzigd door k995 op 22 juli 2024 23:39]

Nee, deze technologie is bedoeld om een probleem met het display zelf op te lossen, onafhankelijk van wat een video kaart aan fps produceert.

Ieder display heeft een bepaalde pixel response tijd waardoor een bewegend beeld een blur effect kan krijgen als de beweging sneller is dan de refresh tijd van ieder pixel. De tijd die nodig is om een pixel op het display van kleur 1 naar kleur 2 te veranderen is nu eenmaal een fysisch fenomeen waar je niet omheen kunt komen.

Een van de manieren om het effect te verminderen wat gebruikt wordt door fabrikanten van displays is strobing van het backlight (voor LCD panelen), waarbij de backlight naar donker gezet wordt als de pixels geupdate worden. Dit wordt ULMB (Ultra Low Motion Blur) genoemd. Dit kan echter tot een flicker effect leiden als de refresh rate laag is, wat de meeste mensen storend vinden.

Dus voor variable refresh rate oplossing als GSync of Freesync kan deze technologie vervelend werken.

Deze nieuwe techniek is ervoor bedoeld om de positieve impact van ULMB en die van variable refresh rate te kunnen combineren.
Dank voor de heldere uitleg. Denk dat opa het nu snapt O-)
Maar stiekem dus toch beetje de kracht van de GPU. Want als die hoog genoeg was kwamen er voldoende frames uit waar de variable refresh rate dus in mee gaat en je de negatieve effecten niet merkt, toch?
Ook de snelste kaarten lopen op termijn tegen limieten, slecht geoptimaliseerde games of implementatie van laadschermen / cutscenes aan. Dit is simpelweg een gevolg van de beeldschermtechniek, als NVIDIA het op zou kunnen lossen door enkel een krachtigere GPU te verkopen zouden ze het vast doen.
Tot op zekere hoogte, maar de GPU is niet alles wat de framerate bepaald. De volgende zaken kunnen allemaal van invloed zijn:
- GPU
- CPU
- Hoeveelheid werkgeheugen
- Harde schijf/SSD
- Het spel zelf
Resultaat is dat je nooit een perfect stabiele hoge framerate krijgt. ULMB op lage refresh is vrij storend, en zelfs op hoge fps krijg je altijd dips door een combinatie van bovenstaande oorzaken. Dan is het erg fijn als de boel niet in een flikkerfestijn veranderd.

Ben benieuwd. Misschien dat we na zo'n 20 jaar eindelijk schermen krijgen die op álle vlakken de goede oude trouwe CRT evenaren (en voorbij streven op sommige)
Ga eens naar https://testufo.com/eyetracking.

Ook met een langzaam scherm , ook met een goed scherm.

Het laat zien wat ONZE OGEN doen met bewegende beelden. Heeft dus niets met het scherm te maken.

Het enige wat we hier tegen kunnen doen is hogere framerates (in labs al bewezen dat 1000hz effectief en merkbaar is, dus ik denk dat Nvidia het hier in marketing gebruikt ).

Of breng het knipperende aspect terug van CRTs. Dat proberen ze te doen met strobing.

Knipperende beelden kunnen heel storend zijn voor mensen , ook al doe je het op 500hz of zo. Dus meer framerate is de manier om de motionblur van onze ogen weg te halen zonder dat het nadelen heeft.

Vandaar dat schermen sneller en sneller zijn geworden, we proberen het effect van CRTs nog steeds terug te halen maar dan zonder hoofdpijn:).

Vandaar dat truukjes zoals AI frame generatie ook bestaan (en die motion features op TVs) om meer frames te krijgen zonder meer te hoeven rekenen, want het helpt tegen motion blur van onze ogen.

Alleen bij film/tv wordt een vloeiender beeld ook gezien als amateuristisch en niet iedereen vind het mooi (snap ik, ik ook niet). Maar in games is meer frames bijna altijd wel gewenst.

Dus, hogere framerate in gaming helpt tegen : latency (gevoel) en eyetracking-blur. Qua latency zitten we al in het land diminishing returns. Qua eyetracking-blur nog lang niet.

Response tijden van monitors zeggen hoe snel een monitor reageert, en dus de blur die de monitor ZELF maakt. Oleds zijn zo snel dat ze zelf praktisch geen motion blur maken.
Maar we hebben nog steeds last van eyetracking-blur.
Bloom / Gloom / Camera shake / motion blur - zijn de eerste opties die ik direct uitschakel bij een game :X
Dit gaat om het verminderen van fysieke motionblur, wat onafhankelijk van game opties gebeurt. Als je bijvoorbeeld een spel speelt en flink beweegt met je muis zal het er toch vrij wazig uitzien, en met snellere game-schermen of op een OLED scherm minder maar toch nog steeds waarneembaar in sommige situaties.
Wat heeft dat te maken met dit?

Edit: of ben je gewoon het woord motion blur tegengekomen en denk je dat dit iets te maken heeft met motion blur in games?

[Reactie gewijzigd door napata op 22 juli 2024 23:39]

En hier dus niets mee te maken hebben. :)
volgens mij heb je het artikel niet gelezen, of mis ik iets?
Ik denk dat je niet goed begrijpt wat BFI en ULMB doen want dit heeft niets te maken met de instelling "motion blur" in spellen.

Als je motion blur uitzet in games, ben je juist het doelpubliek voor ULMB. BFI bestaat omdat je de motion blur van schermen niet kan uitzetten en bestaat dus om dit te minimaliseren. Vandaar de Nvidia benaming van Ultra Low Motion Blur. Juist in jouw geval is dit een heel interessante setting moest je beter gelezen hebben.
"vele"...
ik denk dat je er meer vanuit kan gaan dat het overgrootste gedeelte niet eens aan die settings zit.

Hoe dan ook aannames, en voegt inderdaad bar weinig toe aan dit artikel.

Edit: gezien de andere comments, zie ik dat je het zelfs over games hebt... Daar gaat dit dus niet over he? Het is geen fancy nieuwe optie voor een game om juist motionblur toe te voegen, of iets dergelijks.

[Reactie gewijzigd door Zoop op 22 juli 2024 23:39]

Mooie techniek, Ik heb juist zo'n hekel aan motion blur.
Bij sommige games heb ik zelfs last van Motion sickness...
Noem het zeker geen gebreken in bestaande proprietary rommel die weer extra nieuwe hardware nodig heeft hoor, maar weeral superinnovaties in bestaande supertechnieken met maar een kleine meerprijs in nieuwe hardware!

Net zoals elke nieuwe DLSS-generatie het absolute summum is, maar toch weer één of ander nadeel weet weg te werken van vorige generaties.

Ik word zo moe van Nvidia en al wie het zomaar slikt zonder greintje kritisch inzicht. Niet open, telkens maar weer met wat extra hardware zodat er toch verkocht kan worden, niets geen focus op duurzaamheid... Maar net zoals Intel enkel maar marktleider omdat er vaker niet verder gekeken wordt dan maximale performantie...
Sommige dingen hebben nu eenmaal een specifieke technische oplossing nodig om verholpen te worden. En voor die oplossingen is een investering nodig in onderzoek en engineering. Dat kost geld en geen enkel bedrijf kan het zich veroorloven om dat geld zomaar over de balk te gooien en de ontwikkelde technologie gratis en voor niets voor al zijn concurrenten beschikbaar te maken.

Natuurlijk zou NVIDIA de ontwikkelde technologie kunnen patenteren en vervolgens licenseren aan iedereen die er gebruik van wil maken, maar op deze manier geven ze zich een commercieel voordeel ten opzichte van hun concurrentie en dat is zeker niet iets wat je zomaar uit handen wil geven als bedrijf.

Niets weerhoudt AMD ervan om iets dergelijks te ontwikkelen en vervolgens als VESA standaard te laten definiëren, maar dat zullen ze ook niet doen.

Vergeet niet dat Freesync niet uit de koker van AMD kwam, maar door VESA als standaard naar voren geschoven is voor variable refresh rate displays. AMD heeft alleen maar deze technologie omarmt als antwoord op NVIDIAs GSync.

Het is makkelijk om te roepen dat alle nieuwe technologie zomaar beschikbaar gesteld moet worden voor iedereen, ongeacht de kosten die verbonden waren met de ontwikkeling ervan, alles in het kader van universele ondersteuning en openheid, zolang je zelf niet voor de kosten opdraait.

AMD maakt zaken ook alleen maar openbaar zolang ze achterlopen bij de concurrent en er belang bij hebben om op die manier goodwill te kweken bij de consument, echter dit zal anders worden als zij aan de leiding gaan.
Is Nvidia's backlight strobing nog steeds vendor locked naar hun kaarten?

Dit was in het verleden wel en is natuurlijk een behoorlijk nadeel ten opzochten van de concurenten, zelfs als je nu een nvidia gpu hebt gaat een beeldscherm toch wel wat langer mee.
Nee dat is het niet, en nooit geweest. ULMB wordt uitgeschakeld als VRR is ingeschakeld, en AMD videokaart drivers schakelen VRR niet volledig uit als er een fixed refreshrate gebruikt wordt.

[Reactie gewijzigd door cnieuweboer op 22 juli 2024 23:39]

Nooit zal ik niet zeggen, heb nog een oud scherm met een pre vesa adaptive sync gsync, hier werkte ulmb ook niet op amd.
Mijn punt was dat dit niet komt door een vendor lock. Dat komt doordat de AMD drivers VRR niet uitschakelen als je er om vraagt.

Op dit item kan niet meer gereageerd worden.