Nvidia verbetert motionblurtechniek ULMB op 360Hz-1440p-schermen

Nvidia heeft ULMB 2 uitgebracht, een verbeterde versie van de Ultra Low Motion Blur-techniek. Deze nieuwe versie moet helderere beelden weergeven met 'vrijwel geen' crosstalk in vergelijking met ULMB 1. ULMB kan bewegende beelden duidelijker en minder wazig maken.

ULMB is een techniek die de backlight van een lcd-scherm laat pulseren, waarbij de overgang van frame naar frame niet belicht moet worden. Bij die overgangen kunnen nog delen van het voorgaande frame te zien zijn, waardoor er een wazig effect ontstaat bij bewegende beelden. Door die overgangen niet te belichten, moet dat wazige effect minder worden. De eerste ULMB-versie schakelde de backlight 75 procent van de tijd uit, met minder heldere beelden tot gevolg, meldt Nvidia. Sommige gamers, vooral competitieve gamers, besloten daarom ULMB uit te schakelen.

Een ander nadeel van ULMB is dat lcd-schermen niet elke pixel op hetzelfde moment verversen, maar dit geleidelijk aan doen. Daardoor kan een deel van het scherm de oude afbeelding nog weergeven, ofwel crosstalk. ULMB 2 werkt samen met G-Sync en kan het flitsen van de backlight afstemmen op het moment dat alle pixels op de juiste plek staan. Dit moet crosstalk tegengaan en zorgt er ook voor dat de backlight vaker aan kan blijven, met heldere beelden tot gevolg.

De pulseringstechniek laat de backlight elke 2,7ms flikkeren. Dit is volgens Nvidia niet merkbaar voor gebruikers; een tl-licht flikkert drie keer langzamer dan ULMB 2 'en die tl-flikkering is voor de meeste mensen al niet zichtbaar'. Nvidia claimt dat de 360Hz-ULMB 2-beelden net zo duidelijk zijn als 1440Hz-beelden zonder ULMB.

ULMB 2 werkt vooralsnog alleen op 360Hz-1440p-schermen, specifiek de Acer Predator XB273U F en de ASUS Rog Swift 360Hz PG27AN. De ASUS ROG Swift Pro PG248QP en AOC AGO AG276QSG moeten bij release ULMB 2-ondersteuning krijgen. De Swift Pro is een 25"-monitor; de andere drie zijn 27"-exemplaren. ULMB 2 is per direct beschikbaar via de nieuwste versie van het Nvidia Control Panel.

Door Hayte Hugo

Redacteur

30-05-2023 • 08:15

69

Reacties (69)

69
69
37
5
0
28
Wijzig sortering
Hier een érg goede video van Optimum Tech: https://www.youtube.com/watch?v=3Cykx2GQq4k

Laat zien dat het echt heel goed werkt, maar of het daadwerkelijk uitmaakt behalve dat het er nét ietsje beter uitziet is onduidelijk
Als de motion clarity er ook maar 30% beter uitziet zou ik de upgrade maken. In dit geval voelt dit als een must als je in de competitive scene zit.
Op hoog niveau zie ik dit inderdaad een nieuwe standaard worden
Ik wilde hier ook naar linken. Dit is exact wat mede tweakers zouden moeten kijken. Er is merkbaar en meetbaar een duidelijk verschil in de vernieuwde techniek. Ik hoop ook dat ze dit uitbreiden (denk het niet) naar de Asus 27" 240Hz OLED
Als het voor een mens doorgaans niet mogelijk is om het 3 keer langzamere TL-licht flikkeren te zien, kunnen we dan überhaupt pixelovergangen die 3 keer zo snel gaan zien?

Edit:
Het wordt hier toegepast op een scherm van 360hz. Daarmee zou je ook 180HZ met black frame insertion kunnen weergeven (enigszins vergelijkbaar met TL flikkering, maar 50% sneller). Volgens de PR van Nividia is 120 HZ al voor de meeste mensen niet zichtbaar. Dus wat voegt ULMB2 dan toe op 360HZ.

Ik maak hier geen case tegen de bruikbaarheid van hoge refresh rates en ook niet tegen de techniek ULMB. Maar ik vraag we wel af wat voor zin het heeft om 360 hz met ULMB te hebben als je hun eigen vergelijking met TL licht hanteert.

[Reactie gewijzigd door Gordeldier op 22 juli 2024 21:29]

Ik kan zeker wel TL-licht zien flikkeren. Ook de refreshrates van CRT monitoren tot zo'n 90hz. Niet bewust, zie het niet letterlijk aan en uit gaan, maar de knipper is er zeker wel (valt meer op vanuit een ooghoek dan direct). Zo'n broodje aap dat steeds aangehaald wordt "dat heb je toch niet nodig / dat zie je toch niet". Jij niet misschien. Laat anderen aub wel van hun kwaliteit genieten.

Bovendien gaat het uiteraard niet om of je het kan zien refreshen of dit nou nut heeft of niet, dat is onzin. Het gaat erom dat iets vloeiender aanvoelt. En daar hebben die refreshrates zeker wel nut. En op een gegeven moment zal je het niet meer zien (of dit idd 120hz is of niet, zal vast per persoon verschillen), maar dat is juist ook heel de bedoeling, dat je het niet ziet! Maar voelen zal je het zeker.
TL zie ik zeker ook flikkeren. Vooral als ik net een kantoor binnen loop terwijl het buiten mooi helder weer is. Ik kan daarom ook niet op een gemiddelde kantoor werken. Mijn ogen voelen altijd heel moe van een hele dag onder TL licht werken in zo'n enorme bullpen waar je het licht niet uit mag zetten, terwijl als ik thuis werk met gewoon daglicht dat vele malen minder heb.
Herkenbaar. Ik ben zelf een chronische migraine lijer en dit soort dingen zijn overduidelijke triggers ervoor. TL valt gelukkig mee, maar is zeker merkbaar en erg vermoeiend (meestal meer migraine aan het einde van de dag dan tijdens). Maar van die goedkope felle blauw/witte leds die je ook kan zien knipperen? Die dingen zijn vreselijk, ik heb een aantal winkels gezien die dat als verlichting hebben en ik weiger daar naar binnen te stappen. Voelt gewoon akelig, en als ik nie uitkijk, lig ik de rest van de dag weer plat van een fijne migraine.

Mijn zuurste werktijd waren toen ik voor een groot bedrijf in cublicles werkte. Grote ruimte, allemaal TL verlichting en Airco (waar ik ook slecht tegen kan, droge rot lucht). Die Airco staat lekker elke griepje en verkoudje van de afdeling rond te pompen. Dat geknipper van die TL's en dan de hele dag achter een net niet fijne monitor (15inch) moeten werken .... Elke dag dus koppijn. Blij dat ik daar niet meer werk ...
Zo'n broodje aap dat steeds aangehaald wordt "dat heb je toch niet nodig / dat zie je toch niet".
Tirannie van de middelmatigheid. Zelfde bij sommige goedkope LED lampen, heel de ruimte flikker dan mee. Of de "onhoorbare" ongedierteverjagers, een aantal doet letterlijk pijn aan je horen, maar zeg je er wat van dan ben jij het probleem want men hoort zelf niks.

[Reactie gewijzigd door Klaus_1250 op 22 juli 2024 21:29]

Haha ja precies. Vroeg me toch af wat dat irritant hoge electrische gesnerp was, op meerdere plekken in een straat waar ik vaak doorheen ga. Zijn blijkbaar katten-verjagers "onhoorbaar"-signaal dat katten weg moet houden. Is waarschijnlijk ook geen verassing dat er alleen maar bejaarden in die straat wonen. Voor hun zal dat vast onhoorbaar zijn ja :P

En die vreselijke blauw/witte knipperende leds ja, echt 10x erger dan TL.
Het oog kan dat zeker wel zien waarnemen, het brein maakt er iets continues van, dat heeft zelfs een term https://www.ncbi.nlm.nih.gov/pmc/articles/PMC8537539/

Het is ook bewezen dat mensen hier last van kunnen hebben https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4038456/

Als er meer frames op je scherm worden getoond kan je oog en brein daar dus wel wat mee denk ik.

[Reactie gewijzigd door daellat op 22 juli 2024 21:29]

Het oog kan het waarnemen (niet zien), de hersenen kunnen nooit die 360 frames per seconden verwerken waardoor 55%+ van de frames nooit je hersenen bereiken. En al mocht er een enkeling zijn waarbij dat wel kan dan is dit een niche markt van een niche markt van een niche markt en compleet onzinnig.
Het gemiddelde zicht gaat al richting de 600 'fps'.

Je hersenen hoeven niet elk beeldje te verwerken, je hersenen verwerken vooral veranderingen.

Qua pixeldichtheid en kwaliteit zijn we bijna op het Futurama stukje van 'better resolution than real life'.

Nu de framerates (of refresh rate) nog. We zijn bijna op het niveau van 20 jaar oude analoge techniek.
Welke analoge techniek en hoe snel was dat dan vergeleken met de honderden Hz van nu?
20 jaar geleden hadden mijn ouders al een 200hz TV in de woonkamer en dat model had ook een duurdere versie met 400hz.

Nu is hz en fps niet hetzelfde. Maar digitaal komen we nu pas on par met oude analoge technieken. CRT was beter dan de meeste zich herinneren.
20 jaar geleden hadden mijn ouders al een 200hz TV in de woonkamer en dat model had ook een duurdere versie met 400hz.
De standaard refresh op CRT TV's was 50Hz, waarbij vooral Philips hier probeerde met het 'dubbel' weergeven van iedere frame (dus 100Hz) het hinderlijke geknipper te verminderen. Ik heb nooit gehoord van 200Hz of hoger er vraag me echt af of die ooit bestaan hebben.
Plasma toestellen hadden wel extreme verversingsfrequenties. Mijn oude GT60 update met 3000Hz.
100hz was begin/halverwege 00 al best de standaard geworden, mijn ouders waren nog lang niet middenklasse.

De beperkende factor voor CRT was de media, een 100hz scherm tekende gewoon dezelfde (PAL) frame 2x en 200hz 4x. Maar sluit er een computer op aan en je haalt gewoon die refreshrates als FPS. Tenminste, als je het geluk had dat er VGA oid op zat.

Het mooie is ook dat veel bron (film) materiaal ook makkelijk de 4k of bij goed silver, 6k aan vergelijkbare digitale resolutie kan halen.

CRT was een hele goede en (uit)ontwikkelde techniek. Het heeft echt donders lang geduurd voordat we digitaal op hetzelfde niveau kwamen als we analoog zaten en dat is pas sinds enkele jaren.
Dat 100Hz gewoon 2x hetzelfde frame tekende is mij bekend (zelf zo'n toestel gehad), maar serieus nog nooit een 200Hz gezien, en ik heb een van de laatste CRTs gehad (en lang gebruikt omdat ik ook niet echt blij werd van de fletse kleuren van de eerste generatie flatpanels).
Een VGA aansluiting op een TV was verre van standaard op CRT, kwam eigenlijk pas later bij de TFTs die ook als computerscherm werden verkocht. Daarnaast had VGA doorgaans een refresh van 60-85Hz met af en toe een uitschieter (vroege nVidia kaarten konden rond de 120Hz uitsturen ivm ondersteuning voor 3d shutter glasses). Vertel mij eens waar je 200Hz VGA hebt gezien?
Meeste oude films worden niet echt beter van 4k, op full HD zie je de film grain ook al.
"Hetzelfde nivo" als CRT was 10 jaar terug al lang bereikt met de plasma toestellen (en durf te stellen dat de moderne OLEDs daar ver overheen gaan).
Ze zijn er geweest. Iemand noemde hier een Philips, die hadden mijn ouders ook. Geen idee meer welk type dat was. Ik was vooral blij met veel 60hz PS2 games.

VGA zat inderdaad niet op de meeste TVs, de meeste van die 100hz of hoger TVs hadden geen aansluiting om die hzjes goed te benutten. Soms nog composiet waar je wel een eind mee kon komen.

Plasma had nog (veel) hogere refreshrates, maar die kunnen niet direct aangestuurd worden met individuele frames. CRT kan dat dus wel, een 200hz CRT kan 200fps aan.

Het ging mij om de techniek van CRT, die was voor beeldkwaliteit tot enkele jaren geleden gewoon superieur aan lcd of oled. Terwijl we die bakbeesten al ruim 10 jaar geleden vervangen hebben.
VGA zat inderdaad niet op de meeste TVs, de meeste van die 100hz of hoger TVs hadden geen aansluiting om die hzjes goed te benutten. Soms nog composiet waar je wel een eind mee kon komen.
Just op die 100Hz TV's heb je daar weinig aan: die digitaleren inkomend signaal om het beeld vaker op de CRT af te beelden. Om 'ongelimiteerde' framerates mogelijk te maken zou je composiet direct aan het electronenkanon moeten doorverbinden zoals in analoge toestellen.
Plasma had nog (veel) hogere refreshrates, maar die kunnen niet direct aangestuurd worden met individuele frames. CRT kan dat dus wel, een 200hz CRT kan 200fps aan.
Ik ben nog steeds benieuwd waar je in 2000 een 200Hz input signaal vandaan kon toveren. Er is mij geen enkele hardware bekend uit die tijd die zulke hoge frequenties uit kon sturen.

Bij plasma wordt de refresh gebruikt om het licht 'aan' te houden (sub field drive), heeft niet veel met de input framerate te maken. Meeste plasma toestel inputs gaan ook niet over de 100Hz (HDMI standaard).
Het ging mij om de techniek van CRT, die was voor beeldkwaliteit tot enkele jaren geleden gewoon superieur aan lcd of oled. Terwijl we die bakbeesten al ruim 10 jaar geleden vervangen hebben.
Plasma was zeker beter dan CRT. Je vergeet artefacten als afbuiging, storing door analoog signaal en nog wat andere CRT specifieke kwaaltjes...
Lol, alweer helemaal vergeten dat dat een ding was, kwam dat niet uit te koker van Philips, of was het Sony?

'Beter' is natuurlijk compleet afhankelijk van waar je naar kijkt, zelfs qua beeld, ik bedoel, toen was er zelfs nog geen HD resolutie toch? Laat staan 4K.

De hele hz/fps (ja ik ken het verschil) liet ik toen, nu een waarschijnlijk in de toekomst ook weer, zoveel mogelijk aan mee voorbij gaan. Ik spaar wel voor OLED, of meer pixels, maar ieder z'n ding.

Bovendien, groot en plat en minder dan 30 kilo noem ik toch wel beter dan de tvs van toen.
Hoge fps/hz is met name een computerding. Aangezien daar er realtime beelden gegenereerd worden. Voor TV ben je beperkt aan de media. Is leuk als je scherm 360hz, maar meeste media zal maar zon 24-30fps zijn. Soms wat uitschieters dat ze hoger proberen (zoals Hobbit, wat meer geklaag dan een positieve ervaring heeft opgeleverd volgens mij).

Hogere refreshrates ben je nog wel gebaat bij dat het rustiger oogt, maar het nut er van is veel sneller weg dan bij gaming. Bij gaming heb je latency nog als reden, je hoeft het niet eens bewust te zien maar elke ms aan winst is een ms dat je mogelijk iets eerder kan reageren. Voor TV (buitenom consoles) gaat dat niet op en is zo'n hoge refreshrate veel sneller minder nuttig.

Ik heb overigens ook zo'n 200hz philips in huis gehad. Aangezien ik vrij snel last heb van geknipper (TL balken, lage refreshrate monitoren, <70hz was hoofdpijn), en de verkoper van de Micro Elektro zat het af te raden, noemde het onzin, verkocht al tig jaar tv's en dit is maar een stomme gimmick. Shut up en verkoop dat dit nou maar aan ons. Veel rustiger beeld, minder hoofdpijn. Ik vond het erg fijn in ieder geval.
Hoge fps/hz is met name een computerding. Aangezien daar er realtime beelden gegenereerd worden. Voor TV ben je beperkt aan de media. Is leuk als je scherm 360hz, maar meeste media zal maar zon 24-30fps zijn.
Het gaat vooral over de terugkoppeling tussen invoer en uitvoer. Meeste mensen kunnen zich prima aanpassen aan een klein beetje anticiperen en zelfs gamen op 30Hz is prima te doen. Natuurlijk is 60 vloeiender en 120 nog wat vloeiender maar je komt al snel in het territorium van verminderde winst en mensen die hun eigenwaarde kennelijk koppelen aan hoeveel fps ze kunnen krijgen.

Komt nog bij dat je scherm misschien wel 120Hz accepteert, maar als de black-to-white overgangstijd langer is dan de frame tijd is het verspilde moeite om meer frames te genereren...
Bij gaming heb je latency nog als reden, je hoeft het niet eens bewust te zien maar elke ms aan winst is een ms dat je mogelijk iets eerder kan reageren.
Gemiddelde menselijke reactietijd is 250ms ;). Als top-gamers in de helft van die tijd kunnen reageren is dat nog minder dan 1% winst.
Ik heb overigens ook zo'n 200hz philips in huis gehad.
Was dat een CRT?
Ja dat was een CRT.

Als ik er 250ms over doe om te reageren, en dat beeld is binnen 10ms of 20ms op mijn beeld, dat betekend dus dat ik tussen 260 en 270ms zal reageren, afhankelijk van het beeld.
Nu is dit wat extreem, en of dit in de praktijk zo letterlijk vertaald moet volgens mij nog wel aangetoond worden. In ieder geval vinden gamers dit fijn (al is het wellicht een placebo effect).

Ik heb vrij lang op 30fps gegamed, maar eenmaal naar 60 wil ik echt absoluut nooit meer terug.
Van 33 naar 16ms per frame is dan nog zeker waar te nemen, en een noemenswaardige verbetering. Iedere volgende verdubbeling levert je verhoudingsgewijs bijzonder weinig op tenzij je milliseconde precisie kan waarnemen (wat ongetwijfeld veel gamers zullen claimen).
CRT vermoed ik
Het oog kan het waarnemen (niet zien), de hersenen kunnen nooit die 360 frames per seconden verwerken waardoor 55%+ van de frames nooit je hersenen bereiken.
Als ik dan reken kom ik uit op een limiet van 162 (360hz * 45%) "frames" van verwerking door de hersenen volgens jou, ik ben benieuwd waar je dat getal vandaan hebt?
Gebaseerd op verouderde "kennis". Uit recenter onderzoek blijkt dat mensen tot 500 Hz en zelfs daarboven flikkeringen kunnen zien. Je leest helaas nog overal de onzin dat mensen niet boven de 24/30/60 Hz kunnen zien maar dat is verouderd en onjuist.
Het belangrijkste is natuurlijk niet of je het _kan_ zien maar of het storend is. Als ik het hard genoeg probeer (knipperen met de ogen, totaal donkere ruimte) kan ik regenboogjes zien op het beeld uit DLP beamers en plasma TV's, maar dat zegt nog niet dat het onkijkbaar is voor mij.
Voor mij maakt de refreshrate van zon DLP beamer dan best veel uit, want als dat te laag is, zie ik die regenboogjes vrijwel constant, vooral tijdens saccadic eye movement (waar je niks hoort te zien, maar ik hou dan altijd van die regenboog na-beelden eraan over).

Die claims dat een mens niet boven de 60hz zou kunnen zien heb ik daarom altijd bs gevonden. Of het valt je niet op, stoort je niet, etc, maar het is heus wel te zien. En niet iedereen is hetzelfde. Ik ben er erg gevoelig voor, dus mij valt het gelijk op.
Dat het te zien is betekent niet gelijk dat er ook een probleem is wat opgelost moet worden door er 3x de power tegenaan te gooien om maar arbitrair veel beeldjes te genereren...
Daar zal ik het niet mee oneens zijn nee.

Maarja, dat is net zoals een auto met 1000pk of dat soort overdreven dingen. Dat is op een gegeven moment niet meer of het nut heeft, maar omdat het kan. Zoiets kan je dan wellicht het beste of het snelste noemen terwijl een Fiat Panda je ook prima kan vervoeren. Dat is hier niet anders. Ik draai meeste spul op 60fps, een refreshrate dubbele daarvan (120) is voor mij dan meer als prima. Heb er gewoon niet meer geld voor over :P
Als je het kan zien kan het dus altijd beter.
Maar je hersenen kunnen dus wel 'artifacts' waarnemen of veranderingen. Volgens mij makkelijk met tot wel 500+fps/hz. We kunnen natuurlijk niet ieder individuele frame zien en verwerken, maar dat moet je ook niet willen. Je wilt graag de veranderingen eerder kunnen zien. Als de frametimes dan flink dalen (van 5 naar 2,5ms bijvoorbeeld) dan heb je die winst al en heb je een voordeel op de competitie.
Verouderde informatie. Dit is recenter onderzoek.
90 fps is voor een meerderheid van de mensen voldoende om geen sorteringen meer waar te nemen, sommige hebben iets meer nodig en hebben voldoende aan 120 dan heb je nog een enorm kleine niche groep die 165 nodig heeft. 360 is werkelijk ontiegelijke bullshit en puur placebo. Tuurlijk iedereen wil laten zien dat ze de beste ogen in hun kop hebben en daarom hebben ze 360 fps nodig.

En ook zoals je zelf aanheeft TL verlichting zit rond de 150hz en dit scherm gaat naar de 360hz. Deze ontwikkeling is nutteloos, Als zelfs professionals die dagelijks tig uren gamen het verschil tussen 120 en 160 niet kunnen waarnemen hoe kunnen zei dan het verschil van 360 waarnemen? https://www.youtube.com/watch?v=OX31kZbAXsA
Grappig dat je die video aanhaalt aangezien daar 240 Hz dus wel beter was dan 144 voor zowel pro als noob.

Overigens gaat het er helemaal niet om of je het 'ziet' refreshen, het gaat om bewegingsscherpte bij snelle beweging en daar helpt hogere refresh of stroben zeker enorm mee. Zoals aangehaald in de video helpt het verminderen van blur enorm bij tracken van targets en dat is waar Ultra Low Motion BLUR over gaat.
Hoe kom je bij 150hz voor TL verlichting? Doorgaans zit dat op dezelfde frequentie als het netstroom, dus 50hz. En dat kan ik altijd heel erg goed zien. Als je van die goedkope ledverlichting hebt dat lijkt te knipperen, is het zelfde in principe, dat is ook de netstroom frequentie die je ziet.

En het gaat niet zozeer om verschil waarnemen, boven aantal beeldjes houd dat wel op dat je dat bewust kan zien. Daarboven gaat het meer om hoe het onbewust voelt. Verschil tussen 120 en 160 is wellicht niet per se te zien. Maar zeker wel te voelen. Het voelt vloeiender. Richting 360 is dan wellicht overdreven. Maar in theorie, elke verkorting van latency geeft voordeel, als dat betekend dat je net een frame eerder je vijand neerknalt voordat hij reageert. In de praktijk is dit waarschijnlijk compleet te verwaarlozen en meer om mee te pronken.
Dat is juist het punt dat (de PR van) nVidia maakt. ;)
Het wordt moeilijker om te zien, maar met LCD schermen zijn de pixelovergangen gegarandeerd zelf niét 2,7ms. Het signaal wat het scherm kan verwerken is 360hz, maar dat betekent niet dat de pixels ook gelijk zo snel zijn. Afhankelijk van de overgang kan de tijd voor een pixel om te switchen gerust ergens tussen de 2-20ms zitten (of soms zelf nog meer). En dan kun je het zeker zien en ervaren als onscherp beeld.

n.b. ik kan de filkkering van TL extreem goed zien en mijn ogen zijn echt niet de beste. Benieuwd op welk wetenschappelijk onderzoek nvidia dit baseert.
Menig slechte TL balk kan een vrij groot deel van de bevolking wel zien flikkeren. Of dit ook geld voor de degelijke modellen kan ik niet zeggen aangezien ik ze zelf niet zie flikkeren.
Nvidia geeft ook zelf aan dat performance nog wel meetbaar veranderd na 120hz. Er is een groot verschil tussen "kunnen zeggen dat je verschil ziet" en "meten dat iemand X.XX% beter gamed"

Je hersenen kunnen dus al die extra datapunten alsnog gebruiken. Echter kan de mens niet actief nog zeggen dat er meer data punten zijn.
Het gaat niet om het detecteren van flickeringen. Het gaat om de stabiliteit van bewegende beelden.

Als voorbeeld, open een notepad en typ daar iets in. Versleep dat venster daarna over scherm en probeer tijdens het verslepen te lezen wat je net getypt hebt. Op de meeste schermen kun je die tekst niet lezen.
het gaat niet om het wel of niet bewust kunnen zien (vanaf 150hz ish is alles redelijk smooth) maar om de feitelijke latency die je nog steeds reduceert als je van 150 naar 300+ hz gaat. De latency reductie wordt uiteraard wel steeds beperkter. Maar van bijvoorbeeld 144hz naar 360hz is toch van 7ms (best case) naar 2,77 ms. Alle beetjes helpen. De rest komt aan op je menselijke reactietijd, maar het liefst wil je alles dat aan de computerkant plaatsvindt zoveel mogelijk reduceren naar 'instant'.

[Reactie gewijzigd door PjotterP op 22 juli 2024 21:29]

Ik zet het standaard nog uit in de meeste games omdat ik het vervelend vind als ik snel rond draai met de camera, maar dat kan komen omdat ik vaker 1st/3rd person adventure games speel.

Iemand hier die van motion blur geniet? Zo ja welke (soort) games?
Dit gaat niet over motion blur lol, dit is een techniek juist om motion blur die natuurlijk in schermen aanwezig is tegen te gaan.
Laten ze dat dan ff duidelijk maken in de titel, dit is idd antimotionblur 8)7
Titel is idd beetje verwarrend, maar als je het artikel leest is het verder toch wel vrij duidelijk?
Ik ben van de (ouderwetse?) Stempel dat ik dat direct en automatisch uitzet. Het is eigenlijk de enige reden om de instellingen bij een nieuw spel te openen, nog voordat ik ook maar een seconde gespeeld heb.

Eigenlijk zou ik het voor de gein eens wel aan moeten zetten, misschien heb ik de laatste 20 jaar mezelf tekort gedaan 8-)
Erg verwarrend, ik denk dat 90% van de lezers bij motion blur aan die instelling in spellen die je direct uitzet denkt, of heb ik het mis?

Leuk dat het kan hoor, maar hoe groot is de markt voor 360 Hz schermen eigenlijk? 0,1%?

[Reactie gewijzigd door Alxndr op 22 juli 2024 21:29]

Hier wordt eigenlijk anti-motionblur techniek bedoelt. Zo ik het lees, hebben schermen van nature al motion blur omdat het licht tussen 2 beeldjes in elkaar overloopt. Door geen licht uit te zenden tussen 2 beeldjes is er (minder tot) geen overloop tussen het licht van 2 beeldjes.
Dat wordt iedereen die het artikel leest duidelijk... Maar verduidelijk dat dan ff in de titel. Motion blur in spellen is iets waar iedereen wel van gehoord heeft, dit niet.
Eens, de titel mist een 'anti-'
Ik heb het nog nooit gezien op een 360hz scherm, maar ULMB op een 144hz scherm doet echt pijn aan me ogen. Ik ken de verhalen wel van dat we als mensen niet eens meer zien dan 60hz enzo. Maar dat is gewoon niet waar. Ik zie het wel degelijk. Ik zie ook duidelijk het verschil tussen een 60hz en 144hz scherm.
Dat blijft toch wel subjectief. Een goede vriend van mij ziet oprecht geen verschil tussen 60hz en 144hz, dat hadden we samen uitvoerig getest.
Ik zie amper het verschil tussen 60 en 100hz maar wordt in de bioscoop gek van het geflikker. Hoe zit dat met al die mensen die beweren dat ze nog verschil zien boven 144hz?
Ik kan duidelijk het verschil zien tussen mijn 27" 1440p 144Hz LG Nano IPS en de LG 27" 1440p 240Hz OLED.

Check de video van Optimum Tech, waarbij hij de vernieuwde ULMB vergelijkt: https://www.youtube.com/watch?v=3Cykx2GQq4k

Edit: Het is niet alleen de Hz, maar ook zaken als response tijden, crosstalk, overshoot etc. Ik kan je aanraden om op Youtube te kijken naar Hardware Unboxed of Monitors Unboxed. Ze hebben veel video's waarin wordt uitgelegd hoe het precies werkt.

[Reactie gewijzigd door Spoonher op 22 juli 2024 21:29]

Ik zie amper het verschil tussen 60 en 100hz maar wordt in de bioscoop gek van het geflikker. Hoe zit dat met al die mensen die beweren dat ze nog verschil zien boven 144hz?
Daar zit dan blijkbaar verschil in qua persoon. Ik en mijn game groepje merken duidelijk verschil.
Wij klagen al als onze frames iets zakken van 165 naar ~130. Daar moet ik wel bij zeggen dat wij zeer competitief Hunt Showdown spelen. Als ik bijvoorbeeld The Witcher 3 speel of Metro Exodus dan stoor ik mij er minder aan, en valt het mij ook minder op uberhaupt.

Wellicht speel jij Cities Skylines o.i.d. dan kan ik mij goed voorstellen dat je het niet merkt.
Nee, ik speel Division 2 en ben bij de top 1% speedrunners in missies maar stam uit de tijd dat we 30 fps in Quake 3 speelbaar vonden.
"Ik" is hier het kernwoord. Je beantwoord zelf je vraag al.
Niemand beantwoordt mijn vraag ivm de bioscoop.
Je hebt nooit een vraag gesteld over de bioscoop, slechts een statement gemaakt dat het daar flikkert volgens jou. Waarom je dat zo ervaart? geen idee, ik ervaar dat zelf niet zo.
Heb je wel eens een spelletje gespeeld op een 144hz monitor en vervolgens op eentje van 240hz of 360hz bijvoorbeeld? Ik kan me niet voorstellen dat je dan geen verschil ziet. Maar nogmaals, wat ik al met mijn opmerking wilde zeggen is dat als jij iets niet ziet, niet betekent dat het niet zo is...
motionblurtechniek is in de meeste spellen naar mijn mening al perfect. Gewoon kwestie van correct instellen.

Motionblur: off.
Gaat niet om software motion blur, beter lezen :)
Nvidia claimt dat de 360Hz-ULMB 2-beelden net zo duidelijk zijn als 1440Hz-beelden zonder ULMB.
Beetje rare vertaling, ik gok dat het origineel "just as clear" was, wat in deze context vertaald zou moeten worden naar "net zo helder". Maar goed het is nog vroeg :+

Ik vind het nummer zelf ook een beetje raar 1440hz, hoe komen ze daar aan? 360 * 4 = 1440, oké, maar wat betekend dat?
Naast dat ik zeker wel tl-licht zie flikkeren heb ik ook nog eens een bloedhekel aan blur effecten. Het gaat altijd als eerste optie uit.

Als ik het forum hier zo lees zijn er juist heel veel mensen die last van het geknipper hebben. Hoe komen ze er dan bij dat dit wel meevalt? Dat kan ze dan nog best eens flink gaan tegenvallen, laat staan in sales, als blijkt dat niemand het hebben wil om die reden.

En dat motion blur is écht dramatisch. Je wil alles om je heen snel zien, dan ga je toch niet alles blurren? Hiernaast levert het hoofdpijn op. Geen idee waarom, maar is bij mij wel zo.

Ik snap dat ze een soort realistisch beeld willen namaken, maar motion blur komt Bij mij écht nooit realistisch over. Wellicht door het gebrek aan beweging erbij?
Ulmb2 werkt niet samen met Gsync in de zin dat ze samen aanstaan. Het is of ULMB 2 of GSYNC niet beide.

Op dit item kan niet meer gereageerd worden.