Gigabyte introduceert QD-oledmonitor met 500Hz-refreshrate

Gigabyte zal tijdens CES twee nieuwe QD-oledmonitors introduceren: de AORUS FO27Q5P en de MO27U2. De FO27Q5P heeft een verversingssnelheid van 500Hz en een 80Gbit/s-DisplayPort 2.1-aansluiting. De MO27U2 komt met een 4k-resolutie en een 240Hz-refreshrate.

Uit het persbericht van Gigabyte blijkt dat de AORUS FO27Q5P een VESA DisplayHDR True Black 500-certificering meekrijgt. De monitor zou ook de aankomende VESA ClearMR 21000-standaard ondersteunen. ClearMR is een standaard die in 2022 werd geïntroduceerd om motion clarity of beweeghelderheid bij monitors te beoordelen. De fabrikant heeft de resolutie van de monitor niet gedeeld, net als de schermgrootte. Vermoedelijk gaat het om een 27”-paneel. Het is niet duidelijk wat de kostprijs van de AORUS FO27Q5P zal zijn.

De MO27U2 is een 27”-monitor met een 4k-resolutie. Het paneel heeft een refreshrate van 240Hz. Gigabyte heeft het scherm gekalibreerd met een Delta E van minder dan of gelijk aan 2 en er is Pantone-kleurenvalidatie aanwezig. Beide schermen beschikken over software die de QD-oledpanelen moeten beschermen tegen burn-in en andere vormen van slijtage. Er is een aparte knop aanwezig om snel van resolutie en beeldverhouding te wisselen. Gigabyte heeft nog niet aangegeven hoeveel de MO27U2 zal kosten.

Gigabyte AORUS FO27Q5P en MO27U2. Bron: Gigabyte
Gigabyte AORUS FO27Q5P en MO27U2. Bron: Gigabyte

Door Jay Stout

Redacteur

04-01-2025 • 13:00

153

Reacties (153)

153
146
58
7
2
64
Wijzig sortering
500Hz, ik vraag mijzelf dan af… is dit een spec. war aan het worden of heeft het echt nog zin? Ik snap dat het van 24 -> 60 en misschien zelfs 144 nog wel uitmaakt qua vloeiendheid en snelheid van frames. Maar kan een mens überhaupt het verschil nog zien tussen bijvoorbeeld 144, 200+ of zelfs 500 Hz. Ons zicht en de de verwerking van onze hersenen kan dit toch helemaal niet meer onderscheiden

Verbeterde beeldkwaliteit en echtheid is dan wel weer een mooie stap en heeft ook daadwerkelijk nut voor beeldbewerking en scherm/hardcopy werk

[Reactie gewijzigd door KnuCha op 4 januari 2025 13:08]

Ja, het heeft nog zin. Maar met de huidige monitoren op de markt is een snappy en responsive GUI vaak al meer dan voldoende voor het gros van de doeleinden. Het echte nut van hogere refresh rates zit hem voornamelijk in specifieke usecases, zoals competitieve games of andere toepassingen waarbij snelheid en precisie iets is wat van waarde is.

Je hoeft het verschil niet altijd bewust te merken om er toch voordeel van te hebben. Bij sommige dingen merk ik zelf ook niet direct verschil, maar als je het meet, blijkt het gewoon beter te zijn (daarom wil je ook data driven werken). Bijvoorbeeld bij hogere Hz-schermen: ook al zie je het misschien niet direct, feitelijke metingen laten zien dat je sneller reageert, meer consistent bent en beter presteert. Dat voordeel is er dus, ook als je het niet altijd doorhebt.

In deze video van Nvidia, uitgelegd door een expert, wordt de relatie tussen de verversingssnelheid van monitoren en de frame rate gedetailleerd besproken. Een hogere Hz-waarde en frame rate zorgen voor een soepelere weergave, wat vooral bij snelle games een groot voordeel kan zijn. Dit komt doordat objecten sneller en duidelijker herkenbaar zijn, wat bijdraagt voor tijdige reacties. Je ziet namelijk sneller een update. Een 360Hz monitor toont elke 2.8ms een beeld een 500hz monitor elke 2ms. Elke kleine verbetering die de reactie tijd verlaagd is een voordeel, maar wel een voordeel die per stap hoger steeds kleiner wordt.

Je wilt de Hz van je monitor en de frame rate het liefst zo hoog mogelijk hebben. 540 vs 240 of 144 is een stukje smoother en dat kan weldegelijk uitmaken. Zoals hier te zien in deze video vanaf 1:10 om vervolgens hier in te gaan op de relatie response times omdat niet elk paneel met dezelfde xHz hetzelfde is (wat kan leiden tot ghosting). Zeker bij fast paced games is het fijn voor objectherkenning (Waarneming: er loopt iets) of om meer up to date frames te hebben om op te schieten en dus sneller kan klikken op de correcte plaats. Zie ook deze verlelijking tussen hoge Hz monitoren (Asus OLED, Zowie XL2566K DyAc+, PG27AQN 360Hz en de PG248QP 540Hz) met ieder net wat andere response times.

Op het tijdstip 5:12 in de NVidia video wordt een voorbeeld getoond waarbij een speler om de hoek komt en eerder zichtbaar is met een hogere fps. Zowel de hand als het lichaam van de tegenstander zijn fractioneel eerder te zien. Verder toont een grafiek op 5:59 dat spelers met een hogere fps en Hz een betere kill/death-ratio hebben. Zie ook @Mars4i reactie hieronder over hoeveel pixel dit kan schelen: Mars4i in 'Gigabyte introduceert QD-oled-monitor met 500Hz-refreshrate'

Wetenschappelijke studies bevestigen dit voordeel: onderzoek van de Universiteit van Nottingham toonde aan dat gamers met een 240Hz-beeldscherm gemiddeld 30% sneller reageren op visuele stimuli dan gamers met een 60Hz-beeldscherm. Onderzoek van de Purdue University wees uit dat gamers met een 144Hz-beeldscherm 20% sneller reageren op targets dan gamers met een 60Hz-beeldscherm. Echter, de grootste stappen worden gemaakt bij lagere framerates, zoals verbeteringen in visuele responsiviteit bij overgangen van lagere naar matig hogere refresh rates (bijvoorbeeld van 60 Hz naar 144 Hz) volgens het tijdschrift 'Attention, Perception, & Psychophysics'. De voordelen bereiken een punt van afnemende meerwaarde.

Ik kwam zelfs dit onderzoek tegen waarbij CRT-schermen centraal staan: Bridgeman en Montegut (1993) toonden aan dat hogere flickerrates de leessnelheid kunnen verbeteren door de wachttijd tussen zichtbare tekstupdates op CRT-schermen te verminderen. Hoewel dit onderzoek zich specifiek richt op het lezen van tekst, wijzen de resultaten op de mogelijkheid dat soortgelijke principes ook van toepassing kunnen zijn op andere vormen van visuele verwerking, zoals bij videogames. Zie ook deze afbeelding: https://tweakers.net/foto...KxNDmKSWooPKWvG4GUFby.png
The higher the contrast ratio is, the shorter the reaction time tends to be. In addition, the faster the response time is, the shorter the reaction time is. Displays with high contrast ratio and fast response time are advantageous in terms of reaction time, which is also expected to be more advantageous in a fast-paced real gaming environment.
https://sid.onlinelibrary...doi/abs/10.1002/jsid.1198

Wat is de max?
Tests with Air force pilots have shown, that they could identify the plane on a flashed picture that was flashed only for 1/220th of a second. That is identifying. So it's pretty safe to say, that recognizing, that SOME light was there is possible with 1/300th of a second.
http://www.100fps.com/how_many_frames_can_humans_see.htm
Word in dit filmpje vanaf +/- 4:00 ook kort op ingegaan.

Note: Het originele onderzoek betreft de waarneming van zeer korte visuele stimuli onder gecontroleerde omstandigheden, wat niet direct 100% vertaalbaar is naar de perceptie van frame rates in videogames.

Linus Tech Tips heeft ook experimenten (niet wetenschappelijk) uitgevoerd met CS:GO op monitoren van 60, 144 en 240 Hz. De resultaten tonen aan dat spelers met hogere frame rates over het algemeen snellere reactietijden hebben. Linus concludeert dat vooral casual spelers baat hebben bij een upgrade van 144 naar 240 Hz, meer nog dan professionele spelers.

Op 33:51 concludeert Linus dat casual players (nog) meer baat bij de verhoging van 144 naar 240 hebben dan de professionelere spelers. Op 34:50 concludeert Linus eigenlijk hetzelfde als ik hierboven ook al opsomde vanuit de Nvidia clip.

De meerwaarde van een hoger Hz scherm is er dus wel degelijk, waar de limiet van effectief gebruik ligt kan ik zo niet vinden maar die ligt dus in ieder geval wel boven veel verkochte Hz monitoren die op dit moment op de markt te vinden zijn. Het lijkt me dat een scherm met 500 Hz of hoger zeker een effectieve toevoeging kan zijn voor voor gamers zeker in combinatie met een snelle response time (Fast paced shooters, in de toekomst vr als ze kleiner kunnen worden, idem met pro drone vliegen) met een degelijke use case. Een hogere framerate zorgt voor een soepelere gameplay en een kortere input lag, wat onmisbaar is voor competitieve gamers.

Dit YouTube kanaal geeft trouwens een basis uitleg over hoe onze hersenen en ogen werken en hoe dit te vergelijken is met fps op een scherm.

Er is trouwens ook een reden waarom veel Pro gamers kleiner 24-25 inch) monitoren prefereren, naast zaken als hoge verversingssnelheid. Te grootte schermen gaan in je nadeel werken omdat je dan niet alles meer kan overzien binnen je (centrale) blikveld, hierdoor ga/moet je hoofdbewegingen maken wat impact heeft op je reactietijd.

Een voorbeeld: https://www.bnr.nl/podcas...-populariteit-van-esports
Vanaf min 31 gaat het over schermen. De standaard lijkt voor bijv. Pro Fortnite spelers op 25 inch te liggen als ik de equipement pages van verschillende pro teams bekijk.

[Reactie gewijzigd door jdh009 op 4 januari 2025 15:40]

Ik vind het altijd duidelijker om in pixels te denken.
Stel een object beweegt zich in 0.5 s van links naar rechts over je beeldscherm.
Met een HD scherm is dat 1920 pixels/0.5s = 3840 pixels/s
met 500 Hz is dit 7.7 pixels/frame (0.27 cm op een 27" scherm)
met 300 Hz is dit 12.8 pixels/frame (0.45 cm)
met 240 Hz is dit 16.0 pixels/frame (0.56 cm)
met 144 Hz is dit 26.6 pixels/frame (0.93 cm)
met 60 Hz is dit 64.0 pixels/frame (2.25 cm)

Als dit object dus achter een muur vandaan komt, kan je je voorstellen dat 7.7 vs 12.8 pixels per frame nog wel uitmaakt voor geoefende spelers.
Nog een handig voorbeeld, in het verlengde van wat jij zegt, je draait in een fps 180 graden in een kwart seconde, flickshot of wat dan ook. Dan moet je aan het einde van je beweging nog wel het hoofd identificeren van je vijand, en daar precies op mikken. Dat betekent dat met een 500hz scherm je in die kwart seconde 180/125(500/4 want kwart seconde)= 1,44 graden per frame verschuift, dat zal redelijk soepel voelen. Doe je hetzelfde met een 144 hz scherm, dan krijg je dus 180/36=5 graden per beeldje. Elk beeldje "springt" dus 5 graden verder.

Die 5 graden is best veel, je gaat dit op zijn minst als een klein beetje wazig ervaren want je hersenen missen gewoon informatie tussen de 5,10,15, 20 etc graden. Dat hoofd identificeren zal een stuk eenvoudiger worden als je elke 1,44 graden een update ziet.

Toegegeven, dit verschil zal je vooral dus merken in situaties waar het beeld veel draait e.d. Voor een RTS zal het je geen winst opleveren :)

[Reactie gewijzigd door OriginalFlyingdutchman op 4 januari 2025 17:22]

DAt is natuurlijk 144 vs 500 de vraag is 240 /380 vs 500 .
Dat is toch geen vraag meer? Staat hier perfect uitgerekend. Het scheelt. Voor de een is dat belangrijk, voor de ander niet.
Jawel niemand twijfelt of 60hz slechter is dan 500hz daar gaat dit niet over.
De vraag is 500 hz nog merkbaar verschillend en beter tov 300-400 hz. Aka is het de meoite waard om een heel dure installatie te hebben om die 500hz schermen aan te kunnen of is dit placebo/nutteloos en zie/merk je geen verschil?
Zie de berekening van @Mars4i en @OriginalFlyingdutchman. Dat lijkt me meer dan afdoende. Als jij vanuit die berekeningen niet snapt of er wel of niet nut/verschil is dan is deze monitor wellicht niet voor jou. Dat is helemaal prima! Maar meer of betere uitleg dan de tweakers hierboven en zeker @jdh009 ga je echt niet krijgen. Dit is top kwaliteit qua reacties, dan wordt er ook wel wat verdieping van jou verwacht.
AL die berekeningen zijn puur theoretisch, jdh gaat bijna uitsluitend over veel lagere snelheden.
Moest ik van jou zijn zou ik ze zelf eens grondig lezen en tot de vaststelling komen dat ze eigenlijk nergens daarover spreken laat staan aantonen.

Nogmaals het verschil tussen 60 & 120 is groter(8ms en dus makkelijker te zien) dan tussen 120 & 500 (6ms) laat staan tussen 300 & 500(1.3ms).
De vraag is dus of je dat zelfs merkt, laat staan dat je daar voordeel uit haalt om een systeeml tebouwen dat zo'n snelheden aankan.
Ik vermoed dat het verschil tussen 300 en 500hz amper te merken is. Dat is ook met 120 vs 165hz, maar dat maakt een 300hz scherm niet nutteloos. Wat wil je exact aanhalen?

Dat is toch een beetje zeggen, je kan het verschil tussen 29 en 30hz niet zien. Dus waarom heb je dan 60hz nodig?
De vraag if het de moeite is om van 300 naar 500 hz te gaan. Vergeet niet dat betekend 500fps als minimum wat een serieuze pc betekend. Als je dan geen verschil ziet of ervaart dan 300hz …
Dat hangt maar af van wat je aan het spelen bent.
Zelfs in iets als CS2 heb je goede gpu en CPU nodig om 500fps te raken hoor.
In iets als CS2, de slechtste game voor fps te halen sinds CSGO.
In CSS kon je configs hebben die 1000fps gaven, natuurlijk was er nog geen scherm dat 120+hz was. Dus in principe nutteloos

Maar ik zou denken dat Valorant en Overwatch toch wel makkelijker 500fps kunnen halen.

En Ik denk dat het de moeite is om van 240/300 naar 500 te gaan als je competitieve games wil spelen en het geld er voor hebt. Zo zal je tekst beter kunnen lezen tov 240Hz, en alles wat voorbij zou vliegen zou niet voorbij flitsen, maar je zou dit duidelijker kunnen waarnemen.
Beste voorbeeld hiervoor zou de_dust2 double door zijn, waar je op 120hz, 240 en 500hz duidelijker kan waarnemen of er iets voorbij sprint of niet.

Zelf de test gedaan en op 120hz moet ik al in de zone zijn en op gevoel schieten, waarbij ik op 240hz, 8/10 het schot kan raken op double doors.
Ik heb mijn twijfels. De normale reactietijd van een mens lijkt rond de 100ms te zitten, zie https://www-sciencedirect...ions/simple-reaction-time. Dat is 10Hz.

Laat de reactie tijd nu eens 20ms/50Hz zijn (ik kon het niet vinden, maar dat lijkt een reactiesnelheid van een straaljager piloot te zijn). Je hersenen kunnen vast meer beelden verwerken dan dat de reactietijd tussen waarnemen en spier reactie, maar factor 10?

Uiteraard snap ik dat de marketing afdeling ook gamers prikkelt om meer te kopen, maar het voelt als een variant van visserslatijn.
Ik heb mijn twijfels. De normale reactietijd van een mens lijkt rond de 100ms te zitten, zie https://www-sciencedirect...ions/simple-reaction-time. Dat is 10Hz.
Waarom zou dit uitmaken voor de monitor zelf? Reactietijd staat in zekere zin los van de voordelen van een hogere refresh rate. Je hebt altijd te maken met zowel de reactietijd van de speler als de technische response time van je setup (zoals display latency en hoeveel frames per seconde worden weergegeven en andere zaken uit de lantencyketen). Als je winst kunt behalen op dat technische deel, de response time, vergroot je de kans dat je eerder kunt handelen dan je tegenstander, zelfs als jullie dezelfde reactietijd hebben.

Zoals hierin is uitgelegd:
So with a display latency advantage of 5 ms, your winning percentage goes up to around 57%, which isn’t trivial. The key parameter in this simulation is how widely distributed reaction times are. If everyone had exactly the same reaction time, then a 5 ms display latency advantage would mean you’d win 100% of the time. So the more similar your reaction times are to your opponent, the more that other factors, like display latency, matter. If you run the same simulation with a much larger spread in reaction time (a standard deviation of 50 ms), then a 5 ms difference in display latency results in a win percentage of around 53%.
Bron: https://blurbusters.com/h...of-human-reaction-time/1/

De voordelen worden uiteindelijk steeds kleiner naarmate de verbeteringen toenemen (afnemende meerwaarde), maar ze blijven wel degelijk meetbaar en relevant, zoals zowel Mars4i en OriginalFlyingdutchman laten zien en ik in mijn andere reacties.

[Reactie gewijzigd door jdh009 op 4 januari 2025 20:41]

Reactietijd staat zeker niet los van refresh rate. Treinmachinisten van een TGV werken niet meer op visuele inspectie boven een bepaalde snelheid, want een mens is niet in staat dat te volgen. Dat is ook weer afhankelijk van de afstand van de bewegende voorwerpen.

Waar de limiet precies ligt voor een (gemiddeld) mens, weet ik niet. De bronnen op internet variëren van 60Hz tot wellicht 500Hz (die bron was reddit, niet direct het meest betrouwbaar). Iig de meeste mensen hebben geen last van licht op ons wisselspanningsnet, dwz 50Hz.

Laten we wel wezen: het gaat hier om een uitzonderlijke niche categorie. Vandaar dat ik nog steeds het label visserslatijn niet onterecht vind.
Reactietijd staat zeker niet los van refresh rate.
Hoezo zouden reactietijd en system latency niet los van elkaar zijn? Je hebt hier te maken met twee aparte factoren: A (system latency) en B (reactietijd). Samen bepalen ze het eindresultaat, namelijk hoe snel je kunt reageren op een stimulus. De relatie is eenvoudig: A + B = de totale tijd tussen het verwerken van de informatie door de computer en het weergeven ervan op het scherm, het waarnemen van deze stimulus en het uitvoeren van een daaropvolgende actie. Dat ze samen bijdragen aan het resultaat, betekent niet dat ze hetzelfde zijn; het zijn onafhankelijke componenten van dezelfde som.

System latency (A) is volledig afhankelijk van technische factoren. Het gaat om de tijd die een systeem nodig heeft om informatie te verwerken en weer te geven. Dit wordt beïnvloed door zaken zoals de snelheid van de computer, de input latency van een apparaat, en de refresh rate van het scherm.

Reactietijd (B ) is de tijd die een persoon nodig heeft om een stimulus waar te nemen en erop te reageren. Dit is een biologisch gegeven en hangt af van hoe snel je hersenen, zenuwstelsel en handen samenwerken.

Hoewel system latency en reactietijd samen het eindresultaat bepalen, blijven ze dus los van elkaar. Een snellere computer of een scherm met een hogere refresh rate verlaagt de system latency, maar verandert niets aan hoe snel je biologisch kunt reageren. Het betekent echter wel dat je de informatie eerder ziet, waardoor je eerder kunt reageren. Een systeem met een 500 Hz-scherm (A) + reactietijd (B ) is sneller dan een systeem met een 240 Hz-scherm (A) + dezelfde reactietijd (B ). Zoals de simulatie in mijn vorige quote ook aantoont, kan zelfs een verschil van 5 ms in system latency je kansen om een duel te winnen verhogen van 50% (gelijke setup (A) en gelijke reactietijd (B )) naar 57% (betere A en gelijke B ), puur omdat je de situatie eerder ziet en daardoor eerder kunt handelen.
Laten we wel wezen: het gaat hier om een uitzonderlijke niche categorie. Vandaar dat ik nog steeds het label visserslatijn niet onterecht vind.
Het zal inderdaad steeds meer een niche worden naarmate de voordelen kleiner worden door afnemende meerwaarde. Dat betekent echter niet dat het label "visserslatijn" volledig terecht is.

Edit: Van (b) -> (B ) gemaakt omdat je anders B) krijgt.

[Reactie gewijzigd door jdh009 op 4 januari 2025 22:16]

Iedereen ziet verschil tussen 60 en 120 hz/fps.

Je lichtbron van 50hz slaat nergens op. Dat is geen bewegend beeld, en is iets dat niet direct zijn lichtsterkte verliest tussen de 50hz door. Geloof mij, als je een stroboscoop op 50 hz zet ziet iedereen dat.
Resctietijd doet er niet toe als je een bewegnd object over je scherm
Volgt met je ogen.

Als dat vloeiend beweegt is dat scherp
Als dat stottert kan je het niet volgen,
Zo simpel is het.

Nooit je muis kwijtgeraakt? Dat is dit probleem.

En ja tracking wil je eigenlijk constant hebben omdat je ogen vloeiend volgen. Dus voor een fps heeft dit zeker zin als je omdraait en een vijand trackt.
Anoniem: 302359 @kdekker4 januari 2025 22:22
Ik heb mijn twijfels. De normale reactietijd van een mens lijkt rond de 100ms te zitten, zie https://www-sciencedirect...ions/simple-reaction-time. Dat is 10Hz.
Het gaat niet alleen om reactietijd maar ook gewoon om hoe het voelt en wat je ziet. Een goed voorbeeld hiervan is het effect dat optreedt wanneer je een witte muiscursor snel heen en weer beweegt over een donkere achtergrond. In plaats van één cursor zie je er meerdere, alsof er een soort staart achteraan trekt (ghosting). Hoe hoger de refreshrate van je scherm, hoe korter die staart wordt, tot het punt waarop de refreshrate zo hoog is dat de staart volledig verdwijnt en de cursor bij snelle bewegingen volledig statisch oogt.

Ik ben onlangs overgestapt naar een 240 Hz-scherm, en het verschil in soepelheid is echt enorm. Veel groter dan ik van tevoren had verwacht. Alles voelt niet alleen vloeiender aan, maar de hele ervaring is significant verbeterd.
Stel de reactietijd is 50 ms. En stel dat jij in een game een geweer op een deur/muur hebt gericht. Zodra jij je target in die deur ziet klik/schiet jij, en tussen zien en klikken zit dan 50 ms.

Nu komt jouw target tevoorschijn op t= 0 ms. Met een 60 Hz scherm zie jij een nieuw frame op t=0 ms, t= 16.7 ms, t =33.3 ms, t =50 ms enzovoorts. Dus met een 60 Hz monitor is jouw target dus pas op t=16ms op jouw scherm zichtbaar. Jij reageert gelijk ( dus 50 ms) dus op t =67.7 ms klik/schiet jij.

Speel jij de game met een 250 Hz monitor dan zie je dus op t = 0ms, t = 4 ms, t =8 ms, t=12 ms enz een nieuw frame op je scherm. Jouw target zie jij dan op t = 4ms waarmee jij op t =54 ms die muisklik al kan doen. Dat is dus 13 ms sneller dan op een traag scherm.

Wanneer de speler die door die deur stapt dus nét zo snel reageert als jij (ook die 50 ms), en hij speelt op 60 Hz waar jij op 250 Hz speelt dan ben jij dus 13 ms sneller dan de ander, en is hij dus uitgeschakeld nog voordat hij kan schieten. Die 13 ms die jij dus eerder bent maakt het verschil.

Het gaat uiteindelijk dus niet om de frames per seconde, maar om hoe snel iets zichtbaar is. En wil je dingen erg snel kunnen zien op een scherm (dus zonder de 16 ms delay die een 60 Hz setup heeft) dan zul je dus de verversingsfrequentie moeten verhogen zodat die delay daarmee omlaag gaat.
Het is sowieso niet alleen reactietijd. Als die 100ms alles was, dan was 60Hz ook al ook al een veelvoud meer dan nuttig en was de 10Hz die jij noemt waarschijnlijk nog wel speelbaar.

Maar dat is gewoon niet hoe het werkt. We hebben ook nog een bepaalde visuele verwerkingstijd en dergelijke, en het helpt als een beeld vloeiender is want dan kunnen we sneller begrijpen wat er gaande is. Hierboven (jdh009 in 'Gigabyte introduceert QD-oled-monitor met 500Hz-refreshrate') wordt genoemd dat de Universiteit van Nottingham aantoonde dat gamers met een 240Hz-beeldscherm gemiddeld 30% sneller reageren op visuele stimuli dan gamers met een 60Hz-beeldscherm. Dat is een verschil in frametime van 12,5ms. Die 30% zal echter meer in de richting van 40-85ms zitten (ervan uitgaande dat de reactietijd op de 240Hz schermen 100-200ms is). Dat zijn gewoon de lagere framerates die het moeilijk maken om te verwerken wat er nu eigenlijk op je scherm gebeurt.
Helder en duidelijk verhaal.
Aangezien je veel kennis hebt en veel info hebt opgezocht, waar ik dan benieuwd naar ben, zoals de video’s is er daadwerkelijk waarneembaar verschil maar…. In hoeverre heeft netwerk hier invloed op? We hebben het over 1-2 ms winst maar ben zojuist overgestapt van odido naar kpn en ben van 9 ms naar 4 ms ping gegaan. Maar legio mensen maken gebruik van wifi en icm packetloss en 15 ms ping, is die winst er dan ook nog in competitive gaming?

Natuurlijk overal waar je winst op kan pakken, is fijn. Maar mogelijk is dan niet waard om 1000 euro’s te investeren in capable monitor en gpu als je door netwerk vertraging, alle winst teniet doet.

Of zeg ik nu iets heel vreemds?
Voor een gemiddelde gamer maakt het in de praktijk waarschijnlijk weinig verschil. Maar voor iemand die competitief gamet, kan het juist een voorsprong opleveren of het speelveld gelijk trekken, afhankelijk van de situatie, de game en de gebruikte setup. Hoewel het verschil klein lijkt, telt elke milliseconde mee in snelle, competitieve games.
n hoeverre heeft netwerk hier invloed op? We hebben het over 1-2 ms winst maar ben zojuist overgestapt van odido naar kpn en ben van 9 ms naar 4 ms ping gegaan. Maar legio mensen maken gebruik van wifi en icm packetloss en 15 ms ping, is die winst er dan ook nog in competitive gaming?
Stel dat je tegenstander, met zelfde skills, een stabiele verbinding met 4 ms ping heeft, terwijl jij op wifi zit met 15 ms ping en packet loss. Zelfs als jij een betere monitor en GPU hebt, zal je verbinding de overhand krijgen in termen van nadelige effecten. Echter, als jullie beide een stabiele 4 ms ping hebben, kan een betere monitor en GPU je een klein, voordeel geven. Overdreven gezegd, herhaal dit scenario miljoenen keren, en je zult zien dat die kleine voordelen optellen en jou uiteindelijk beter laten presteren. Het is echter belangrijk om hierbij te blijven benadrukken dat deze winst steeds minder wordt naarmate alle factoren verder geoptimaliseerd zijn.

Belangrijk is dat je elk onderdeel van de latencyketen los bekijkt en beoordeelt op zijn eigen impact. Als je bijvoorbeeld schermen vergelijkt, moet je de vergelijking maken onder gelijke omstandigheden in de rest van de latencyketen. Dat betekent dat je ervan uitgaat dat netwerk, muis, systeem en andere factoren gelijk blijven. Alleen dan kun je beoordelen of een investering in een scherm of hogere refresh rate daadwerkelijk baat heeft. Doe je dat niet, dan maak je geen eerlijke vergelijking. Bovendien kun je in zo’n geval mogelijk beter investeren in een ander deel van de keten, zoals een beter netwerk of een stabielere verbinding zoals je aangeeft.

Gamers Nexus heeft een tijdje geleden een video geüpload over de gehele latency pipeline, wat mogelijk interessant kan zijn. Uiteindelijk is het maar een klein stukje van de gehele keten met enorm veel verschillende factoren (en menselijke factor niet eens in het overzicht meegenomen en voor deze casus ook irrelevant).

https://tweakers.net/foto...djt7P8WBadkr4Hy87u9GL.png
https://tweakers.net/foto...5r1m9DxGGeJ7g027jsxFs.png
en ook deze https://gamersnexus.net/u.../inline-images/2.png.webp

Een interessante video die ik een tijdje geleden tegen kwam van Aperture Grille over de Latency Split Test: Find Your Lag Threshold. Waarbij je zelf ook kan testen hoeveel jij nog merkt van latency. Bij gaming kunnen kleinere verhogingen in latency, zoals rond 8 ms worden gedetecteerd, zoals wordt aangetoond door tools die hij gebruiikt zoals de Latency Split Test. Hij stelt echter dat, hoewel je misschien in staat bent om in een testomgeving heel kleine verschillen in latency te detecteren (zoals 8 ms of lager), het in de praktijk van een echte game mogelijk minder uitmaakt.

Wat interessant is in deze context, is dat een hogere Hz-monitor deze tests mogelijk vergemakkelijkt. Dit komt doordat hogere refresh rates een soepelere en consistentere visuele weergave bieden, waardoor het eenvoudiger wordt om kleine latencies of verschillen in timing te detecteren.

Maar het feit blijft: Als jij en je tegenstander precies dezelfde setup enz enz hebben en tegelijkertijd op de knop drukken, maar je tegenstander gebruikt een controller met 1ms input-lag en jij een met 10ms, dan is de kans groot dat jij het onderspit delft. Die 9ms verschil kan net genoeg zijn om zijn schot eerder te laten registreren, waardoor jij wordt uitgeschakeld terwijl je schot mogelijk nog niet is geregistreerd, gezien een signaal niet kan tijdreizen.

Hetzelfde principe geldt bij een monitor met een hogere refresh rate, mits de rest van de keten gelijk blijft. Met een monitor met meer Hz zie je je tegenstander net iets eerder dan hij jou ziet. Hoewel dit verschil aanvankelijk alleen visueel lijkt, vertaalt het zich uiteindelijk in het eerder kunnen reageren en handelen, wat in een competitieve omgeving vaak het verschil maakt tussen winnen en verliezen of in ieder geval een voordeel.

Nog extra achtergrond voor de geïnteresseerde:
https://blurbusters.com/h...of-human-reaction-time/1/

Twee display latency tests met de gehele keten incl mens:
So with a display latency advantage of 5 ms, your winning percentage goes up to around 57%, which isn’t trivial. The key parameter in this simulation is how widely distributed reaction times are. If everyone had exactly the same reaction time, then a 5 ms display latency advantage would mean you’d win 100% of the time. So the more similar your reaction times are to your opponent, the more that other factors, like display latency, matter. If you run the same simulation with a much larger spread in reaction time (a standard deviation of 50 ms), then a 5 ms difference in display latency results in a win percentage of around 53%.
en
This shows about a 6.5% drop in accuracy that occurs when you add 20 ms of display latency, or about a 1.5% drop for every 5 ms. Again, this isn’t trivial. A well armored enemy in Quake Live has 300 units of damage protection, and each LG cell deals out 6 units of damage. If two fully armored opponents face each other with LG, where one player has a 33% LG, and the other has 31.5% LG, then the better player will survive the encounter with about 16 damage protection points to spare.
en hun conclusie:
We now have a bit of an idea of why input lag matters. But how should this information affect decisions you make around choosing a display, or modifying a display’s settings? First, you need to have access to reliable information about a given display. Being able to discern how much latency in the chain is due to the display itself, rather than to processes that occur earlier in the chain, is certainly important. Also, knowing how various settings, such as GSYNC, VSYNC, etc. affect latency will allow users to make intelligent decisions. Trading a few milliseconds of input lag for a radically smoother visual experience may be an excellent tradeoff in many gaming situations, but unacceptable in others.
(Display en input lantency zijn niet hetzelfde maar wel onderdeel van dezelfde totale latency keten, End-to-end system latency is peripheral, PC/Console en display latency samen.)

[Reactie gewijzigd door jdh009 op 4 januari 2025 17:48]

Anoniem: 76058 @jdh0094 januari 2025 16:29
Bijvoorbeeld bij hogere Hz-schermen: ook al zie je het misschien niet direct, feitelijke metingen laten zien dat je sneller reageert, meer consistent bent en beter presteert. Dat voordeel is er dus, ook als je het niet altijd doorhebt.
Hangt did ook niet af gewoon van je netwerk latency. Als je spreekt over competitive gaming, zoals fps games, op een lan achtige settings, zou ik begrijpen.

Maar als we spreken over het internet, waar je tussen de 15 a 200ms (afhankelijk van de servers waarop je speelt), de load van de servers, hoeveel keren dat de servers zelf updates doen (iets dat veel mensen niet weten, is dat servers niet iedere ms updates maar vaak met cycles werken) enz.

De Linux test dat je bijvoorbeeld aanhaalde, was op een locale lan, aka, waar je sub 1ms respond tijd hebt, dat dan nog eens op ethernet was (aka geen wifi jitter). Introduceer een hoop variable zoals wifi, muis / keyboard wireless, internet latency, de servers ... En ineens gaat dat voordeel van de hogere fps, de deur uit...

Voor de meeste mensen is 120fps in dit omstandigheden gewoon de sweet spot, alles daarboven vereist enorme goede reflex, training, goede verbinding enz enz. Waardoor we terugkomen op het typisch issue, is het dit waard voor de normale man van de straat? Nowp ... Maar het is weeral een leuk verkoopargument.

Zo een 300, 500fps monitors hebben enkel lichte voordelen voor mensen dat als professional gamers spelen in toernooien dat op een lan staan, met local servers, alles wired enz.

M.a.w, ja, mensen mits training kunnen voordelen halen uit hoger fps monitors, maar enkel tot een bepaald punt, waar andere zaken dan weer de bottleneck vormen.
Dan ga je in op een punt waar ik hier aanhaal: jdh009 in 'Gigabyte introduceert QD-oled-monitor met 500Hz-refreshrate'
Hangt did ook niet af gewoon van je netwerk latency. Als je spreekt over competitive gaming, zoals fps games, op een lan achtige settings, zou ik begrijpen.
Ik wil een nuance aanbrengen in je punt: de impact van hogere framerates is niet afhankelijk van andere factoren, zoals netwerk latency, server cycles of wifi-jitter. De voordelen van hogere refresh rates bestaan op zichzelf en zijn meetbaar in geïsoleerde testsituaties. Wat wél klopt, is dat die voordelen in de praktijk kunnen worden gemaskeerd als andere factoren, zoals een slechte netwerkverbinding of hoge input-lag, de grootste bottleneck vormen. Maar dat maakt een hogere Hz-monitor niet an sich slechter. Het kan simpelweg betekenen dat een investering in een andere bottleneck, zoals een beter netwerk, voor jouw setup meer waarde oplevert.

Daarom hamer ik op het belang van gelijke omstandigheden bij vergelijkingen. Als je bijvoorbeeld het effect van een hogere refresh rate wilt meten, moeten andere factoren in de keten constant blijven. Dit is ook enorm belangrijk bij reviews. Meer ruis toevoegen door variabelen zoals wifi of server cycles te veranderen, maakt de vergelijking oneerlijk. Dit is vergelijkbaar met wetenschappelijk onderzoek: je probeert één variabele te isoleren, meet de impact, en plaatst de resultaten daarna terug in de bredere context om ze te evalueren.

Zoals ik aanhaal in mijn andere reacties klopt het dat hier meer variabelen een rol spelen en dat de voordelen van een hogere refresh rate minder direct merkbaar kunnen zijn. Maar dat maakt niet dat de voordelen niet er niet zijn. Voor competitieve gamers, zelfs online, kunnen die kleine verbeteringen een verschil maken, mits de andere factoren in de keten redelijk zijn geoptimaliseerd en je tegenstander een gelijke set-up of minder heeft.

Dit is waarom het erbij halen van menselijke eigenschappen zoals reactietijd weinig zin heeft in deze context. Reactietijd varieert van persoon tot persoon en staat los van de technische voordelen van een setup. Uiteindelijk kan je, als je een slechtere reactie tijd hebt, een (klein) deel goed maken of bij een goede reactietijd je voordeel vergoten.

Wat ik eerder zei, blijft echter staan:
Als jij en je tegenstander precies dezelfde setup enz enz hebben en tegelijkertijd op de knop drukken, maar je tegenstander gebruikt een controller met 1ms input-lag en jij een met 10ms, dan is de kans groot dat jij het onderspit delft. Die 9ms verschil kan net genoeg zijn om zijn schot eerder te laten registreren, waardoor jij wordt uitgeschakeld terwijl je schot mogelijk nog niet is geregistreerd, gezien een signaal niet kan tijdreizen.

Hetzelfde principe geldt bij een monitor met een hogere refresh rate, mits de rest van de keten gelijk blijft. Met een monitor met meer Hz zie je je tegenstander net iets eerder dan hij jou ziet. Hoewel dit verschil aanvankelijk alleen visueel lijkt, vertaalt het zich uiteindelijk in het eerder kunnen reageren en handelen, wat in een competitieve omgeving vaak het verschil maakt tussen winnen en verliezen of in ieder geval een voordeel
In de keten zijn er trouwens nog veel meer elementen die nog steeds worden niet helemaal goed in een bepaald getal vast te leggen zijn en o.a. uitzocht worden door bijv. GN.
PresentMon 2.0 will also show simulation time error, a representation of stuttering. Whereas frametime measures variations in the delivery interval for each frame, simulation time error directly measures errors or a mismatching of game animation / the game state and the frame being presented. In other words, when the game just sort of feels bad but doesn't necessarily have a direct latency problem or frametime problem. This might be an instance where the simulation is erroneously matched to the frame being presented, meaning you're viewing data which is effectively out of sync with the visual, despite a potentially good frametime itself.
Bron: https://gamersnexus.net/g...or-engineering-discussion

Iets wat ik nog een keer toe moet voegen aan mijn hele verhaal.

[Reactie gewijzigd door jdh009 op 4 januari 2025 19:27]

Toch vraag ik me af of een hogere framerate nut heeft voor gaming. Een hogere framerate verbetert weliswaar de beeldkwaliteit en vermindert motion sickness bij VR, maar onze occipitale kwab kan maximaal 75 beelden per seconde verwerken (dit is bij hoge uitzondering, de meesten kunnen tot 60 beelden per seconde verwerken). Het is dus fysiek onmogelijk voor een mens om op een hogere framerate te reageren, omdat het brein die überhaupt nog niet eens kan verwerken. (Let op: ik zeg expres 'reageren', want we kunnen het wel waarnemen, maar alles wat sneller is dan 60 beelden per seconde kunnen wij niet verwerken tot informatie en hierop reageren in de vorm van beweging. Dit is gewoon een biologische limiet waar we tegenaan zitten.)
Toch vraag ik me af of een hogere framerate nut heeft voor gaming.
Het antwoord hierop is een volmondig ja, zeker in een competitieve context. Zoals ik in mijn eerdere reactie al aangaf, zijn er verschillende wetenschappelijke studies en praktijkvoorbeelden die duidelijk de voordelen aantonen van hogere framerates. Deze gaan verder dan alleen visuele verbeteringen en hebben een directe impact op reactiesnelheid en consistentie.
[..] maar onze occipitale kwab kan maximaal 75 beelden per seconde verwerken
Ik zou graag de bron zien van deze bewering, aangezien dit niet overeenkomt met bestaande studies en experimenten die ik eerder heb gedeeld. Zoals ik al aangaf in mijn eerdere reactie, ligt de menselijke waarneming niet vast op een specifiek maximum aantal beelden per seconde. Dit wordt o.a. bevestigd door tests die ik op heb genomen met Air Force-piloten, waaruit bleek dat zij een vliegtuig konden identificeren in een beeld dat slechts 1/220e van een seconde werd getoond. Dit suggereert dat het menselijk brein in staat is om uiterst korte visuele stimuli te verwerken.
Het is dus fysiek onmogelijk voor een mens om op een hogere framerate te reageren, omdat het brein die überhaupt nog niet eens kan verwerken.
In gaming vertaalt dit vermogen zich naar het effectief benutten van hogere framerates, omdat deze kleine, maar belangrijke voordelen kunnen bieden in situaties waar snelheid en precisie van meerwaarde zijn. Bovendien verwerken we niet elk detail op het scherm, maar richten we ons op specifieke informatie, zoals veranderingen en beweging, iets waar ons brein bijzonder goed in is, zoals goed onderbouwd in de neurowetenschappen en visuele cognitieve wetenschap. Dit verklaart waarom we redelijk goed zijn in het herkennen van bewegende objecten en/of potentiële bedreigingen in plaats van het volledige beeld volledig te mmoeten analyseren.

Zie ook het volgende citaat uit mijn eerdere reactie:
Wat is de max?
Tests with Air force pilots have shown, that they could identify the plane on a flashed picture that was flashed only for 1/220th of a second. That is identifying. So it's pretty safe to say, that recognizing, that SOME light was there is possible with 1/300th of a second.
http://www.100fps.com/how_many_frames_can_humans_see.htm
Word in dit filmpje vanaf +/- 4:00 ook kort op ingegaan.
Sterker nog, experimenten (zoals die van Linus Tech Tips met CS:GO) laten zien dat zelfs casual gamers baat hebben bij hogere refresh rates tot 240 Hz in die video. Dit wordt nog eens ondersteund door onderzoeken, zoals die van de Universiteit van Nottingham en Purdue University die ik aanhaal, die aantonen dat spelers met schermen van 144 Hz en hoger significant beter presteren dan spelers met 60 Hz-schermen. Als 75hz echt de max zou zijn, dan zou je die verschillen niet zien.
. (Let op: ik zeg expres 'reageren', want we kunnen het wel waarnemen, maar alles wat sneller is dan 60 beelden per seconde kunnen wij niet verwerken tot informatie en hierop reageren in de vorm van beweging. Dit is gewoon een biologische limiet waar we tegenaan zitten.)
Hogere framerates verbeteren niet alleen wat je ziet, maar ook hoe snel je kunt reageren. Dit wordt ook uitgelegd in de Nvidia-video die ik deelde, waarbij hogere fps een fractie van een seconde eerder zichtbare informatie levert. Hoewel de voordelen afnemen naarmate de framerate extreem hoog wordt, verdwijnen ze niet volledig; de verbeteringen worden alleen kleiner met iedere stap omhoog. Er is geen harde "biologische limiet en zal waarschijnlijk net zoals vele andere facetten, van persoon tot persoon enorm verschillen.

Zie ook Mars4i reactie over hoeveel pixel dit kan schelen: Mars4i in 'Gigabyte introduceert QD-oled-monitor met 500Hz-refreshrate'

Om mezelf te herhalen:
Je hoeft het verschil niet altijd bewust te merken om er toch voordeel van te hebben. Bij sommige dingen merk ik zelf ook niet direct verschil, maar als je het meet, blijkt het gewoon beter te zijn (daarom wil je ook data driven werken). Bijvoorbeeld bij hogere Hz-schermen: ook al zie je het misschien niet direct, feitelijke metingen laten zien dat je sneller reageert, meer consistent bent en beter presteert. Dat voordeel is er dus, ook als je het niet altijd doorhebt.

[Reactie gewijzigd door jdh009 op 4 januari 2025 15:43]

Nee dat klopt echt niet, om een hele simpele reden. Je brein is geen computer. Je ogen zijn ook geen camera's. Ze sturen geen frames door en je brein werkt ook niet in frames. Dat zijn artificiële zaken die wij verzonnen hebben om de echte wereld te benaderen. Wij werken analoog, continu (al kunnen er wel onderbrekingen in zitten en werkt ons brein nog veel maffer, zoek maar eens op stopped clock illusion).

Een hele makkelijke manier om dit te demonstreren is je muis snel heen en weer bewegen over een donkere achtergrond. Je ziet dan niet één cursor in een vloeiende beweging maar een heleboel losse projecties van die cursor. Het verschil tussen de posities is namelijk te groot voor je brein om het als een bewegend object te herkennen. Probeer het dan op een hogere refreshrate en je ziet meer projecties met kleinere stapjes er tussen. Als wat jij zegt zou kloppen dan zou je dat verschil al niet waar kunnen nemen.

Kanttekening daarbij, bovenstaand is niet helemaal waar want als het scherm waar je naar kijkt ghosting heeft zou je het alsnog kunnen zien zelfs met een 60 Hz camera, maar ook op schermen met nauwelijks ghosting zoals oled zie je dit effect. Bovendien, als je deze test toch uitvoert, pak dan ook eens een window beet en schuif die wat heen en weer. Je zult onmiddellijk merken dat dat veel soepeler voelt bij een hogere refreshrate. Dat is vooral als je van 60 naar meer gaat, er zijn wel diminishing returns, maar dan komen die wetenschappelijke resultaten die @jdh009 zo mooi toont om de hoek en die laten zien dat het verschil er weldegelijk nog is. Alleen zoals hij ook zegt is het maar één factor en hoe kleiner de verschillen worden hoe groter de kans dat andere factoren de winst teniet doen. Maar bij alle andere factoren gelijk is het absoluut een mogelijke winst.
Het enige hoe dit kan testen is dat met een blinde test te doen.

Ik betwijfel of de doorsnee gamer ene verschil merkt, misschien de pro. Of het een verschil in game is vraag ik me af. Je spraakt immers van een verschil van 0.6ms 360hz vs 500hz .
Je noemt heel specifiek 360 vs 500. Waarom die? jdh009 geeft heel veel uitleg en links naar allerlei artikelen, waarin professionals testen, video's laten zien. Zo wel pro gamers als amateurs en dat er juist bij amateurs winst te behalen valt..... en jij trekt dat in twijfel?

Wellicht dat een test net iets beter kan, of net iets geavanceerder. Echter als die testen allemaal dit uitleggen en tot dezelfde conclusie komen... Dan zou ik dat niet meer in twijfel nemen.
Omdat 360hz monitoren er wel al een tijdje zijn en dus wat verpreid zullen zijn.

EN ja omdat het meeste van dat bewijs gaat over veel lagere refresh rates. Niemand stelt het verschil tussen 60 of 120 hz schermen vs 500hz schermen in twijfel, het gaat over diegene daar ver boven dus 3-400 vs 500.

En ik zie nergens een blinde test . De "ik merk het van zodra ik de monitor aanzet" is onzin als je 360hz vs 500hz vergelijkt. Je spreek dan van enkele ms verschil .
Die 360 is maar een paar %, daarmee kun je dat niet als standaard of de norm hanteren.
Het gross kijkt nog naar een 60 of 90 variant, met steeds meer mensen naar 120.

Ontwikkeling gaat altijd door, en ook in de artikelen van jdh009 worden die genoemd met hoge refresh rates. Uit zijn citaten blijkt dat van 144 naar 240 significante verbeteringen zijn, en hij stelt ook dat het een afnemende meer opbrengst is, die er wel is voor sommigen of in sommige situaties. Allemaal nette bewezen stellingen, ook nog onderzocht, terwijl jij dat simpel afdoet als onzin... Lekker makkelijk. Te makkelijken al helemaal voor iemand dan wil dat er blinde testen gedaan worden... :D :/
Mensen die hierin intresse hebben zullen zo'n monitoren hebben.
We spreken hier van een heel beperkte doelgroep die EN de GPU EN de CPU EN de multiplayer games op een hoog genoeg nivuea spelen om effectief verschil te kunnen merken.

En nogmaals zijn artikels komen niet in de buurt van 500hz dus ja een artikel over hoe dan 200hz beter is dan 120 is nutteloos in deze discussie.
Ter info van 144->240 is van 7ms naar 4ms
Van 240 naar 500 is van 4ms naar 2ms .
Er is naast de gaming industry nog een ander voordeel.
Vaak niet benoemd en het zal zeker niet voor iedereen gelden.

Er zijn genoemd mensen met enige mate van gevoeligheid voor licht / flikkerend licht e.d. Mensen met migraine o.a.
Des te soepelen het beeld, des te minder last men kan hebben. Dit verschilt zeker per individue, maar 60 vs 144 helpt enorm, waarbij 240 nog fijner is. Het zal een afnemend effect zijn, zoals je aangeeft.
Wat een uitgebreide en goede uitleg. Ik heb een hoop geleerd! O+
Ik ervaar het zelf ook, heb een laptop gekocht waar per toeval een 300hz monitor in zit, en het paneel doet het ook echt, het is geen getalletje voor de show. Als ik nadien op men desktop achter een 165hz zit, dan controleer ik soms of het niet terug op 60hz teruggevallen is. Maar nee, dat gebeurt eigenlijk bijna nooit. Maar het voelt wel zo na een 300hz scherm. De twijfel is er alvast. Nu moet ik wel zeggen dat dat beeldscherm van 165hz, het paneel zelf maar 120hz effectief kan laten zien.
Nu moet ik wel zeggen dat dat beeldscherm van 165hz, het paneel zelf maar 120hz effectief kan laten zien.
Hoe werkt dat dan?
Alles van het scherm kan 165hz aan, behalve de pixels zelf, die kunnen niet sneller schakelen tussen kleuren dan 120hz. Dus dat is de uiterste limiet. An sich zou het niet veel uitmaken of die monitor op 120hz of op 165hz staat.
Zo werkt dat volgens mij toch niet helemaal. Waar jij op doelt is hoe snel de pixels van de ene kleur in de andere kunnen veranderen. Maar als je het scherm op 165 Hz zet ipv 120 dan begint de pixel alsnog eerder met dat veranderen. Alleen bij zeer snelle bewegingen heeft de pixel niet de tijd om zijn eindstand te bereiken voor hij alweer aangestuurd wordt voor het volgende frame. Het effect is dat het beeld dus waziger is want tijdens snelle bewegingen heb je nergens een moment waar het frame volledig correct wordt weergegeven.

Maar stel nou je doet een flick en houdt dan je beeld stil. De pixels krijgen dan de tijd om wel op hun eindpunt te komen. Bij 165 Hz is het moment dat ze beginnen met het eerste frame te tonen waarbij je stil staat nog steeds iets eerder dan bij 120 Hz (tussen 0 en 1/165e seconde na het ontvangen van het signaal van de videokaart en eventuele processing in de monitor tegenover tussen 0 en 1/120e seconde). Het verschil is klein maar is er wel.
Het helpt maar de stap tussen 144hz en 240hz was al enorm klein. Dat terwijl lichtopbrengst van Oled monitoren nogsteeds niet geweldig zijn. Dat is het grote compromis van Oled en ik zie ze liever daar verbeteringen in maken.
Als het als gebruiker niet mogelijk is om het verschil te merken dan is het niet nodig om er geld aan uit te geven.

Dat gezegd hebbende, 500Hz is helemaal zo snel nog niet, en voor het geen de meeste mensen kunnen waarnemen kunnen we nog flink wat verder omhoog gaan met de refresh rate. Nu is er een ander verhaal en dat is of de gemiddelde mens ook snel genoeg kan reageren om er iets aan te hebben dat ze het verschil kunnen waarnemen. En dat is iets waar je alleen achter kunt komen door de gemiddelde mens van schermen met een hoge refresh rate te voorzien. Tot die tijd is de sample size voor elk onderzoek simpel weg te klein om een conclusie te trekken die ook door getrokken kan worden naar de gemiddelde persoon die deze taak uitvoert of dat spel speelt etc.
Kijk voor de grap alleen maar eens naar het verschil tussen een pro fortnite speler en een pro starcraft speler deze games hebben niet echt een overlap en voor het ene spel zal een pro misschien heel erg veel baat hebben bij een hogere refresh rate waar voor de andere een hoge polling rate voor het keyboard veel belangrijker is en 100KHz of 240Hz refresh rate voor het scherm eigenlijk niets uitmaakt.

Maar zo als ik in het begin al zei, als je het verschil niet door hebt is het product niet beter voor jouw dan is het alleen duurder. Audio apparatuur kan extreem duur zijn of goed betaalbaar. Zelfs iets simpels als een BT speaker kan voor minder dan 50 euro gekocht worden of honderden euro's kosten. Als je het verschil niet hoort en zelfs als je het verschil wel hoort maar de 50 euro kostende speaker goed genoeg vind voor in de schuur dan zijn de duurdere opties voor jouw simpel weg onnodig en daarom te duur.
Ik snap dat het voor gaming nut kan hebben maar voor mensen die gewoon aan het werk zijn achter hun computer dan betwijfel ik het. Ik heb zelf een 165 hertz scherm en ik kan het zien maar of het verder helpt weet ik niet. Het lijkt mij wel beter voor je ogen.
Volgens mij zie je vanaf 100 hz nauwelijks nog verschil en vanaf 160- 200 kan het menselijk oog en brein het niet meer zien. Licht/stroom heeft 50 hz en dat zier er al vloeiend uit. 500hz is marketing net als 8k op een scherm kleiner dan 55 inch.
Je moet wel blind zijn om dit te beweren.
Ga maar naar een oogarts, je moet makelijk tot over 500hz kunnen waarnemen.
En btw. 60hz op je telefoon is super slecht en 120hz veel beter.
Dat is klinklare onzin.
1/500e van een seconde is 2ms dat is heeeeeel kort om iets waar te nemen.
En toch doe je het.
Elke dag. In de echte wereld. ( je weet wel die als je uit het raam kijkt.)
Tuurlijk 20% ziet geen verschil tussen 60 & 120hz maar 340 of 400 vs 500 zou plots geen probleem zijn.
120hz geen 500hz
Gebruik je hoofd eens.
Een bliksemflits is duidelijk te zien.
De flits van een knal ook.
Allemaal veel korter
Dat is licht wat achterblijft op je retina EN dat in totaal een 200ms duurt.
Hier spreken we van een extra tussenliggend beeld dat 2 ms blijft.

Lol try again.
Ga maar ff gamen op 300 hz dan merk je het wel.
Ik heb een 4090 en game op 4k, er is geen pc die dat kan trekken in de games dat ik speel.
EN moest het dat toch doen zou dat compleet nutteloos zijn.
Dat is jouw mening.
Het probleem is dat jij je hoofd gebruikt. Over iets waarvan je geen kennis hebt. Maar je bent niet de enige. Er is weinig onderzoek over te vinden. De test die linus tech heeft gedaan ken ik niet. Daar ben ik eigenlijk wel benieuwd naar. Wetenschappers lopen er tegenaan dat het moeilijk te meten is wat mensen observeren. Tot noch toe lijken mensen tot in elk geval 150 hz te kunnen waarnemen. Daarna wordt het lastig.
Volgens mij moet je eerst maar eens wat zelf proberen ipv de meute na te blaten.
Wat betreft de grote van monitors een kleine toevoeging. Een reden waarom pro gamers over het algemeen ook 16:9 schermen prefereren over bijv ultra wide is omdat veel competitieve games op ultra wide schermen de verticale resolutie beperken, ofwel je verliest een deel van je hoogte omdat ze als het ware het beeld inzoomen. Een aantal games, zoals bijvoorbeeld Rocket league doen dit niet en geven je dus meer visie op de horizontale as, waardoor je dus theoretisch een competitief voordeel hebt omdat je dus eerder iets ziet aan de zijkanten van je blikveld.
Mooie aanvulling met interesse gelezen 👍
Je hebt een heel mooi verhaal geschreven maar gaat niet in op het daadwerklijke voordeel van 500Hz tov zeg 240Hz. Het is niet de vraag of een hogere refreshrate voordeel oplevert, tuurlijk doet het dat. De vraag is wanneer dit verschil zo minimaal is dat het praktisch voordeel nihil is.
Het punt is dat er een moment gaat komen dat de harde specs opkrikken praktisch niks meer doet (zelfde als het gaat om resolutie, 8K is geen verbetering tov van 4K als je het hebt over een 20 inch scherm). Maar wanneer de volgende fabrikant zijn 750Hz, 1000Hz, 2000Hz monitor op de markt kun je bovenstaande post gewoon weer copy-pasten, want *mogelijk* hebben competitieve gamers, welke een extreme niche zijn, er miniem baat bij.
Marketing, noemen we dat.
Dit is wellicht de meest diepgaande en inhoudelijke reactie op Tweakers die ik sinds lange tijd heb gezien. Bravo!

Het laat nog steeds zien dat Tweakers een plek voor echte enthousiastelingen is.
Daarom is beter dat FPs in competitie gecapt word, zodat alle partijen gelijke kansen hebben. Eigenlijk zou je dit bij alle online multiplayer games willen. Zodat niet alleen de grootste wales de beste kansen hebben.
Waarom zou je een 500Hz paneel locken op 144Hz "omdat je toch niet meer ziet"?

Vet toch dat de techniek bestaat :) OLED is sowieso al mega fijn met bewegende beelden, het ververst veel sneller dan een LCD kan.
Energiebesparing, is natuurlijk sterk afhankelijk wat je speelt.
Linus Tech Tips heeft een keer een test gedaan om te kijken of het nou echt veel uitmaakt of je gamet op 60, 144 of 240 Hz. Het verschil tussen 60 en 144 bleek enorm te zijn. Ook de opstap naar 240 was een verbetering, maar wel een veel kleiner verschil.

Laatst heb ik zelf een 144 Hz-monitor gekocht, en dat merk je echt heel duidelijk. Zelfs al zit je gewoon op nu.nl of tweakers.net op en neer te scrollen door het nieuws, dat gaat veel vloeiender. In games is het verschil heel overtuigend. Misschien niet in scores (want ik ben bepaald geen pro-gamer) maar je voelt gewoon dat alles soepeler over het scherm glijdt.

[Reactie gewijzigd door Bergen op 6 januari 2025 08:19]

Het zijn ook voornamelijk mensen die nog nooit een zeer hoge refresh monitor gebruikt hebben die zeggen dat het niets uitmaakt.
Als je een object volgt met je ogen over het scherm? Probeer maar eens op testufo
Je moet je sweet spot vinden. Ik kan aan niets wennen onder 300 Hz. Ik heb lange tijd op 390 Hz gegamed en vind 240 Hz niet meer te doen.

Voor hetzelfde geldt dat ik 240 Hz prima had kunnen vinden en 360 Hz overbodig had kunnen lijken.

Het is persoonlijke voorkeur, my guy.

Test en beslis. De een is gevoeliger dan de ander.
Nja, jouw ogen kijken niet in Hertz. Dus je kan niet meten of je het nog met je ogen ziet.

Is het niet zo dat ogen een oneindigheid aan vloeiende bewegingen kan zien? Oftewel, het zal altijd een verbetering zijn?
Ik kan prima 120hz en 165 of hoger onderscheiden.
Ben laatst van 144 en 60 naar 2x 360 gegaan. Het verschil tussen 60 en 144 merk je echt gelijk. 360 is voor mij echt zwaar overbodig. Ben verder wel blij met mijn OLED scherm :-)
Korte antwoord: ja.

Langere antwoord: ja, mits jij competitieve games speelt waar je framerates van boven de 500 haalt, en op een niveau speelt waar iedere milliseconde telt.

Komt eigenlijk neer op counter strike en/of valorant tot op heden.

De sprong van 60 naar 144 is gigantisch, die van 144 naar 240 niet zo. Echter, van 144, 240 naar 480 of dus 500 is wel echt gigantisch, check de video van optimum tech maar eens.
De sprong van 60 naar 144 is gigantisch, die van 144 naar 240 niet zo. Echter, van 144, 240 naar 480 of dus 500 is wel echt gigantisch, check de video van optimum tech maar eens.
144 -> 244 is x1.67.
240 -> 480 is x2.
Als die laatste gigantisch is dan moet 144 -> 244 toch ook wel zoden aan de dijk zetten.
Mathematisch klopt het wat je zegt maar technisch is een ander verhaal. Als je interesse hebt bekijk de video van optimum eens (YouTube: 540Hz gaming is something else.) hij legt het goed uit.
Uiteraard is het sneller maar de stap is niet zo groot als je doet vermoeden.

1s/60frames=16.67ms per frame
1s/120frames=8.33ms per frame
1s/240frames=4.16ms per frame
1s/480frames=2.13ms per frame

Elke opvolgende verdubbeling levert maar de helft snellere frames tov de vorige verdubbeling in fps. Die 1.67x levert daarom dus meer ms verschil op dan die 2x erna ;)

[Reactie gewijzigd door watercoolertje op 4 januari 2025 18:37]

Juist niet, het gaat om verversing snelheid he,

60hz=16.6ms
120hz=8.3ms
240hz=4.2ms
480hz=2.1ms
500hz=2ms

De verschillen worden steeds kleiner
60->120 = -8.33ms
120->500=-6.3ms
edit: ik had het antwoord van @jdh009 nog niet gelezen, dank voor de links, interessant

Volgens mij gaat het helemaal niet om milliseconden. Recht vooruit kijkend zien we ongeveer 60 MHz om iets vloeiend te zien maar vanuit de periferie kunnen we sneller beweging waarnemen, tot ongeveer 120 MHz. Het draagt biuj tot het vloeiend zien van een beweging, niet of je sneller kan reageren. Of je het verschil zien tussen 120, 240 of 500 MHz, zou je een Pepsi test voor moeten doen, en hoogtswaarschijnlijk zijn de antwoorden in de trand van: " ik vind dat scherm echt duidelijk vloeiender" en dan de verkeerde aanwijzen. :+
Een video over dit fenomeen zal ook weer in 60MHz of in je scherm frequentie worden weergegeven dus hoe kun je dat dat weergeven?

[Reactie gewijzigd door tw_gotcha op 4 januari 2025 13:57]

Recht vooruit kijkend zien we ongeveer 60 MHz om iets vloeiend
Waar staat die M voor? :D
Sorry , maar dit is onzin. Lees de post van @jdh009 er even op na. Het verschil voor mij tussen 60 en 144 hz is bizar groot. 60 hz (en fps) voelt voor mij niet meer soepel, eerder stroperig, omdat (naast de refreshrate) mijn hardware het scherm ook kan aansturen en ik bij de meeste games ook 120 tot 144 fps haal. En dat verschil is voor 95% van de mensen prima te zien en merken (uit eigen ervaring).
Precies en met hogere framerates word het verschil alleen maar groter.
Een hoop theorie, maar in de praktijk moet je zo lijp snel heen en weer bewegen met je muis om het verschil te zien, dat het in de categorie 'gimmick' valt.
Visueel zullen velen nog het verschil zien tussen 120 en 240 beeldjes per seconde, maar dan is het verschil qua reactie al teniet gedaan.

2,8ms of 2ms (jdh009 zijn bericht) gaat niet het verschil maken. De kans dat die 0,8ms er toe doet in een profesionele match is zo astronomisch klein, dat je veilig kan zeggen: Alles boven de 240hz is onzin, 120-240 is al top segment voor de liefhebber en de kroegtijger.
Het verschil tussen 144hz en 500hz is zeer makkelijk te waarnemen voor gamers die veel op hoge fps gamen, ja als je op 60 fps speelt ga je het verschil tussen 144hz en 500hz niet merken, als je op 500+ fps speelt is het heel makkelijk waarneembaar, je gameplay is voor vloeiender, je beeld is veel minder blurry als je snel heen en weer beweegt met je cursor. ( image clarity)

Ik heb al lang een 240hz monitor, en speelde lang op 240hz 300+ fps, toen ging ik naar een langzamere pc met hetzelfde scherm op 120 hz want ik haalde maar 120fps, en het was duidelijk een downgrade.

Hoe kom je er eigenlijk bij dat onze hersenen niet boven de 144hz kunnen onderscheiden? Heb je dat ergens gelezen of is dat gewoon een onderbuikgevoel?
Sommige willen de waarheid gewoon niet horen, vandaar dat ze mijn comment ook een -1 geven.
De fabrikanten introduceren de nieuwe monitor modellen allemaal rond dezelfde tijd?
CES binnenkort dus druk seizoen voor fabrikanten.
Allemaal dezelfde Samsung OLED panelen die zojuist aangekondigde zijn door Samsung. Komen dus nog wat meer merken voorbij komende dagen met deze nieuwe Samsung panelen.
De fabrikanten introduceren de nieuwe monitor modellen allemaal rond dezelfde tijd?
Ja, want ze zijn veelal gebaseerd op hetzelfde paneel.
Hier ga je toch pas echt pas profijt van hebben als je achter je beeldscherm zit met 10 red bulls in je mik? 240hz kan ik nog wel op inkomen maar 500hz kan het menselijk oog normaal toch al niet meer verwerken?
Het menselijk oog kan dat wel maar enkel als het gaat over redelijk grote verschillen, in een game setting zal je dus weinig/geen verschil merken tussen 360fps & 500fps
500hz is makelijk zichtbaar, veel meer ook.
Je oog heeft geen refresh. De werkelijkheid ook niet.
Dacht dat Display Port wel een beetje dood was, mijn nieuwer kaarten hebben allemaal meerdere HDMI poorten en Displaypoorten, terwijl kaartjes die ik heb die iets ouder zijn 1 HDMI hebben en de rest Display Poort.

@KnuCha @nhanssen Ik denk ook dat het alleen maar een verkoop praatje is, dat ga je echt nooit zien, denk dat boven de 144Hz al snel ophoud.
Dat denk ik persoonlijk ook, tot het moment dat je brein / ogen te overclocken zijn is dit niks anders dan verkooponzin.
Je oog kan makkelijk 500hz waarnemen, je brein heeft geen refresh.
Je hebt dus geen overclock nodig.
Er is geen vaste FPS die de mens “heeft,” maar het menselijk oog kan beelden waarnemen tot ongeveer 60 FPS, afhankelijk van de persoon en de situatie. Voor hogere snelheden, zoals bij competitieve games, kunnen mensen verschillen merken tot 120 FPS, dit zijn gewoon feiten.
Misschien haal je het gehoor en visual zicht door elkaar want menselijk gehoor heeft een bereik voor geluidfrequenties tussen ongeveer 20 en 20.000 Hertz.
https://www.humedia.nl/wa...el-fps-kan-een-mens-zien/
Lachen man.
Competitieve gamers zitten op 300hz plus, vast onzin volgens jou.
Maar ja, je bent dan ook geen competitieve gamer, alleen iemand met een rare mening.
Oh, ja je telefoon upgrade van 60 naar 120 hz is dus volgens jou eigenlijk ook onzin.
Uiteraard kan je oog het makkelijk zien maar of je verschil waarneemt is wat anders. Je ogen hebben ook geen "resolutie" en kunnen makkelijk 8K kunnen zien maar of je een verschil waarneemt tussen 8k en 4k is een ander verhaal.
Die nieuwe mac M4 Pro CPU doet DisplayPort 2.1 (De gewone M4 doet nog DP 1.4). Het gerucht gaat dat de nieuwe RTX5080 ook Displayport krijgt, wellicht zelfs 2.1

nieuws: Verpakking Nvidia RTX 5080 verschenen, vermeende tdp's RTX 5080 en 50...
Ligt er net aan welk merk videokaart je pakt volgens mij. De meeste lijken alsnog voornamelijk display port te hebben. DP is afaik ook nog het meest gebruikt voor gaming systemen/monitoren.

Tenzij je een moderne Nvidia hebt met een hoge refreshrate 4k monitor, omdat Nvidia HDMI 2.1 en DP1.4 heeft in de 4000 serie. HDMI 2.1 heeft meer bandbreedte dan DP1.4. Bij DP1.4 zou je dus DSC moeten gebruiken op 4k met hoge refreshrate (wat nauwelijks merkbaar zou moeten zijn).
Leuk hoor, maar ik zou veel liever betaalbare (tot 1000 euro) monitoren willen zien met een goede beeldkwaliteit, geschikt voor video beeldbewerking. Denk aan simpele zaken als hardwarematige kalibratie, een echte contrastratio van > 1000:1 en een geschikte beeldruimte. Ze zijn er helaas nog niet. Het lijkt dat gaming het enige is voor producenten.
Gamers zijn zeer hoge bedragen bereid te betalen. Zoals 2500 euro voor een GPU of 1100 euro voor een 27 inch monitor. Een gemiddelde consumente ziet geen verschil tussen 144Hz en 500Hz en is daar niet bereid een 5x hoger bedrag voor te betalen.

FPS en Hz zijn dingen wat gamers belangrijk vinden en flink voor willen betalen. Contrastratio niet.
Een combinatie van eigenschappen zou mooi zijn. Ik stond op het punt om de Eizo CG2700X te kopen, maar voor gaming zou het nauwelijks geschikt zijn. In combineer graag beiden. Ik wacht nog op een fatsoenlijke monitor.
Voor mij heeft meer dan 30 Hz al geen zin (daar draait mijn monitor op omdat ie op een 30 Hz switch zit), maar ik speel dan ook geen games waarbij snelle reactie nodig is. Voor mij is een zo mat mogelijk scherm veel belangrijker dan een hoge Hz, elke glossy spiegeling verknalt het kijkplezier.

[Reactie gewijzigd door kimborntobewild op 4 januari 2025 14:41]

Nou ik heb een verrassing voor je, ze hebben dit scherm dus niet specifiek voor jou ontwikkeld.
Ik zou onder de 60hz in het OS al niet chill vinden, muisbewegingen/slepen van vensters/animaties/scrollen voor mij niet om aan te zien met 30hz.

Maar mooi dat jij daar geen moeite mee hebt!

[Reactie gewijzigd door watercoolertje op 4 januari 2025 18:46]

Ik had een tijd een hoog refresh rate scherm met ernaast 2 van 60Hz. Er waren momenten dat ik dacht dat de 60Hz schermen stuk waren omdat ze zo enorm haperden. Als ik urenlang op een 60Hz scherm moet werken ben ik er niet meer bewust van, maar vooral als je het naast elkaar hebt staan is het verschil toch wel immens.
Ik zou onder de 60hz in het OS al niet chill vinden, muisbewegingen/slepen van vensters/animaties/scrollen voor mij niet om aan te zien met 30hz.
Gebruik jij de configuratie instelling 'Vloeiend verschuiven' in Windows? (Weet even niet waar dat zit.)
Ik zelf vind dat vreselijk. Wordt er misselijk van.
30Hz LOL.
Je moet gamen wel haten.
30Hz LOL.
Je moet gamen wel haten.
Nee hoor, ik speel o.a. veel schaak, en wat sim games.
Krijg het idee dat maximaal hertz een marketing ding gaat worden.
Verschil tussen 60>144 groot, 144>360 minimaal, en 500hz?

(Ja ik ben bekend met motion blur dat in theorie nog kan verminderen, 1000hz bijv zou je in theorie nog maar 1ms latency hebben).

[Reactie gewijzigd door mr_evil08 op 4 januari 2025 13:17]

Krijg het idee dat maximaal hertz een marketing ding gaat worden.
Wat is een "marketing ding"? En wat is het probleem?
Zo lang energieverbruik en kosten niet significant stijgen zie ik geen probleem.

Het enige probleem is eigenlijk dat we deze zelfde discussie keer op keer hebben onder elk nieuwsbericht, technisch gezien is de discussie nauwelijks interessant.

[Reactie gewijzigd door Olaf van der Spek op 4 januari 2025 13:23]

Krijg het idee dat maximaal hertz een marketing ding gaat worden.
Verschil tussen 60>144 groot, 144>360 minimaal, en 500hz?

(Ja ik ben bekend met motion blur dat in theorie nog kan verminderen, 1000hz bijv zou je in theorie nog maar 1ms latency hebben).
Er is nog een goede reden om hoge refreshrates te gebruiken, namelijk het voorkomen van onregelmatige haperingen omdat de refreshrate afwijkt van de framerate. Dat gaat makkelijk als de refreshrate van het scherm een hele veelvoud is van het beeldmateriaal.

Stel dat je een spel hebt dat op 60fps draait en je scherm draait native op 100fps. Dat gaat niet goed. Als je de beelden die je laat zien op 100fps dan gaat het veel te snel en heb je vervolgens nog 40 frames over waar je geen beeld voor hebt. De gebruikelijke oplossing is om beelden dan langer of vaker te laten zien zodat je de 100 vult. Dat lukt echter niet perfect met een 100 Hz scherm omdat 100 niet deelbaar is door 60. 240 is wel deelbaar door 60.

Sterker nog, 240 en 480 hebben superveel handige delers. Daarmee kun je heel veel bronmateriaal spelen zonder gekke conversies.

Een 240 hz scherm kan zonder haperingen werken op 240Hz, 120Hz, 60Hz, 48Hz, 40Hz, 30Hz, 24Hz, 20Hz, 10Hz, 8Hz, 6Hz, 4Hz, 5Hz, 2Hz door het beeld een heel aantal frames te laten zien.

120Hz en 480Hz zijn ook erg handig.

500Hz is dan weer minder handig. Dat werkt niet goed op 60fps want 500 is niet deelbaar door 60. Ik kan me niet voorstellen dat je een scherm voor games maakt dat niet (ook) goed werkt op 60fps. Ik vermoed daarom dat het scherm in werkelijkheid 480hz is en dat die laatst 20Hz een dingetje is van marketing.

Het punt is dus dat er een goede reden is om schermen te bouwen die een maximale refreshrate hebben die hoger is dan wat het menselijke ook kan zien.
Er is nog een goede reden om hoge refreshrates te gebruiken, namelijk het voorkomen van onregelmatige haperingen omdat de refreshrate afwijkt van de framerate.
Daar hebben we VRR voor..
Daar hebben we VRR voor..
VRR is ook een oplossing voor dat probleem maar heeft z'n eigen voor- en nadelen.

Niet alle schermen kunnen zomaar op verschillende frequenties werken. VRR kan dat niet oplossen maar alleen de oude oplossing immiteren: beelden langer of korter laten zien (of nieuwe beelden verzinnen door bestaande beelden te combineren).
Mijn OLED-scherm verliest bijvoorbeeld de helft van de z'n helderheid omdat de onderliggende techniek een hele hoop zwarte frames invoegt om de juiste framerate te halen. Dat is wel heel vloeiend maar niet fijn.

Een andere nadeel van VRR is dat je al je apparatuur het moet ondersteunen. Moderne grafische kaarten en TV's doen dat wel maar daar buiten is het volgens mij vrij zeldzaam. Een scherm met een zeer hoge refreshrate werkt altijd.
Mijn OLED-scherm verliest bijvoorbeeld de helft van de z'n helderheid omdat de onderliggende techniek een hele hoop zwarte frames invoegt om de juiste framerate te halen. Dat is wel heel vloeiend maar niet fijn.
Welk scherm is dat? Dat is volgens mij geen inherent probleem van OLED.
Moderne grafische kaarten en TV's doen dat wel maar daar buiten is het volgens mij vrij zeldzaam. Een scherm met een zeer hoge refreshrate werkt altijd.
Monitoren schijnen het ook te kunnen.. maar wat heb je daar buiten?
En ondersteunt dat dan wel zeer hoge refreshrates?
Welk scherm is dat? Dat is volgens mij geen inherent probleem van OLED.
Een Samsung C9.

Ik weet niet hoe fundamenteel het probleem is maar wel dat alle bestaande OLED-schermen er problemen mee hebben. Het valt meer op bij oudere schermen die toch al niet zo helder waren, zoals mijn C9.

Het onderliggende probleem is dat deze schermen uiteindelijk een bovengrens aan de snelheid hebben. Om een bepaalde framerate te halen moeten ze ofwel zwarte frames invoegen om het juiste aantal frames te halen, ofwel sommige frames langer laten zien dan andere frames. Hoe hoger de framerate hoe kleiner het probleem.

Moderne schermen proberen het op te lossen door het totale helderheid steeds zo hoog mogelijk te zetten maar dat geeft weer flikkeringen in de helderheid van het scherm. Zo verwissel je een kleine onregelmatigheid in framerate door een grote onregelmatigheid in helderheid en zit je alsnog naar een knipperend scherm te kijken.

Het probleem wordt groter als je een zeer onregelmatige framerate hebt omdat je scherm van te voren niet weet hoe lang ieder frame precies moet duren, dat kan opeens veel hoger of lager worden en is het gewoon niet mogelijk om een vloeiende overgang te hebben. Daar kun je weer voor compenseren door het videosignaal te vertragen (zodat je al weet hoeveel frames er nog gaan komen) maar dat zorgt weer voor input-lag en daar zijn gamers alergisch voor.

Bij het kijken van films is het niet zo erg en zijn er meer mogelijkheden voor de software om VRR slim toe te passen en is het relatief makkleijk omdat films een vaste framerate hebben. Bij games hebben ze minder speelruimte en worden de nadelen duidelijker zichtbaar.

Hier een artikel van de gerenommeerde site RTINGS over de problemen rond OLED en VRR:
https://www.rtings.com/monitor/learn/research/vrr-flicker
Monitoren schijnen het ook te kunnen.. maar wat heb je daar buiten?
Excuus, in mijn hoofd is er geen onderscheid tussen de schermen van monitoren en televisies, het zijn allemaal beeldschermen.
En ondersteunt dat dan wel zeer hoge refreshrates?
Het punt is nu net dat die andere apparaten zelf geen hoge refreshrate nodig hebben én ook geen flexibele refreshrate hoeven te ondersteunen. Of het oude apparaat nu op 20, 24, 30 of 60 fps werkt maakt niet uit, op een 240 FPS scherm kun je die allemaal vloeiend laten zien zonder conversie.

Generaties aan spelcomputers, videorecorders, DVD-spelers, mobiele telefoons, videocamera's etc zonder VRR werken goed samen met een snel scherm.
Hier een artikel van de gerenommeerde site RTINGS over de problemen rond OLED en VRR:
Interessant artikel, maar ik lees niks over zwarte frames of repeated frames. Helaas ook geen technische details over waarom OLED (en VA) hier zo'n probleem mee hebben.
Of het oude apparaat nu op 20, 24, 30 of 60 fps werkt maakt niet uit, op een 240 FPS scherm kun je die allemaal vloeiend laten zien zonder conversie.
True, maar dan heb je genoeg aan 120 Hz. Of een output device wat direct 24 (23.97?) of 72 Hz ondersteunt.
Hierom zegt @UttiGS "deja vu": mr_evil08 in 'Samsung kondigt oledmonitors aan, waaronder 27"-1440p met 500Hz en 27"-4k'

Zijn vraag is al beantwoord, maar bij de volgende artikel probeert @mr_evil08 het gewoon weer opnieuw.
Het zal mij geen fluit interesseren. Maar zolang het ervoor zorgt dat dit de norm wordt waardoor lagere refresh rates betaalbaarder worden: Ga zo door!
24.5'' oled nodig

Ik ga maar die nieuwe AOC Q25G4S 300hz 1440p 24.5'' halen als tussendoortje
Als die rechtse het 27" OLED model is, dan heb ik eindelijk een kanshebber voor een 4K OLED scherm met een normale voet ipv die spuuglelijke (en onpraktische!) V-standaard die de norm lijkt voor monitoren in het zgn. game segment.

Op dit item kan niet meer gereageerd worden.