BOE toont eerste full-hd-monitor met 500Hz-refreshrate

Chinese schermfabrikant BOE heeft een 1080p-monitor met een 500Hz-verversingssnelheid getoond. Het is de eerste monitor die deze refreshrate ondersteunt. BOE meldt momenteel nog geen details over prijzen of beschikbaarheid.

De fabrikant meldt op Chinees platform Sina dat het scherm een beelddiagonaal van 27" krijgt met een full-hd-resolutie. De monitor moet daarbij een responstijd van 1ms bieden en 8bit-output ondersteunen via een eDP-aansluiting met acht lanes. Het scherm krijgt een oxide-backplane. Het is verder nog onbekend wat voor paneeltype het scherm heeft.

1080p-monitoren worden momenteel geleverd met een maximale verversingssnelheid van 360Hz. In de Pricewatch staan dergelijke monitoren voor meer dan 500 euro te koop. Het is nog niet bekend wat monitoren met het 500Hz-paneel van BOE gaan kosten; de fabrikant maakt niet bekend wanneer deze panelen op de markt komen of wat deze gaan kosten.

Verder toont BOE een 8k-scherm met refreshrate van 120Hz en een beelddiagonaal van 110". Dat scherm krijgt eveneens een oxide-backplane, maar de fabrikant treedt verder niet in detail over dat paneel.

BOE full-hd-monitor met 500Hz
Afbeelding: BOE, via Sina

Door Daan van Monsjou

Nieuwsredacteur

30-01-2022 • 15:03

202

Reacties (202)

202
198
55
4
1
103

Sorteer op:

Weergave:

Veel discussie over het nut ervan hierboven. In Humanbenchmark en andere tests merk ik het verschil in reactietijd bij een hogere refresh rate vrij duidelijk. Het zorgt ervoor dat je in-game vaker als eerste klikt.

60hz 1080p scherm: 180-200ms
170hz 1440p scherm: circa 135-145ms
390hz 1080p scherm: circa 125ms

[Reactie gewijzigd door Soepster op 28 juli 2024 10:34]

Dit lijkt me een beetje overdreven of begin je met 60hz waardoor je in de volgende tests betere reactie tijden hebt?

60hz = 16.67ms
170hz = 5.88ms
390hz = 2.56ms

Het verschil tussen 60 en 390hz zou dus rond de 14ms moeten liggen.
Het is niet alleen maar op 1 scherm op 1 moment achtereen getest, het is een verwijzing naar verschillende monitoren. De sprong tussen 144hz en 170hz scheelde ook al meer dan het theoretische aantal. Ik heb dit over de jaren bijgehouden op verschillende schermen (al zon 15 jaar mee bezig, ook op CRTs gemeten). Input lag en pixel response time verbeteringen helpen ook. Voorheen had ik 1080p scherm met een input lag van zo'n 10ms. Tegenwoordig is dat 1.6ms en dat scheelt ook weer >8ms bovenop wat de refresh rate doet.

Anyway, ik zou iedereen aanraden om het in met zijn eigen use case te testen om te kijken of het wel of niet de moeite waard is.

[Reactie gewijzigd door Soepster op 28 juli 2024 10:34]

Dus ik heb zon beetje 0.2 seconden tussen het knopje en de actie op scherm? Denk het niet want dat merk je echt wel.
Je hoeft het niet van mij aan te nemen, er wordt gewoon onderzoek naar gedaan, ook vanwege niet-digitale sporten, het berekenen van remafstanden in het verkeer enzovoorts.

Zie ook de curves hier: https://humanbenchmark.com/tests/reactiontime
Zie ook deze studie: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4456887/
En deze studie: https://www.fon.hum.uva.n...reaction.htm#Mean%20Times

En je merkt het dus niet want het is gewoon de vertragingstijd tussen wat er in de wereld gebeurt en wanneer jij het waarneemt. Dat gebeurt niet in real-time. Edit: je merkt het pas wanneer je tegenover anderen komt te staan die sneller of langzamer zijn.

[Reactie gewijzigd door Soepster op 28 juli 2024 10:34]

Jij hebt het over reactietijd van de mens.
Ik heb het over de totale tijd tussen het indrukken van een knopje van je toetsenbord of joystick, en het beeld waarop het te zien is.
Bij wat jij omschrijft is de hrz ook belangrijk want als mijn beeld 10ms eerder ververst kan ik dus ook 10ms eerder reageren, dan sla of schiet ik toch het eerst. Dus...
De genoemde tijden zijn inclusief de muisklik. Dat is immers wat je meet op humanbenchmark. Het beeld verandert en jij moet klikken om je reactie te registeren. Vervolgens neemt de benchmark het gemiddelde van vijf pogingen.

Anyway, je kan het dus gewoon zelf hier proberen: https://humanbenchmark.com/tests/reactiontime
Ja er zijn veel testen m.b.t. verkeer en auto rijden.
Die kijken vaak ook naar de reactie snelheid van de voeten, niet alleen de handen.
Dat is makkelijk het dubbele en kan vooral bij oudere mensen best wel oplopen ruim voorbij een halve seconde.

In de studies die jij noemt, lijkt het snelste ooit gemeten zo rond de 150-160 ms te liggen, voor tieners, studenten, waar de meeste tests mee werken, zijn al langzamer, rond de 200 ms.

Ik vind de getallen die jij noemt onder de 150 ms dan ook wel erg snel, zeker al je nog met CRT opgegroeid bent.

Wat wel erg kan helpen in games is een stabiele refresh rate, dan kunnen je hersens veel beter compenseren voor alle delays. Maar het verschil tussen 60 Hz en 500 Hz is 15 ms of zo, ik denk eerder dat je effecten merkt van lagere input lag en dergelijke.
Ja het is snel maar niet uitzonderlijk. Zie ook b.v. dit filmpje https://www.youtube.com/watch?v=EH0Kh7WQM7w Ik heb ook een competitieve sportachtergrond, dat helpt.

De conclusie dat tieners al langzamer zijn is niet per se waar. Zie b.v deze studie:
The best reaction times were registered at the age of 26-29 years for males (0.150 ± 0.017 seconds) and >30 years for females (0.153 ± 0.020 seconds)

Overigens liggen voor audio stimuli de reactietijden getest op hardlopers nog lager en zelfs onder de 100ms en dit artikel legt de opbouw van je reactie goed uit.

Als het de combinatie van de input lag, pixel response en refresh rate is die ik merk blijft m'n punt staan, als je erom geeft en er gebruik van maakt heb je baat bij snellere hardware. Daarom zitten velen van ons ook op tweakers :)

[Reactie gewijzigd door Soepster op 28 juli 2024 10:34]

Soepster schrijft:
60hz 1080p scherm: 180-200ms
170hz 1440p scherm: circa 135-145ms
390hz 1080p scherm: circa 125ms
200ms = 0,2 seconden toch?
200ms is 0.2 seconden inderdaad. Maar ik denk dat hij na elk 1e cijfer een komma mist.
Dan zou hij 1.8ms bedoelen bij 60hrz, lijkt me niet, misschien bedoelt hij 18ms, dat komt in de buurt, maar het blijft speculeren want hij schrijft gewoon 180-200ms.
Kijk eens op de grafiek bij humanbenchmark. Ik denk dat die veel zal verduidelijken. 180-200ms is een normale reactietijd. Op een 60hz scherm is het moeilijk om sneller dan dat te scoren.

Als je sneller kan, zal je zien dat je op een scherm met een hogere refresh rate+lagere input lag+betere pixel response betere scores haalt. Niet iedereen kan sneller maar veel competitieve online gamers halen wel 160-170ms.
Ik denk dat er wat verwarring is.

Wat Soepster bedoeld is mogelijk de totale latency, van klik naar actie.
En niet naar hoe snel het scherm ververst wat men hier aanduid.

Op 60hz heb je te maken met 16.6ms.
Op 120hz heb je te maken met 8,3ms
op 240 heb je te maken met 4.1ms
op 480 heb je te maken met 2ms

Maar dat is enkel het scherm en hoe snel jij de frames geserveerd krijgt. Dan kan je, als je daar gevoelig/getrained genoeg voor bent inderdaad sneller op reageren. Maar.. als jij je wapen wil laten schieten spreken wij van Zien > Klik > Flash van de gun op het scherm. dit heeft ook een latency, want de gun schiet niet als je het knopje niet in duwt.
Neuronen zijn best langzaam, want een chemisch proces.

We hebben het idee dat we sneller zijn dan onze zenuw signalen daadwerkelijk zijn, omdat onze hersenen ook onze bewustwording vertragen, zodat het lijkt alsof we direct reageren.

Voor auto bestuurders is er ook veel onderzoek gedaan naar reactie snelheid.
Een paar 100 ms is niks, naar je voeten kan het wel 400-500 ms zijn als je wat ouder bent.

Ik denk nog steeds dat die paar ms die je wint met een hogere refresh rate nauwelijks uitmaakt.
Ik ben het er mee eens dat het hoogstens zo'n 15 ms uit kan maken.

Ik denk dat lage input lag, en een constante refresh rate veel meer het verschil maken.

Ik denk dat er bij veel gamers ook een placebo effect aan de hand is.
Ja precies. Dus het maakt wel uit. We hebben het over iets anders denk ik, maakt ook niet uit! Geluk.
Mensen zitten op zon 200 milliseconden - dat is 200x0,001 seconde
Dat het paneel zich 60hz ververst wilt niet zeggen dat de pixels ook zo snel reageren. De schermen zouden zomaar een enorme lag of hoge pixel response kunnen hebben wat het verschil kan verklaren.
Hoe meet jij dat? Want als ik kijk naar ander onderzoek dan wordt het muv iOS alleen maar slechter qua input latency. Zie bijvoorbeeld deze twee grafieken:

https://danluu.com/input-lag/

https://danluu.com/term-latency/
Anyway, ik zou iedereen aanraden om het in met zijn eigen use case te testen om te kijken of het wel of niet de moeite waard is.
Zonder meetapparatuur krijg je dan vooral veel 'het voelt' of 'ik heb het idee dat'. Da's leuk, maar anekdotisch en niet wetenschappelijke methode. Een onderzoek van bijvoorbeeld Tweakers.net met de juiste apparatuur hecht ik dan meer waarde aan.
Die links gaan over totale systeem latency over alle stappen inclusief muis, OS etc. Deze post ging over schermen specifiek. Zoals eerder gepost: ik meet het voor mezelf met o.a. Aim Labs en Humanbenchmark en die houden je resultaten over tijd bij. Tweakers kan alleen hardware onderzoeken en niet jouw persoonlijke reacties.

Ziehier een voorbeeld van een eSports team die een reactietijd test doen, op één scherm: https://www.youtube.com/watch?v=6mSzTYARsqI
De eerste gaat over totale latency, de tweede over een specifieke applicatie.

eSports team vind ik niet representatief. Dat zijn topgamers, kortom die zitten in een specifieke kant rechts in de bell curve.

Een camera met hoge Hz waarbij de interne latency bekend is, lijkt me dan een betere oplossing, zoals bijvoorbeeld ook op https://github.com/mstoeckl/latencytool te lezen is.

[Reactie gewijzigd door Jerie op 28 juli 2024 10:34]

Net geüpgraded van een 75 hz paneel naar een 180 en ik kan werkelijk het verschil niet vinden. Ik merk er helemaal niets aan terwijl ik dips onder de 75 altijd meteen merkte. Deze is voor mij dus vrijwel nutteloos.
Je bent het waarschijnlijk vergeten aan te zetten, ga naar Nvidia control panel en zet het aan bij display settings.

Ik ken mensen die hier pas na maanden achter kwamen, ook al zou het voor de hand moeten liggen.
Ook vervelend is dat Windows nog wel eens de neiging heeft om de refresh rate weer terug te zetten naar de lowest common denominator als je andere monitoren aan- en afkoppelt. Al meerdere keren gehad dat ik me afvroeg hoe het kon dat m'n scherm ineens zo haperig was.
Dit is me idd alleen al deze maand 2x overkomen, helpt natuurlijk niet dat ik een 2e monitor heb die live aan het sterven is en daardoor af en toe uitvalt, maar irritant is het wel.
Dat gebeurt zelfs bij twee identieke monitors.
Die van mij worden door Windows af en toe op 30 Hz gezet, als één van de twee wat langzaam wakker wordt of zo. Ik heb 2x 4K @60Hz.

Dezelfde monitoren onder MacOS nooit last van. (Mac Pro dual boot met Bootcamp).

Windows en/of de software rommel van AMD zijn de oorzaak. (Die Radeon software is echt erg brak, en ja ik draai de laatste stable versie, WHQL of hoe dat ook maar heet).

[Reactie gewijzigd door RogerWilco2 op 28 juli 2024 10:34]

Op zich goed advies, maar hier heb je geen Nvidia specifiek programma voor nodig dat kan gewoon in elk OS (Windows/Linux/macOS) met de native applicatie die de display instellingen regelt. Ook met AMD of Intel kaartjes. Android/iOS weet ik niet.
Tot kort geleden kon dat nog niet, ook weet ik dat @computerjunky een Intel/Nvidia fanboy is, althans als ik me zijn andere reacties goed herinner
Klopt (beide) als een bus :)
Dan herinner je dat verkeerd. Ik ben gewoon voor het beste dat ik voor mijn geld kan kopen.
Dus ja ik heb een 9900k omdat dat destijds de beste cpu was en heb ik een 6900XT omdat dat het enige was wat ik afgelopen jaar kon kopen. Als had ik idd liever een nvidia gpu gehad omdat die mij beter bevallen qua driver stabiliteit en nvenc een echt toevoegen is. Ik heb nog nooit DDU hoeven gebruiken tot ik deze amd gpu kocht... Dat zegt genoeg over mijn driver ervaring en daar ben ik niet alleen in. Als het werkt werkt het prima, maar het werkt gewoon nogal eens niet.

Dus stop met je idiote hokjes vinken want ik hoor in geen enkel hokje thuis omdat ik niet met de meute mee loop maar per aankoop kijk wat voor mij het beste is.
Ja, ik heb nu ook voor het eerst een AMD Radeon onder Windows. (al wel eerder onder MacOS).

Die Radeon software is echt brak. Ik draai 21.10.2
Soms gaan mijn monitors ineens naar 30 Hz (niet onder MacOS, alleen onder Windows).

Hun mogelijkheden om de software tijdens games te gebruiken, werken vaak niet, en al helemaal niet op mijn tweede monitor. Als ik Alt-R doe, krijg ik vaak helemaal niks, zeker bij games die geen DirectX zijn.

Ik zou juist tijdens het gamen mijn temperatuur, clock speed en dergelijke willen monitoren, maar het de software stopt dan vaak helemaal met reageren, en levert alleen nog een window border en verder een transparant window, zodra ik de game afsluit doet alles het weer.
Ik sluit de software helemaal af meteen batch bestand en gebruik gewoon afterburner+rivatuner. Ook de 2 services staan op handmatig zodat ze niet mee draaien.
Tijdens het gamen scheelt dit al best wel maar de driver updates zijn echt een drama voor mij terwijl ik het daarvoor altijd gewoon eroverheen installeerde heb ik echt mega problemen als ik dat nu doe.
Ik ben echt niet van gister dat is natuurlijk het eerste wat ik gedaan heb. Zou mijn naam niet waard zijn als ik sat zou vergeten.
Daarnaast heb ik helemaal geen Nvidia control panel maar radeon software.
Apart, voor mij zelfs in Windows zie ik een duidelijk verschil tussen 60hz en 144hz. Scrollen en muis bewegingen zijn gewoon veel plezanter.
60-75 zie ik duidelijk maar daarboven merk ik het gewoon niet. Ga straks proberen zonder freesync om te kijken of daar het probleem in zit maar anders heb ik geen idee.
ik draaide altijd 200+ fps op mijn 75 hz paneel en dat voelt echt hetzelfde aan als op de 180 hz maar het enige verschil is dat ik nu freesync heb.
Dan heb je het niet goed ingesteld. Verschil is duidelijk merkbaar als je van 75hz naar 180hz gaat.

Maar 200+ fps op een 75hz scherm zal je dus nooit merken want je scherm kan maar 75fps tonen.

Op je monitor zet je g-sync of freesync aan.

In nvidia control panel ga je naar g-sync, daar zet je g-sync aan voor je freesync/g-sync monitor. Dan klik je op “voor alle fullscreen applicaties” en klik op apply/toepassen.

Ga naar resoluties, kiez je juiste resolutie en klik rechts daarvan op 180Hz. Klik toepassen. Nu kan je volop genieten van je 180hz paneel.
En toch merk je het wel degelijk. Er is zelfs onderzoek At naar gedaan door bijvoorbeeld LTT met pro gamers en 1000 fps camera's.
Bijkomende nadeel is dan wel weer de screen tearing.
Maar door hogere fps te draaien krijgt je beeld gewoon vaker en dus recentere data aangeleverd en dus voelt het wel degelijk sneller als die 75 hz. Daarnaast is voelbaar het verschil van 60 naar 75 hoger als het verschil van 75 naar 144.
Het zou mij sterk verwonderen moest u het verschil niet merken. Ofwel zijn uw settings niet aangepast (Instellingen > systeem > beelscherm > geavanceerde beelscherminstellingen (onderaan) > vernieuwingsfrequentie > dan aanpassen) , ofwel verkoopt u veel zever.
Of ik merk het gewoon niet....
Wat is de target audience voor een 1080p 500Hz monitor?
Professionele gamers, csgo draait makkelijk 500fps op recente hardware.
Dat wil toch niet zeggen dat je dan ook iets hebt aan die 500hz?
Hier legt iemand van Nvidia het goed uit:
https://www.youtube.com/w...&ab_channel=NVIDIAGeForce

Komt er op neer dat:
Je wilt de Hz van je monitor en de frame rate het liefst zo hoog mogelijk hebben. 240 vs 144 is een stukje smoother en dat kan weldegelijk uitmaken. Zeker bij fast paced games is het fijn voor objectherkenning (er loopt iets) of om meer up to date frames te hebben om op te schieten en dus sneller kan klikken op de correcte plaats.

In bovenstaande video zie je op 5:12 een mooi voorbeeld van een speler die de hoek omkomt en je net iets eerder 'ziet' met een hogere fps. De Zowel de hand als de body zijn een fractie eerder zichtbaar. Op 5:59 zie je de kill/death ratio van spelers in verhouding met de fps, welke beter is bij een hogere frame rate en Hz.

Wat is de max?
Tests with Air force pilots have shown, that they could identify the plane on a flashed picture that was flashed only for 1/220th of a second. That is identifying. So it's pretty safe to say, that recognizing, that SOME light was there is possible with 1/300th of a second.
http://www.100fps.com/how_many_frames_can_humans_see.htm

Linus heeft ook een test gedaan waarbij vijf personen CS Go speelde op drie monitoren van 60, 144 en 240 en ook daaruit kwam naar voren dat je gemiddeld beter af bent met een hogere frame rate. De reactietijd van de (meeste) proefpersonen was bij elke increase in frame rate sneller.

Zie de uitslag hier:
https://youtu.be/OX31kZbAXsA?t=1841

Op 33:51 concludeert Linus dat casual players (nog) meer baat bij de verhoging van 144 naar 240 hebben dan de professionelere spelers. Op 34:50 concludeert Linus eigenlijk hetzelfde als ik hierboven ook al opsomde vanuit de Nvidia clip.

De meerwaarde van een hoger Hz scherm is er dus wel degelijk, waar de limiet van effectief gebruik ligt kan ik zo niet vinden maar die ligt dus in ieder geval wel boven de 240 Hz die op dit moment op de markt te vinden zijn. Het lijkt me dat een scherm met 500 Hz zeker een effectieve toevoeging kan zijn voor voor gamers (Fast paced shooters, in de toekomst vr?, pro drone vliegen) met een degelijke use case.

Dit YouTube kanaal geeft trouwens een basis uitleg over hoe onze hersenen en ogen werken en hoe dit te vergelijken is met fps op een scherm:

Lange leven de recycling :+

[Reactie gewijzigd door jdh009 op 24 juli 2024 06:49]

het verschil tussen 144 Hz en 240 Hz is al minimaal, tussen 240 Hz en 360 Hz nihil dus lijkt het mij dat tussen 360 Hz en 500 Hz het verschil compleet onmerkbaar zal zijn.
Een hogere framerate geeft naast een vloeiender beeld nog een voordeel. Je ziet namelijk sneller een update. Een 360Hz monitor toont elke 2.8ms een beeld een 500hz monitor elke 2ms. Elke kleine verbetering die de reactie tijd verlaagd is een voordeel.

Natuurlijk heeft een monitor meer componenten dan alleen het scherm waar je naar kijkt welke allemaal invloed uitoefenen op deze delay.
Niet alleen een vloeiender beeld, ook een scherper beeld. Je kan je ook afvragen in hoeverre een 4k scherm nut heeft bij iets wat ook maar enige beweging heeft, want dan zijn er zoveel pixels aan het in en uitschakelen bij elk frame, dat beweging gewoon niet scherp is. Kijk naar je muis cursor nu: Compleet scherp. Beweeg hem nu in een gelijkmatig tempo over je scherm, en je zal zien dat hij direct minder scherp wordt. Dat is op mijn 144Hz scherm nog overduidelijk, op 60Hz al helemaal.

Moet ik zeggen dat ik zelf dit scherm nooit zou kopen, maar ik ga er ook niet in mee dat hele hoge refresh rates geen nut hebben.
Ja en nee. We hebben het over een full HD scherm van 27”. De pixels zijn zo groot als Lego blokjes bij normale bureau afstanden. Heel fijn dat die Lego blokjes 500Hz verversing hebben maar je kan van pixel art geen fotorealisme maken
Waarom begin je ineens over fotorealisme, en ik kan me herinneren heel wat fotorealistische films gezien te hebben op dvd dus resolutie bepaalt niet of iets er fotorealistisch uit ziet. Zelfs de acteurs zagen er fotorealistischer uit dan elke 4k gerenderde character van nu, want het waren immers echte mensen en dat zag je ook, ongeacht de lage hoeveelheid pixels.
Ik weet niet wat voor Lego blokjes jij voor ogen hebt, maar ik gebruik al een aantal jaren een 27” full HD, maar zulke kleine Lego blokjes (SMD Lego?) heb ik nog niet meegemaakt.
Ik zal je een geheimpje verklappen, de mensen waar deze monitor voor bedoeld is, gamen vaak nieteens op 1080p. Doorgaans 1024x768 of 1280x960/1024 en andere lagere 4:3 resoluties. Dat het maar 1080p is, is dus volkomen irrelevant. De hogere refreshrate daarentegen, daar zitten we wel op te wachten. Je mag het een diminishing return vinden, maar dat boeit in de eSport wereld niet. Beter = beter als het om winnen gaat.
Dat begrijp ik niet helemaal.

Als je minder details hebt dan zie je toch ook niet genoeg om erop te kunnen mikken? Ook al zie je een paar pixels sneller veranderen? Je moet toch ook herkennen wat het is? En bij en dermate lage resolutie raak je aardig wat detail kwijt lijkt mij.
En waarom zou de verhouding naar 4:3 moeten? Dat gaat toch ook niet goed? Dan wordt het beeld nog verder vertekend.
4:3 is een specifiek CS:GO voorbeeld. Vertekenen maakt niet uit. Voor snipen is het in CS:GO wel tof, gezien de game een beetje clunky in elkaar zit wat betreft de FOV en je aim daardoor lineair aanvoelt op 4:3, maar niet op 16:9.

eSports shooters zijn geen long range games. Je kunt op 768p echt prima zien waar je op schiet. Ik speel zelf 1280x1024 omdat ik de extra fps niet nodig heb, maar toen ik nog slechtere hardware had, deed ik het wel. Alles op low quality in de settings ook, dat is ook zo'n beetje de standaard. Alles voor de fps en refreshrate.
0,8ms gaat voor mensen geen verschil maken.
Gelukkig maakt het voor de computer wel uit. Waar komt toch de gedachtengang vandaan dat een mens het verschil moet merken?

Als 2 mensen moeten reageren op een signaal en voor allebij die mensen geld het dat het 200ms duurt vanaf het moment dat het licht hun oog bereikt tot het moment dat ze op de muis klikken. 1 van die personen krijg 0.8ms eerder het signaal dan is die persoon toch sneller? Het maakt niet uit dat die persoon niet door had dat hij zijn signaal 0.8 ms eerder had. Het gaat er om dat hij sneller was.
Mwah, bij een normale reactiesnelheid van 100-200 ms maakt het wel heel erg weinig uit.
Klopt, het gaat in heel weinig situaties het verschil maken. Maar als je een professionele gamer bent, dan zijn de marges daar al heel klein, en een voordeel hebben in een paar randscenarios is nog steeds een voordeel!

Voor casuals is de extra scherpte bij beweging, en daardoor makkelijkere on-the-fly adjustment, juist hetgeen wat helpt en hebben zij er ook profijt van.

[Reactie gewijzigd door jaxxil op 28 juli 2024 10:34]

Ik game zelf al een jaar of twee op 165Hz.

Teruggaan naar 60Hz is heel irritant voor games met wat meer beweging. Je ziet je cursor stotteren en scrollen op het web is geen vloeiende ervaring meer.

Voor een echt snel spel ziet zelfs 120Hz er nog stotterend/laggy uit. Als die 45 frames zo'n groot verschil maken in deze grootteorde, zou het me niet verbazen dat 500fps nog een merkbaar verschil kan maken.

Waar merk je het? Enkel tijdens snelle bewegingen: je bent van plan heel snel te draaien en kent de omgeving reeds, dus weet wat te verwachten. Dan begin je te zien hoe de refresh rate je 180 graden draaibeweging omzet in frames die elk 15° of meer innemen. Soms een te groot verschil in afstand om je doelwit dat je bij het vorige frame in het oog had weer even moet terugzoeken (=tijdsrovend, neemt meerdere frames in, want je ziet wat ghosting enz, ik heb niet het duurste scherm uiteraard). Ik denk dat het terugvinden makkelijker zou zijn op een lagere refresh rate - want minder information overload - maar het kwijtraken van je doelwit zou minder voorvallen bij een hogere.

Dit effect merk ik ook nog op 165Hz, maar duidelijk minder. Het zal pas opnieuw opvallender worden wanneer ik bvb. 240Hz gewoon zou worden.

[Reactie gewijzigd door FlaffTweakr op 28 juli 2024 10:34]

Is het probleem dan niet meer de ghosting en hogere input lag dan de refresh rate zelf?

Als je verschil ziet tussen 60Hz en 165Hz, zijn het dan echt de 10 ms, of zijn het andere verschillen in kwaliteit die eigenlijk meer uitmaken?
Dat zeg je nu wel, maar is dit wetenschappelijk bevestigd?
Je ogen hebben ook een soort scan rate en die hangt onder meer af van hoeveel adrenaline er in je bloed zit. De waardes weet ik niet, maar uiteindelijk heb je daar ook een bovengrens waarbij het bijv. niet uitmaakt of 800 of 1000hz is, want dat kun je niet waarnemen.

Met resolutie heb je hetzelfde. Op een kijkafstand van 3m zie je echt geen verschil tussen een 4k en een 8k TV van 65".
De vraag die ik probeer te beantwoorden is wat het nut van een hoge refresh rate is. Dit nut hoeft hem niet in het actief kunnen waarnemen van verandering te zitten. Als een monitor je een beeld 0.8ms sneller geeft dan is de kans groot dat je eerder kan reageren.De kans bestaat natuurlijk ook dat je net een timing mist waardoor je juist meer delay krijgt tot maximaal de refresh tijd van het monitor.
Dan blijft het nog een proces waarbij de kans op een snellere reactie steeds kleiner wordt naarmate de refresh rate toeneemt en dus ook minder significant. Heb je een camera die elke minuut een foto neemt en een knipperlicht dat om de x seconden flitst, dan neemt de kans op een foto met een knipperlicht dat aan staat toe, wanneer je de knipperfrequentie laat toenemen. Op een gegeven moment zul je echter 100% "aan" fotograferen, omdat gedurende de registratieperiode het licht al meerdere keren flitst.
Dat is wel een goed punt - onze ogen hebben natuurlijk geen scan-rate die in sync is met het scherm (en zeker niet identiek). En vermoedelijk is onze scan-rate ook niet heel mooi 123 HZ (of wat dan ook) maar varieert deze.
Dat sommige mensen net het verschil merken tussen 60 en 165 Hz geloof ik nog wel, want dat is 10ms.

Ook daar denk ik dat optimalizatie voor lage input lag en weinig ghosting mogelijk meer uitmaken dan de directe refresh rate. En bij hoge fps is de frame rate vooral ook stabiel, en daarmee zijn je hersenen in staat voor een constante vertraging te compenseren.

Maar voorbij 200 Hz gaat het nog maar heel weinig schelen in milliseconden.

Iemand noemde een test met airforce pilots, die het voorbij 1/220 seconde niet meer zagen.
Ik denk dat je die 0.8 ms echt niet gaat merken.

Ik denk eerder dat dit soort schermen ook geoptimaliseerd zijn voor lage input lag en zo, en dat mensen dat meer merken.
Ligt aan de use case, maar inderdaad zal het aantal use cases en het effect hoogstwaarschijnlijk steeds minder worden of qua effect zelfs omslaan. Met dat omslaan bedoel ik dit (uitleg van 4:48 tot 6:15) waarbij hoofdpijn kan ontstaan als de game niet voldoende is aangepast (bijv. motion blur) en onze hersenen de verwerking niet meer goed aan kunnen. Dit i.v.m. het verschil tussen het waarnemen van een situatie i.r.l. en op een 2D computer scherm.

[Reactie gewijzigd door jdh009 op 28 juli 2024 10:34]

Het is precies anders om: Motion blur heb je nodig bij lage framerates.

De wereld om ons heen doet niet aan frames / second en ook niet aan motion blur. Want neem je een foto met een korte belichtingstijd dan is ook een snel bewegend voorwerp haarscherp. Meer frames is dus beter en scherp is dan geen probleem.
Je hersenen doen echter wel aan motion blur. Wanneer we ons hoofd bewegen of onze ogen, zien we niet scherp meer. Pas weer wanneer onze ogen stil staan dan zien we weer scherp.

https://www.abc.net.au/sc...rred%20camera%20image.%22
Yep. De motion blur vindt plaats in je ogen, het zit niet in de bron.

Bij films (24 fps) zit de motion blur in de beelden ingebakken zodat bewegingen vloeiender overkomen. En het voorkomt ook het "achteruit draaiende" wielen effect. Bij hogere refresh rates is dat steeds minder nodig, behalve wanneer er interferentie zou kunnen optreden tussen bron en opname: Een lamp die 50 keer per seconde knippert moet je niet proberen op te nemen met 50 fps of iets wat daarbij in de buurt zit.
Een lamp die 50 keer per seconde knippert moet je niet proberen op te nemen met 50 fps of iets wat daarbij in de buurt zit.
Je moet juist wel met 50fps opnemen. Alleen niet met een afwijkende fps, anders krijg je flikkering. Vandaar dat camera's moeten weten of ze in EU of VS zitten vanwege de 50 vs 60hz frequentie. In de VS film je met 60fps of 30fps vanwege de 60hz AC en in EU met 50fps of 25fps vanwege de 50hz AC.
Ja, en? Dan heb je dus geen extra motion blur nodig; je ogen / hersenen doen dat zelf wel. Ik snap niet waarom iedereen steeds weer met dat argument komt.
Dat is ook mijn gevoel. Die motion blur in games en films is niet nodig en is een trucje dat probeert snelheid over te brengen. Maar onze hersenen zijn prima in staat omdat zelf te doen (sterker nog: dat is waarschijnlijk noodzakelijk omdat we nu eenmaal niet tig beeldjes per ms kunnen verwerken).

Het voordeel in games is vaak wel dat je het uit kunt zetten (motion blur) in films helaas niet. En films hebben tegenwoordig ook een ander irritant trucje: super snelle cuts en ook nog eventueel viewpoint veranderingen. Dus minder frames dan we in werkelijkheid zouden zien (dan dus ook opgenomen zijn) en dan ook nog de volgorde daarvan aanpassen. Dan lijkt alles lekker fast-paced en lijkt het of de acteurs geraakt worden maar het is lang niet altijd 'prettig' om te zien.
Ja mee eens, slechte films zijn tegenwoordig meer een soort achtbaan. Camera standpunt veranderen is prima, maar dan wel vanwege het script en niet alleen vanwege effect bejag. Er zijn films die ik niet eens meer normaal kan bekijken (en dan gaan we het maar niet hebben over slechte vampier series enzo, pulp).
Sorry, het was voor mij niet duidelijk wat je precies met je bericht wilde zeggen. Misschien handig om dat wat duidelijker te maken; je noemde nu alleen het argument, maar niet precies waar je er heen mee wilde.
De opmerking was
De wereld om ons heen doet niet aan frames / second en ook niet aan motion blur.
Dat is echter volledig naar de wereld geredeneerd. Onze hersenen doen echter wel aan motion blur, dus stellen dat de wereld niet aan motion blur doet is niet geheel terecht. Wij kijken als mens immers altijd vanuit het perspectief van onze eigen hersenen. Voor ons als mens heeft de wereld daardoor wel altijd motion blur. Daardoor kun je niet zo maar stellen dat zeer hoge framerate zonder motion blur altijd goed werkt voor onze ogen, want dat blijkt uit onderzoek niet zo maar te zijn. Er zijn zeker neveneffecten. Mijn reactie was om nuance aan bovenstaande stelling te geven.
Wat ik niet begrijp: beelden op een monitor bewegen toch ook gewoon? Dan genereren je ogen toch per definitie motion blur? Dat de monitor niet beweegt staat daar los van, lijkt me zo. Of moet je eerst in de verte kijken om motion blur te krijgen?
Dat dacht ik dus ook. Het grote probleem met generated motion blur van zeg een bewegend object op een scherm is dat je dan ook niet meer kunt compenseren. Want als iets beweegt en je hoofd en ogen staan stil dan krijg je motion blur maar als je ogen en/of hoofd in staat zijn om het object te volgen dan wordt dat minder. Echter niet als het effect is toegevoegd aan de beelden. Die onscherpte die blijft dan aanwezig en dat is onjuist.
het verschil compleet onmerkbaar zal zijn.
Persoonlijk zie ik eigenlijk geen verschil tussen 1080p film en 4k tv/film, zo zijn er velen met mij die dat ook niet zien. Dus nooit 4k TVs/media? Ik zit nu achter drie 4k monitoren omdat ik voor tekst op een monitor het verschil tussen 1080p en 1440p merkte en opnieuw het verschil tussen 1440p en 4k merkte.

Mensen hebben nu een voorkeur voor 120Hz schermen op smartphones, niet omdat ze er op gamen, maar ze de responsiveness van de interface significant beter vinden.

Mensen verschillen, hebben verschillende kwaliteit ogen/hersenen, wat de ene niet ziet, ziet/ervaart de andere wel.

Dat neemt niet weg dat een hoop mensen iets wel claimen te zien/merken, maar dat niet altijd klopt en veel gewoon producten kopen op de hoogste cijfertjes... Is dit een product voor jou en mij? Nee, waarschijnlijk niet. Maar wellicht leid ontwikkeling aan de top aan betere/goedkopere producten aan de onderkant, niet dat je bijna €6k kwijt bent voor een 32" 4k Asus ProArt op 120Hz... Niet iedereen zit op een "Meh!" kwaliteit el cheapo gamers monitor te wachten.
Het verschil tussen 60Hz en 120Hz is ook enorm als je de frame tijden bekijkt. Je gaat dan van 16ms naar 8ms, een verschil van 8ms. Van 120Hz naar 240Hz is nog maar 4ms. Van 240Hz naar 500Hz mog maar 2ms.

De verschillen worden steeds kleiner en als ik heel eerlijk ben vond ik de stap van 144 naar 240 minimaal. Wel merkbaar maar niet de wow factor die van 60 naar 144 had.
Een beetje raar dat je dit als feit stelt, terwijl het meer een mening of persoonlijke evaring is. Als je even verdiept in de linkjes van @jdh009 dan zul je zien dat over het algemeen je met hogere refreshrates, bewust of onbewust, het echt wel merkt.

Bijvoorbeeld; ooit in een spel moeite gehad om iemand z'n naam te lezen die boven hun hoofd zweeft (in 12pt Arial) terwijl deze aan het lopen was? Dat is iets wat hoge refresh rates kan oplossen (als je ook daadwerkelijk aan de FPS komt).

[Reactie gewijzigd door Memori op 28 juli 2024 10:34]

Ik speel nu anderhalf jaar Genji op 240hz en ik kan je vertellen dat het bij lange na niet genoeg is. Kijk zelf maar waarom

[Reactie gewijzigd door JeffZorz op 28 juli 2024 10:34]

Dang it, ik dacht even dat je de game Genji op Playstation 2/3 bedoelde. Omdat je alleen Genji zei in plaats van "In Overwatch speel ik Genji", wilde ik net iets posten als "Cool, iemand die ook Genji speelt of heeft gespeeld!" :P

Helaas zat ik ernaast toen ik je filmpje klikte :'(
(edit: Wat blijft dat toch een mooie game, ook nu nog..)

[Reactie gewijzigd door Armselig op 28 juli 2024 10:34]

Damn dat ziet er old-school uit :P
Compleet onmerkbaar voor jou, compleet onmerkbaar voor mij; voor wier er zijn geld mee verdient kan het wellicht een een paar euro (of meer) per dag schelen, dus waarom niet dan?
In theorie heb je gelijk. Maar heb het maar eens voor je en je zal het wel merken.
op 360hz is tekst van bewegende zaken ook gewoon duidelijk te lezen als het beweegt.

Een voorbeeld:

League of Legends big teamfight en ventjes vliegen over je scherm van links naar rechts. Dan zal je merken dat hoe hoger de hz hoe makkelijker je tekst kan blijven lezen.
Zoals de gamers op 240hz minder moeite hebben om iemand door double doors te raken dan met lagere hz, want op 240hz zal het smoother en makkelijker te zien zijn dat iemand overjumped.
Misschien maakt het wel wat uit voor een elite cs:go speler.
Misschien maakt het wel wat uit voor een elite cs:go speler.
Graag zie ik dat dubbelblind getest. Tot die tijd valt het een beetje in de categorie 'hi-fi kabels gesmeed door elven bij maanlicht'. :+ Je praat over zulke korte reactietijden en zulke kleine verschillen dat andere zaken meer roet in het eten kunnen gooien (vuiltje op je muismat, een toets waar een stofje onder zit en daarom niet uniform reageert met andere toetsen, ...), dat het mij sterk lijkt dat het verschil op zulke hoge refresh rates een significant verschil maakt.

[Reactie gewijzigd door The Zep Man op 28 juli 2024 10:34]

Ik denk dat we de sweetspot allang bereikt hadden met 240Hz (frametijden van 4,2ms) aangezien menselijke reactietijden niet hangen om 1/1000 van secondes.

Natuurlijk zijn hogere verversing snelheden beter maar het moment van diminishing returns is allang bereikt bij alles sneller dan 240Hz
Op het pro-niveau hangt het dus wel om milliseconden, hè? Het maakt niet uit dat je een menselijke reactiesnelheid hebt van in totaal 150ms, want iedereen heeft dat, het draait om het verschil en niet het absolute getal. Als Pietje met z'n 1ms snellere monitor dus een reactiesnelheid heeft van 149ms lig jij om en hij niet.
okee maar je kan dus je reactie maken op een nieuwer frame, dus het heeft statistisch gezien de helft van de reacties zin. je hoeft ze niet allemaal te zien, het heeft ook voordeel dat wanneer je er ziet die zo nieuw mogelijk is

[Reactie gewijzigd door Dramatic op 28 juli 2024 10:34]

'hi-fi kabels gesmeed door elven bij maanlicht'
Deels heb je gelijk maar bij gaming kan de perceptie van 'meer zien' je ook daadwerkelijk beter doen spelen. Dus dan helpen de elfjes ook echt... :9

En een ander effect van steeds snellere hardware is wel dat de foutkans, dat mens en machine niet in sync zijn, afneemt.
Bij mij ligt de limiet bij 60Hz, meer is voor mij niet noodzakelijk. Leuk dat het kan.
Als mijn instellingen willekeurig eens terug naar 60hz springen ben ik gelijk in de taskmanager aan het kijken waar de bizarre lag vandaan komt.
120Hz-144Hz laten het beeld toch wel meer als een schilderij aanvoelen bij beweging dan 60Hz al zou ik niemand een sneller scherm aanraden als dat als diegene niet gamed. 60Hz is niet zo vloeiend als je jezelf heb laten geloven
Ik vind het anders heerlijk werken op een 100Hz beeldscherm. Scrollen en schuiven van vensters voelt veel soepeler en rustiger aan. Met de huidige beeldschermprijzen en hoe lang men soms per dag dus naar een scherm kijkt, zou ik zeker kijken of een 100Hz scherm een optie is. Vooropgesteld dat je computer of laptop het ook dusdanig aan kan sturen, anders heeft het alsnog geen nut.
Is die test dubbelblind gedaan? M.a.w. wisten de proefpersonen op wat voor refreshrate ze speelden? Ik heb het filmpje niet bekeken dus gewoon een open vraag.

Edit: @bytemaster460 ja dat weet ik, primair lijkt het me van belang hier echter dat de proefpersoon het niet weet.

Geen idee waarom dit nou weer Ongewent is. Lijkt me een vrij cruciaal onderdeel van een dergelijke test.

[Reactie gewijzigd door Dr. Strangelove op 28 juli 2024 10:34]

Bij dubbelblind weten ook de medewerkers van het onderzoek niet op welke refreshrate er wordt gespeeld.
Bij dubbelblind weten de proefpersonen en de observeerders/meters het niet.
Dat bedoelde je in ieder geval wel. Geen van jullie beide legt uit wat blind testen is (dat de proefpersoon het niet weet). Bij blind ipv dubbelblind is het nadeel dat proefpersonen kunnen 'lezen' of 'opmerken' aan de observant welke oplossing ze krijgen. Stel je bijvoorbeeld voor een vrouw die een nieuwe pil krijgt tegen zwangerschap, of kanker. Dan wil je weten hoe de vork in de steel zit, en een observant kan (bewust of onbewust) verklikken hoe de vork in de steel zit. Stel het wordt gevraagd, en de medewerker reageert geschokt in de eerste split second. Dan zou je daaruit op kunnen maken dat het een placebo of mindere oplossing is.
de ene geblindeerde is de proefpersoon, de tweede observeerder. een observeerder/meetafnemer is niet altijd de onderzoeker. (degene die de methode bedenkt en het artikel schrijft of de analyse uitvoert.
Maar ik schreef niet onderzoeker maar "medewerkers van het onderzoek". De observeerder/meetafnemer is een medewerker van het onderzoek.
Post van de maand, thx :)

Ik ben vooral verrast dat vooral een casual gamer het meest baat heeft bij zo'n ultrahigh refresh monitor, ik heb altijd gedacht dat dat vooral zinvol was voor pro gamers...
Als het voor een casual prijs is... Ik ben echter bang voor een pro prijs.
leuk hoor een monitor met 500hz, maar dat zegt niks over hoe snel je iemand ziet.

als het spel stroperig of heavy aanvoelt, heeft te maken met hoe vaak een animatie wordt gerendert en hoeveel animatie's er in de game zelf worden geïmplanteerd door de ontwikkelaar.
een stroperige game die heavy aanvoelt, gaat je zelf niet verbeteren in de gameplay of hoe snel je iemand ziet.

daarnaast heb je ook de button latency, die enorm afhangt van je internetsnelheid, dit speelt meer een rol, 60 procent van de gamer heeft het niet eens door hoe het internet is.

die scherm van 500hz is weggegooid geld, als andere dingen niet ook niet op orden zijn,

het hangt van meerdere factoren af of je veel kils hebt of niet.

[Reactie gewijzigd door solozakdoekje op 28 juli 2024 10:34]

Wij van wc-eend adviseren.....

Leuk allemaal maar boven de 144hz wordt het met grote stappen steeds meer onzin en alleen maar marketing.
Mooi uitgelegd maar ik denk dat het menslijk oog ook niet capabel is om uberhaubt verder dan 30 tot 60hz te reiken. 500Hz is volledig marketing gimmick.
Mooi uitgelegd maar ik denk dat het menslijk oog ook niet capabel is om uberhaubt verder dan 30 tot 60hz te reiken. 500Hz is volledig marketing gimmick.
Dat kan je wel denken, maar het is feitelijk onjuist.
30 tot 60hz is zeker onjuist.. ik merk het heel erg goed als ik bijvoorbeeld niet op 240 zit.. en het verschil tussen 30 60 en 144 is ook al gigantisch.

Het zal mogelijk best verschillen per persoon.. geen idee hoe dat precies zit.

[Reactie gewijzigd door Antonie_Bouman op 28 juli 2024 10:34]

In bovenstaande video zie je op 5:12 een mooi voorbeeld van een speler die de hoek omkomt en je net iets eerder 'ziet' met een hogere fps.
Ik vind dit een rare conclusie in het filmpje. Misschien zie ik het verkeerd hoor. Maar zo zie ik het in me hoofd. Een auto in een spel rijd constant 10 km/h. De auto rijd niet sneller doordat de game op 60, 144 of 240 speelt. Als je dus na 10 seconden kijkt zou de auto even ver moeten zijn. Dat je bij 60Hz maar 600x verversingen gehad heb en bij 240 totaal 2400 verversingen gehad heb laat de auto niet trager of sneller rijden. Dit gebeurt bij dat filmpje dus niet. Er is de hele tijd een afstand verschil tussen alle 3 de beelden. Als we het echt hebben over fps (en niet dat de hardware het dus niet kan bijhouden waardoor het spel stil zou kunnen staan) dan zou de resultaat eerder moeten zijn dat je bij te lage fps dus beelden mist en dus dat de auto/karakter ineens een sprong vooruit zou maken. En bij te hoge fps (dat het spel niet zo een hoge fps aan kan) dubbele beelden zou moeten zien.

Bij het filmpje lijkt het meer dat de snelheid van het spel gekoppeld is aan de frames. Het spel staat op pauze totdat de bewerking is afgerond. Maar zo werkt het natuurlijk niet. Een ps4 vs een ps5 geeft de auto op de ps5 geen extra snelheid omdat het beeld al klaar is. En in een shooter rent de personage ook niet extra snel/traag door de verschillende fps.

Als wel het over om de hoek kijken hebben. Bij 60Hz is het afgerond 0.01667 seconden per frame. Heb je 120Hz (even makkelijk rekenen ipv 144Hz) is het 0.00833 voor 1 frame en 0.01667 voor 2 frames. Dit houdt dus in dat je dus maar maximaal 1 frame/0.00833 seconden kans heb om de persoon eerder te zien want bij de 2e frame kan de 60Hz het ook zien. De afstand die de andere speler heeft afgelegd bij 0.01667 seconden is dus hetzelfde bij 60 Hz als bij 120Hz

Bij 144Hz is het weer een ander verhaal. Dat is 0.00694 seconden voor 1 frame, 0.01389 voor 2 en 0.02083 voor 3 frames. Frames 1 en 2 zal de 144 het eerder zien. Maar als de andere speler tussen 0.01389 en 0.01667 in beeld komt dan ziet de 60Hz het dus eerder. De kans is bij 144 dus groter dat je het eerder ziet maar dus niet gegarandeerd.
tl;dr meer hertz meer beter :P
Je wilt dat de latency zo laag mogelijk is. Op 125Hz heb je dus een latency die 4x zo hoog is. De gemiddelde sterveling merkt dat ook niet, maar een professioneel gamer zeker wel, juist daar wil je dat alles zo soepel mogelijk speelt.
Dezelfde uitspraak werd gedaan over zowat elke hogere refreshrate, heb je ook deftige onderzoeken die dat staven ipv een "het zal wel zo zijn gut-feeling"? Double-blind, meerdere testpersonen en een consistente, repetitieve test, dus geen botmatch oid. Ik ben echt benieuwd, want die uitspraak ligt al enkele jaren op tafel zonder cijfermateriaal.
Het is eigenlijk heel simpel, hoe eerder jij een tegenstander ziet, hoe eerder jouw reactietijd gaat lopen en je de ander een headshot kunt geven. Als je beiden exact dezelfde reactietijd en gaming skills zou hebben dan zal de speler die al is het maar 1/500ste van een seconde de ander eerder ziet winnen.
Er is echter wel een minimale responstijd van de mens (oog, hersen, hand), dus dit voordeel dat je schetst stopt wel een keer, nadat een zekere verversingssnelheid bereikt is. Dan lijkt het me alleen nog mogelijk voordeel te behalen door direct via de hersenen te 'spelen'.
Hoezo stopt dit voordeel? Als je 2 mensen hebt die allebei een reactie snelheid hebben van 200ms alleen gamed de ene op een computer die een latency van 20ms toevoegd en de andere 50ms. Dan heeft de gene die 220ms totale latency heeft toch een voordeel ten opzichte van 250ms?
Je geeft zelf het voorbeeld al. Mensen met een reactietijd van 300 ms hebben hier dus geen baat meer bij. Dat is de 'grens' waar rubenkemp het over heeft.
Hoe sneller je iets waar kunt nemen hoe eerder je reactietijd van 300ms gaat lopen. Dus ja, iedereen heeft er voordeel bij. Vraag is of dat voordeel het verschil gaat maken en nee, dat is niet altijd het geval maar een voordeel is er zeker.
Dat voordeel stopt eigen nooit, maar het is van belang hoe goed je tegenstander is en op wat voor apparatuur die speelt of een monitor het verschil gaat maken.

Totale snelheid is:

Snelheid systeem + snelheid monitor + snelheid mens + snelheid keyboard en vast nog wel wat anders. Je kunt je snelheid dus blijven verhogen met een steeds snellere monitor. Maar als het verschil door de andere factoren 100ms is, dan maakt het inderdaad geen bal uit of je monitor 1ms sneller is of niet, maar als het verschil 1ms is dan maakt dat wel uit. Daarnaast ontstaat de vooruitgang door het blijven verbeteren van alle factoren.
Onderzoek naar het effect van meer FPS is, wat jouw vraag betreft, niet bepaald nodig. Iedereen snapt toch gewoon dat in het geval dat [X] eerder in je beeld verschijnt, je reactie op [X] sneller gaat zijn? In hoeverre het effect te merken valt tijdens het gamen, is dan natuurlijk de vraag. Dit is echter niet zo belangrijk voor de doelgroep van dit soort monitoren; hoofzakelijk willen ze de beste kansen in hun competitieve games. Ik denk niet dat iemand met een 360 Hz monitor de overstap zou nemen naar 500 Hz vanwege het gevoel dat je game niet soepeltjes loopt.
Voor elke andere gamer die niet op zoek is naar de ultieme reactietijd blijft dan natuurlijk wel de vraag of het überhaupt te merken is dat je nu 500 FPS te zien krijgt - het antwoord hierop zou heel goed nee kunnen zijn. De CS:GO pro's zou je desondanks 5 jaar later met 1000 Hz monitoren zien gamen, al is het maar omdat het je prestaties (marginaal) verhoogt.
Nee dat heeft niemand gezegt 30, 60hz etc was altijd al schokkerig net als vroeger mensen last hadden van een 60hz scherm vanwege het flikkeren en op 100hz niet meer.

ga je boven de 100hz dan is het verschillend per persoon.
Films op 24hz irriteer ik mij ook aan, echter het is niet anders,

[Reactie gewijzigd door mr_evil08 op 28 juli 2024 10:34]

Dat mensen last hebben met flikkeren heeft meer te maken met de refresh-rate van het backlight, dan de refreshrate van het het scherm zelf. Dit komt omdat PWM een goedkope manier is om de helderheid van een scherm snel te kunnen schakelen.

De framerate van content en de refreshrate van het scherm waarop je die content kijkt kan inderdaad ook zorgen voor een mismatch, waardoor het schokkerig aanvoelt. Idealiter wil je dat je scherm de framerate matchet, zodat je dat niet hebt. Dit gaat zeker met veel Android-based mediaspelers nogal fout, waardoor 24fps content op een 60Hz scherm schokkerig aanvoelt. Dit staat echter los van de refreshrate van je backlight en je scherm en gaat meer over de mogelijkheden om de refreshrate te matchen aan de content die getoond wordt.

Dat films op 24 fps draaien heeft op zijn beurt weer te maken met de oude filmtechniek. Er zijn wel films gemaakt met hogere framerates maar die hebben dat ze veelal, vooralsnog, vaak "nep" aanvoelen of geeft het soap opera effect (wat zijn weerslag weer vindt in interpolatie technieken waarmee frames geinterpreteerd worden). Echter als je speler en scherm netjes de content en de refreshrate matchen, gaat er niets boven de "filmische ervaring" die 24 fps geeft. Dit zal als er meer films met HFR gemaakt worden, ingeburgerd raken en zullen we films op 60fps misschien wel als de norm gaan zien.

[Reactie gewijzigd door Farscape2 op 28 juli 2024 10:34]

Eigenlijk vind ik de HFR films juist echt aanvoelen - bij LOTR zie ik mensen in Ork-pakken die raar springen. Bij Gemini Man leek het een beetje op een documentaire. Ik denk dat het vooral gewenning is, maar de motivatie voor filmmakers zal nogal ontbreken.

[Reactie gewijzigd door _Pussycat_ op 28 juli 2024 10:34]

[...] bij LOTR zie ik mensen in Ork-pakken die raar springen. Bij Gemini Man leek het een beetje op een documentaire.
Precies dit. Het voelt zo "echt" aan dat het nep word, omdat we met zijn allen geconditioneerd zijn om 24 fps als "filmisch" te ervaren. Waardoor we uit de magie van de film gehaald worden.
Schokkerig heeft denk ik ook erg te maken met grote van scherm, kijkafstand en schermtype. Dit speelt meer bij OLED, dan CRT (nagloeien) en eerder bij 65", dan 32"
Het gaat om het aantal updates per (milli)seconde; hoe meer updates je hebt, hoe vaker de updates (ook van keyboard en mouse input bijvoorbeeld) verwerkt worden en mee komen met wat je ziet en dus hoe vloeiender de ervaring is. Ook daar zijn er slechts een beperkt aantal updates, waar je die ook het liefst zo hoog mogelijk wil hebben (als pro-gamer).

Zou je alles (video, keyboard en mouse) allen op 500Hz hebben, kun je dus zeggen dat alles even snel ververst wordt en je dus een soepele ervaring hebt. Wanneer dat niet zo is, kun je hier en daar merken dat updates niet altijd "synchroon" zijn en merk je dus lag of tearing, terwijl dat wellicht niet hoeft. Dit leek mij althans redelijk vanzelfsprekend, is ook genoeg over en voor te vinden;Hoe je dat met onomstotelijk bewijs (bronnen) wilt hebben, terwijl het gewoon uit te rekenen is. Met 125Hz heb je 1 update per 8ms, met 500Hz heb je 1 update per 2ms, vier keer zo snel dus en dus ook 4x zoveel updates.

Waarom je daarvoor een bron wilt, met double blind reviews, is wat mij betreft onduidelijk.

[Reactie gewijzigd door CH4OS op 28 juli 2024 10:34]

Ik weet waarover het gaat: van input en signal processing latency, network hops tot zelfs de snelheid van elektriciteit door circuits. We spreken nu over een verschil van 2 ipv 3 ms tussen elke refresh, ter vergelijking: in die grootteorde (en zelfs nog een orde groter) worden high-speed camera's ingezet om finishfoto's te maken omdat men niet meer met het blote oog kan zien en de reden waarom men bij professionele sportwedstrijden niet meer op juryleden met chronometers vertrouwd.
De hoogste tickrate die momenteel gebruikt wordt is 128, wat wil zeggen dat de game-engine server-side "slechts" om de 8ms de game-state update. Het hele "elke milliseconde telt" verhaal is dus al wat overdreven, want tijd is oneindig deelbaar en zo kan je bezig blijven. Dat een foton nog 1 duizendste van een seconde sneller richting je oogbal vertrekt valt in het niets met alle andere factoren die veel relevanter zijn.
De techniek heeft de menselijke capaciteiten voor zover ik weet al een tijdje geleden ingehaald. Ik zeg niet dat ze er daarom maar mee moeten stoppen, maar net zoals bij de megapixelrace in digitale camera's en smartphones of de DPI-frenzy van muissensors stel ik me wel kritisch de vraag hoeveel nut die vooruitgang nog heeft in consumentenproducten.
Voor de gemiddelde consument zal dat weinig uitmaken, maar de pro-gamer kan zulke verschillen gemakkelijker merken. Het gaat daarbij ook vooral over hoe soepel de die updates zijn, of ze nu uiteindelijk opgepakt worden door de server of niet, maakt niet zo heel veel uit.

Vroeger maakte het zelfs uit hoeveel FPS je haalde, want dan kon je in Quake of Unreal Tournament (weet even niet meer exact welke) net wat hoger springen wanneer je boven een bepaald aantal FPS uit kwam, dat kan in de eSports (pro-gaming) dus ook het verschil zijn tussen bleven of dood.
Ik heb genoeg contact gehad met pro-gamers (waaronder de bekendste Jonathan Wendel aka fatal1ty) om te weten hoe zij samenwerkten met hardwarefabrikanten om hardware te ontwikkelen die hun noden konden vervullen, maar ik merk nergens meer geluiden dat hun schermen de bottleneck in hun prestaties vormen.

het was trouwens in Quake dat FPS uitmaakte, omdat de engine zo gebouwd was. UT had dat probleem niet.
Heb jij bewijs van het tegendeel? Nou dan blijft er dus enkel een discussie mogelijk op onderbuikgevoel van beide kanten. En ja dan geloof ik eerder op mijn gut-feeling dan die van een ander :)

[Reactie gewijzigd door watercoolertje op 28 juli 2024 10:34]

Dus een professioneel gamer is geen sterveling maar een soort supermens die dingen kan zien die anderen niet zien?
Maakt het wat uit als de servers maar 64/128 Tick zijn zoals bij csgo?

Wil zeggen dat ze 64/128 updates per seconden doen', als je scherm 200hz is en je fps ook, gaat het daarboven nog verschil maken?
Nee, dat heeft enkel effect op netwerk niveau, niet op hoe jij lokaal het spelen ervaart. Natuurlijk wil je ook op de server eigenlijk een zo hoog mogelijke tickrate hebben, maar het vervelende is wel, hoe hoger de updates (zoals ook de tickrate), hoe meer resources dat kost om dat te verwerken.

Zie over de impact op de CPU belasting bijvoorbeeld reviews: Muizen met hoge polling rates - Corsair Sabre RGB Pro en Razer Viper....
Professioneel gamen moet je als topsport zien, elke kleine verbetering hoe klein dan ook zorgt ervoor dat je beter kunt spelen. En naast dat die teams een dagtaak hebben aan trainen willen ze ook de best mogelijke hardware. En hoe volwassener een sport wordt hoe meer het op de kleine verschillen aankomt.
Zoals wielrenners die hun benen scheren?
Valpartijen en dagelijkse massage en zo niet dan is het ijdelheid.

https://www.fietssport.nl...renners-hun-benen-scheren
Ok, ik snap je punt. Maar verliest de nummer 1 van de wereld het van de nummer 2 op basis van het gekozen type monitor?

Kortom, waar ligt op een gegeven moment de bottleneck? Monitor vs speler?
De prestatie is afhankelijk van alle betrokken factoren, en men probeert elke factor afzonderlijk te verbeteren. Er is op dit moment niet 1 ding waardoor algemene verbetering wordt tegengehouden.

En door alleen de monitor zul je alleen verliezen als alle andere dingen gelijkwaardig zijn.

Voor mij thuis en mijn gaming zal deze monitor zeer weinig tot niets uitmaken, ik zuig in FPS tegen andere mensen en daar gaat deze monitor niets aan veranderen :P

[Reactie gewijzigd door Groningerkoek op 28 juli 2024 10:34]

Kortom, waar ligt op een gegeven moment de bottleneck? Monitor vs speler?
Het is geen kwestie van een bottleneck.

Net zoals bij auto races. Zet een slechte coureur in een goede auto en hij zal beter presteren dan in een slechte auto. De slechte coureur is dus geen bottleneck zoals je bij computer hardware wel zou zien (zet een slechte grafische kaart bij een megasnelle CPU en het zal je geen frame meer opleveren)

Een betere monitor zal ook een slechte speler betere resultaten geven. Er is geen bottleneck, er is een combinatie die beter gaat presteren als je 1 onderdeel van de combinatie verbeterd.
Komt erop neer dat je iets sneller dan je tegenstander kunt reageren omdat je het net iets sneller ziet.
Je vergeet fortnite en apex en cod zijn best wel wat e sport titels :)
Die neem ik niet serieus als e-sport :+
Alleen Valorant komt een beetje in de buurt als fps
Zijn wel de populairste titels dus weet niet hoor ;)
Ik denk de counterstrike fanatiekelingen. Geen AA titel draait ook maar in de buurt van nog niet eens de helft van deze 500Hz refreshrate
500fps heb ik ernstige twijfels bij of dat haalbaar is
Zeer makkelijk zelfs op de snellere gpu's.

Ik doe al 300 fps op een rx470.....
FPS en Hertz zijn niet hetzelfde eh. Dat die monitor een frame een paar keer kan laten zien is op zich niet verkeerd. Het zou zuurder zijn als je meer FPS hebt en je monitor het niet kan laten zien, lijkt me.

Als je 250 fps haalt bij een 500 Hz monitor dan heb je gewoon heerlijk rustig beeld.
Daar ben ik het mee eens, zelfs als ik maar 60 fps haal in een game speel ik nog liever op 240hz dan op 60hz.
Mensen die nog steeds Counter Strike 1.6 of Quake III: Arena spelen? Het was immers vroegah heel normaal om je resolutie naar beneden te trekken voor meer FPS :).

... ik vind de kloof tussen de 'gaming standaard' (at the moment) van 144hz en 500hz echter wel een tikkeltje groot.
Toen ik van 75hz naar 165hz ging was het echt wow, maar kan je dit ook nog merken? Heb ook even een 4K tv gehad en nu weer een 1080p en was dat alweer vergeten dat dat geen 4K is (niet heel grote tv).
Toen hadden we nog CRT schermen, als je dat nu doet met een LCD scherm wordt het 1 groot blurr feest, alsof je een vettige bril op hebt.

[Reactie gewijzigd door mr_evil08 op 28 juli 2024 10:34]

csgo pro's spelen nog steeds op 1024x786 daaromtrent omdat het character models groter maakt dan native.
Je kan ook gewoon doelgroep zeggen hoor :)

Denk aan professionele gamers, voor wie resolutie ondergeschikt is aan responstijd.
Ik stel me ook vragen bij FHD en 27".
Kan je je Duplo blokken supersnel op je scherm toveren.
Of je kan iets verder van je scherm zitten dan je deed op je 24 inch, minder slecht voor je ogen en het beeld is even scherp...
Dat is de trent helaas en ook ik irriteer mij daar aan want 24inch is prima, de high-end schermen zijn allemaal koelkasten waardoor je gedwongen ver van het scherm moet zitten.

[Reactie gewijzigd door mr_evil08 op 28 juli 2024 10:34]

Tenzij je een hogere resolutie neemt. 24” is gewoon echt de max voor full hd
Ik merk zelfs het verschil wel tussen 144Hz en 240Hz, ik zou niet weten hoe dat bij 360Hz tegenover 240Hz zou zijn, laat staan 500Hz...
Kan me een onderzoek herinneren waarbij de maximaal waarneembare frame rate 300 fps was. Daarboven zien/voelen we geen verschil.
Op zich prima dat we er nu zijn met deze nieuwe schermen. Dan nog de resolutie naar 170 dpi en wat betere graphics. :P

[Reactie gewijzigd door Spippy op 28 juli 2024 10:34]

Wel gek want als ik CSGO opstart en de fps cap er af haal via de console waarbij die van 400 fps naar ver boven de 700 schiet en daar blijft hangen voel ik wel verschil in muisbeweging en inputsnelheid.

Lijkt me aan achterhaald onderzoek of ze hebben niet per applicatie of game getest.
De vraag is of die verandering dan ook echt met de verhoging van het aantal fps te maken heeft of dat er ook andere dingen gebeuren. (mogelijk onbedoeld) die het verschil veroorzaken. Je hersenen kunnen dat verschil helemaal niet registreren of verwerken.
Heeft dat dan te maken met de hogere refreshrate van het scherm of de hogere refreshrate van de inputs? Ik denk dat het allen van de laatste is namelijk. Het is namelijk niet ongebruikelijk om inputs met een hogere pollingrate te doen dan de refreshrate van het scherm
Mensen die het tussen hun oren hebben dat ze denken dat het ze voorderl gerft ten opzichte van 360hz.
VR schermpjes.
VR heeft inmiddels 1080p wel achter zich gelaten.
Maar haalt nog niet 500hz.
Ik denk dat zeker daar 500hz waarde heeft.

De wereld is nooit stabiel genoeg maar 500hz lijkt me een goede zaak / kom je ver.

Laten we het hopen :)
Voor een monitor misschien gamers. Voor vr is het wel een grote toevoeging.
Is 1080p überhaupt nog een ding anno 2022? 1440p is toch wel superieur in vrijwel dezelfde vormfactor. Alleen jammer dat er eigenlijk geen 5k displays zijn die 1:1 (200%) kunnen scalen, in tegenstelling tot de 4k monitoren. Jammer dat je daarmee effectief weer op 1080p werkruimte zit als je 200% schaalt.
mensen die rooie oortjes krijgen als de cursor heel glad over het scherm glijd O+

Maar heel serieus gezien denk ik dat de target de competitie markt is. dingen die al genoemt zijn zoals CS die wel 500fps kan raken maar ook andere zullen voordelen kunnen hebben met een hogere refresh rate al zullen ze waarschijnlijk de max niet kunnen raken.
Zal wel geen IPS zijn lijkt me, die kunnen nooit 500hz bijbenen qua pixel transition time tenzij ze op een of andere manier weer een grote stap voorruit hebben gezet.

[Reactie gewijzigd door Marctraider op 28 juli 2024 10:34]

Meestal zijn het inderdaad eerst de TN panelen die een refreshrate stap vooruit maken, maar vergeet niet dat IPS en VA panelen met 240Hz ook al gemaakt worden. (240Hz is denk ik de sweetspot)
Wel mee eens dat IPS schermen moeite hebben met pixel transitietijden maar het zijn nu juist de IPS panelen die 360hz+ halen. TN lijkt juist een beetje vast te zitten op 240hz, waarbij ze met black frame insertion proberen minder blur te krijgen.
Die 360Hz full HD schermen zullen wel als warme broodjes verkopen
Omdat de technology niet stil staat.
Qua DPI wel zo'n beetje. De 29" QHD ultrawide bestaat nog steeds niet... Ondertussen gaat de refresh rate de stratosfeer in. Zal wel goedkope "innovatie" zijn.

Het "waarom" gaat natuurlijk over het nut van de technologie. Ontwikkeling puur om hogere cijfertjes te halen heeft geen voordeel.

[Reactie gewijzigd door Wolfos op 28 juli 2024 10:34]

Marketingtechnisch en omdat de techniek zich blijft ontwikkelen.
Misschien is het een pixelrace en is er geen vraag naar / is het vrij nutteloos, we zullen het zien.
Nee hoor, wellicht niet jouw doelgroep :)
Dit is voor competitief gaming, of voor professional gaming in games waar de fps heel hoog ligt :)
Op den duur houdt het op hoor, het is dan meer tussen hun oren dan werkelijkheid. Ik geloof al weinig in het voordeel van 360hz schermen.
Het houdt niet op, de inputlag blijft omlaag gaan als je de hz en fps verhoogd.

Of een 360hz scherm een voordeel heeft zal per persoon verschillen, kom je van een 60 of 144 hz, dan ga je dat zeker merken, ik merk het verschil tussen 144hz en 240hz al heel goed.

Van mijn 240hz naar 360hz leek mij niet echt de moeite, 500hz zou ik wel kopen als de prijzen gezakt zijn, ik speel voornamelijk spellen op zeer hoge fps.
Het houdt niet op, de inputlag blijft omlaag gaan als je de hz en fps verhoogd.
Dat is niet juist. De input lag blijft juist constant. Een platte monitor heeft nu eenmaal verwerkingstijd nodig van het signaal.

Bij een inputlag van 8ms en 250 Hz wordt iedere 1/250 seconde een frame met 8ms vertraging getoond.
Bij een inputlag van 8ms en 500 Hz wordt iedere 1/500 seconde een frame met 8ms vertraging getoond.

In beide gevallen zie je het beeld met 8ms vetraging.
Het houd wel op want het verschil tussen 360Hz en 500Hz is maar 0,8ms. Een onwaarneembare lage tijd voor mensen. Jij kan niemand recht in zijn ogen aankijken en zeggen dat jij het verschil tussen 2ms per frame en 2,8ms per frame
Naam van die fabrikant...

}:O
Allemaal marketing. Wat moet je ermee?
Technologische gezien een mooi product, zeker voor de professionele gamer.

Als echte casual gamer zie ik liever dat men een frame limiet toepast op zeg 120 Hz. Voor de weinig tijd die ik heb wil ik gewoon casual een spelletje spelen en ik wil er best wel wat tijd en geld aan uitgeven, maar geen duizenden euro’s om een game binnen te lopen en meteen kanonvoer te zijn. Natuurlijk ervaring speelt ook mee, maar het wordt zowel op steeds meer vlakken pay2win in sommige games. ;)
De hoge hz schermen hoeven helemaal niet zoveel te kosten, ze zijn vaak 1080p resolutie.
De 240hz schermen kon je ook al vrij snel na release voor minder dan 300 euro kopen.
Als casual ga je vaker af door strategische fouten. (Mapkennis, gamekennis ed) dus dit verschil zou weinig uit moeten maken.
Vanuit technologisch aspect is het een interessant product, maar 500Hz lijkt me, uitzonderingen daar gelaten, toch wel voorbij het "point of diminishing returns".

Op dit item kan niet meer gereageerd worden.