AOC introduceert 540Hz-gamingmonitor; komt uit in juli

TPV laat op een eigen event een tweetal AOC-monitors zien bedoeld voor e-sporters. Beide schermen hebben een diagonaal van ongeveer 24" en een Full HD-resolutie; de keus is uit een ips-scherm met 390Hz-refreshrate, of een TN-scherm met 540Hz-refreshrate.

De AOC AGON Pro AG256FS is het ips-model, dat om precies te zijn een diagonaal van 24,5" heeft. De TN-tegenhanger, de AGON Pro AG246FK, is met 24,1" iets kleiner. De Full HD-resolutie is voor beide modellen identiek. Het TN-scherm ondersteunt de hoogste refreshrate van 540Hz, gelijk aan de ASUS ROG Swift Pro PG248QP die Tweakers eerder testte. Het ips-scherm heeft nog altijd een niet onaanzienlijke refreshrate van 360Hz, of 390Hz met een overklokfunctie. Beide schermen bieden een 100 procent sRGB-dekking en krijgen een Vesa DisplayHDR400-keurmerk.

De schermen zijn voorzien van hetzelfde design als de AOC AGON Pro AG276QZD die vorig jaar werd gepresenteerd, met een asymmetrisch vormgegeven voet en een geïntegreerd haakje voor een headset. Het duo beschikt over een USB-hub, 5W-speakers en RGB-verlichting.

De AOC AGON Pro AG256FS en AGON Pro AG246F moeten allebei in juli uitkomen. Het ips-model is met 449 euro goedkoper dan het TN-scherm: die krijgt een adviesprijs van 699 euro.

AOC AGON Pro AG246FKAOC AGON Pro AG246FKAOC AGON Pro AG246FKAOC AGON Pro AG246FK

AOC AGON Pro AG246FK

Door Friso Weijers

Redacteur

21-04-2024 • 14:20

185

Lees meer

Reacties (185)

185
182
71
1
1
63
Wijzig sortering
Wat is het nut van dergelijk hoge frequenties?
Ik heb twee 15 jaar oude iiyama schermen, en die zijn voor mij meer dan goed genoeg in games, Ik zie het nut niet in van een 540 Hz monitor...

Wat zie ik verkeerd of is het nutteloos?
In deze video van Nvidia, uitgelegd door een expert, wordt de relatie tussen de verversingssnelheid van monitoren en de frame rate gedetailleerd besproken. Een hogere Hz-waarde en frame rate zorgen voor een soepelere weergave, wat vooral bij snelle games een groot voordeel kan zijn. Dit komt doordat objecten sneller en duidelijker herkenbaar zijn, wat cruciaal is voor tijdige reacties. Je ziet namelijk sneller een update. Een 360Hz monitor toont elke 2.8ms een beeld een 500hz monitor elke 2ms. Elke kleine verbetering die de reactie tijd verlaagd is een voordeel.

Je wilt de Hz van je monitor en de frame rate het liefst zo hoog mogelijk hebben. 540 vs 240 of 144 is een stukje smoother en dat kan weldegelijk uitmaken. Zeker bij fast paced games is het fijn voor objectherkenning (Waarneming: er loopt iets) of om meer up to date frames te hebben om op te schieten en dus sneller kan klikken op de correcte plaats.

Op het tijdstip 5:12 in de video wordt een voorbeeld getoond waarbij een speler om de hoek komt en eerder zichtbaar is met een hogere fps. Zowel de hand als het lichaam van de tegenstander zijn fractioneel eerder te zien. Verder toont een grafiek op 5:59 dat spelers met een hogere fps en Hz een betere kill/death-ratio hebben.

Wetenschappelijke studies bevestigen dit voordeel: onderzoek van de Universiteit van Nottingham toonde aan dat gamers met een 240Hz-beeldscherm gemiddeld 30% sneller reageren op visuele stimuli dan gamers met een 60Hz-beeldscherm. Onderzoek van de Purdue University wees uit dat gamers met een 144Hz-beeldscherm 20% sneller reageren op targets dan gamers met een 60Hz-beeldscherm. Echter, de grootste stappen worden gemaakt bij lagere framerates, zoals verbeteringen in visuele responsiviteit bij overgangen van lagere naar matig hogere refresh rates (bijvoorbeeld van 60 Hz naar 144 Hz) volgens het tijdschrift 'Attention, Perception, & Psychophysics'. De voordelen bereiken een punt van afnemende meerwaarde.

Ik kwam zelfs dit onderzoek tegen waarbij CRT-schermen centraal staan: Bridgeman en Montegut (1993) toonden aan dat hogere flickerrates de leessnelheid kunnen verbeteren door de wachttijd tussen zichtbare tekstupdates op CRT-schermen te verminderen. Hoewel dit onderzoek zich specifiek richt op het lezen van tekst, wijzen de resultaten op de mogelijkheid dat soortgelijke principes ook van toepassing kunnen zijn op andere vormen van visuele verwerking, zoals bij videogames. Zie ook deze afbeelding: https://tweakers.net/foto...KxNDmKSWooPKWvG4GUFby.png
The higher the contrast ratio is, the shorter the reaction time tends to be. In addition, the faster the response time is, the shorter the reaction time is. Displays with high contrast ratio and fast response time are advantageous in terms of reaction time, which is also expected to be more advantageous in a fast-paced real gaming environment.
https://sid.onlinelibrary...doi/abs/10.1002/jsid.1198

Wat is de max?
Tests with Air force pilots have shown, that they could identify the plane on a flashed picture that was flashed only for 1/220th of a second. That is identifying. So it's pretty safe to say, that recognizing, that SOME light was there is possible with 1/300th of a second.
http://www.100fps.com/how_many_frames_can_humans_see.htm
Word in dit filmpje vanaf +/- 4:00 ook kort op ingegaan

Note: Het originele onderzoek betreft de waarneming van zeer korte visuele stimuli onder gecontroleerde omstandigheden, wat niet direct 100% vertaalbaar is naar de perceptie van frame rates in videogames.

Linus Tech Tips heeft ook experimenten (niet wetenschappelijk) uitgevoerd met CS:GO op monitoren van 60, 144 en 240 Hz. De resultaten tonen aan dat spelers met hogere frame rates over het algemeen snellere reactietijden hebben. Linus concludeert dat vooral casual spelers baat hebben bij een upgrade van 144 naar 240 Hz, meer nog dan professionele spelers.

Zie de uitslag hier:
YouTube: Does High FPS make you a better gamer? Ft. Shroud - FINAL ANSWER

Op 33:51 concludeert Linus dat casual players (nog) meer baat bij de verhoging van 144 naar 240 hebben dan de professionelere spelers. Op 34:50 concludeert Linus eigenlijk hetzelfde als ik hierboven ook al opsomde vanuit de Nvidia clip.

De meerwaarde van een hoger Hz scherm is er dus wel degelijk, waar de limiet van effectief gebruik ligt kan ik zo niet vinden maar die ligt dus in ieder geval wel boven de 240 Hz die op dit moment op de markt te vinden zijn. Het lijkt me dat een scherm met 500 Hz of hoger zeker een effectieve toevoeging kan zijn voor voor gamers (Fast paced shooters, in de toekomst vr?, pro drone vliegen) met een degelijke use case. Een hogere framerate zorgt voor een soepelere gameplay en een kortere input lag, wat onmisbaar is voor competitieve gamers.

Dit YouTube kanaal geeft trouwens een basis uitleg over hoe onze hersenen en ogen werken en hoe dit te vergelijken is met fps op een scherm.

[Reactie gewijzigd door jdh009 op 23 juli 2024 08:23]

Met een hogere Hz wordt ook met een lagere FPS een beeldje eerder getoond doordat er eerder een verversing is inderdaad.

Maar is dit niet verholpen met VRR, immers wordt het beeld dan alleen ververst wanneer er een nieuwe frame beschikbaar is. In theorie altijd sneller dan hogere Hz als VRR geen vertraging heeft.
G-SYNC en FreeSync bieden inderdaad de mogelijkheid om de refresh rate van een monitor te synchroniseren met de frame rate van de grafische kaart en daardoor tearing en stotteren vermindert wat weer zorgt voor een soepelere beeldervaring.

Echter, ondanks dat VRR voordelen biedt, vooral bij variërende frame rates, heeft een hogere vaste refresh rate nog steeds zijn eigen voordelen. Met een hogere Hz kan elke individuele frame nog steed sneller worden getoond, zelfs als de frames niet volledig synchroon lopen met de refresh rate van het scherm wat weer resulteert in een merkbare verbetering van de responsiviteit. Vooral in snelle games waar zelfs kleine verschillen in de timing van frame-presentatie cruciaal kunnen zijn.

VRR zorgt ervoor dat de monitor het beste presteren binnen een bepaald bereik van frame rates. Als de frame rate buiten dit bereik valt (te hoog of te laag), schakelt de monitor mogelijk terug naar een standaard refresh rate, wat de voordelen van VRR teniet doet. Bij een hogere vaste refresh rate heb je altijd het voordeel van die snellere updates, ongeacht of de frame rate fluctueert.

@24hourpartypal Je hebt helemaal gelijk. Echter, vanuit technisch oogpunt biedt 540 Hz met VRR objectief gezien een snellere reactietijd en betere prestaties vergeleken met 240 Hz met VRR. Natuurlijk ervan uitgaande dat je met de rest van het systeem wel deze verversing kunt halen en er consistent een frame klaarstaat om getoond te worden.

[Reactie gewijzigd door jdh009 op 23 juli 2024 08:23]

Wat @Horatius denk ik bedoelt, en wat ook helemaal klopt, is dat met VRR altijd je frames gelijk uit de framebuffer gestuurd kunnen worden. Dit zorgt voor een theoretisch lagere latency omdat de framebuffer dus altijd leeg is. Volgens mij wordt dat in deze video omschreven.

Edit, nee dat klopt niet inderdaad. Of naja, misschien kan dit tussen een 240hz of 270hz (of zelfs 360?) misschien wel zo zijn. Zal meer met de totale input latency te maken hebben hoe dit uitspeeld.

[Reactie gewijzigd door 24hourpartypal op 23 juli 2024 08:23]

de G-SYNC en FreeSync cert. is over het algemeen maar een cert en gaat het voornamelijk om de adaptive sync en niet zozeer om G-SYNC of FreeSync beide technologien kunnen overigens op beide GPU's werken

zoals beschreven in een YT vid van hardware unboxed
Ok ik snap je hele uitleg, maar als onze ogen dat niet kunnen waarnemen kan het beeld wel elke 2ms of 1ms of 0.5ms verversen, maar als jij onder de 10ms niet meer waarneemt wat voor zin heeft het dan? of een beeldscherm dan elke 10ms of 5ms ververst maakt geen verschil meer dan want je ziet in beide gevallen gewoon hetzelfde beeld op dezelfde tijd. Dat hij dan maar 1 keer of 3 ververst heeft op het moment dat jij het waarneemt maakt het dus ook niet dat je het sneller ziet. De tijd tussen het vorige beeldje en het huidige beeld zie jij precies even snel op dezelfde tijd.

Welke goflengte hebben uberhaupt de signalen in onze oogzenuwen? (edit: even gegoogled maar dat weten ze dus schijnbaar niet, maar uit testen blijkt dat het gemiddeld ongeveer tussen de 60 en 90hz ligt, maar dat er wel cases zijn dat het tot aan 500hz dus nog wel kan gaan. Dan zou je zeggen dat 540hz schermen zo ongeveer wel echt de limiet zouden zijn, maarja dit geld dan ook maar voor een bepaalde groep mensen en is voor de meeste dus al nutteloos)

Maarja daarnaast stel wat je zegt klopt en je kan dit ook waarnemen, dan heeft 540hz ook alleen zin als de game ook met 540 fps draait, anders zie je namelijk gewoon meerdere keren hetzelfde beeld en heb je nog steeds hetzelfde probleem. Ik weet niet hoor, maar welke game haalt vandaag de dag 540fps? Dan praat je echt over hele oude shooters als Counter Strike ofzo...


Ik betwijfel echt zeer of je met 500hz nog enige voordeel hebt over een 200hz scherm. Maar eh ze moeten natuurlijk dingen blijven verzinnen om de verkoop niet te laten stagneren. De hertz race in schermen is momenteel een beetje hetzelfde als ooit de megapixels race was heb ik het idee. Ik bedoel even disclaimer ik ben verder geen expert op dit gebied en alles wat ik hierboven zeg is gewoon ik die logisch probeer na te denken. Wellicht dat ik er helemaal naast zit. Maar de argumenten komen mij meer over als marketing praat.

[Reactie gewijzigd door ro8in op 23 juli 2024 08:23]

Onze ogen nemen veel meer waar dan je denkt. Daarnaast zou je de "refreshrate" van onze ogen ook nog eens kunnen timen met de refreshrate van je monitor. Mogelijk zie je niet iedere frame verversen maar je ziet wel eerder dat er een mannetje het beeld in komt lopen. En dat is nou precies waar het om gaat.

Ik zou zeggen, doe eens de UFO test op een scherm met een zeer hoge refreshrate. Ik durf te wedden dat ook jij het verschil ziet.
Jouw heel mooie post zou eigenlijk standaard onder elk bericht over high refreshrate schermen moeten worden geplaatst :) Het is echt super vermoeiend om steeds al die ongefundeerde reacties over dat high(er) refreshrates nutteloos zouden zijn te moeten lezen. Kanttekeningen zijn diminishing returns inderdaad, maar dat is nogal een open deur maar duidelijk is dat van 144hz naar 250hz plus of 500hz met black frame insertion (dus 250hz met beter contrast) echt wel een stevige verbetering is als je gericht bent op competitive shooters.

[Reactie gewijzigd door PjotterP op 23 juli 2024 08:23]

Een 360Hz monitor toont elke 2.8ms een beeld een 500hz monitor elke 2ms. Elke kleine verbetering die de reactie tijd verlaagd is een voordeel.
0,8 milliseconde, 0,0008 seconde dus. Ik durf wel te stellen dat dit voor het blote oog niet waarneembaar is. Tuurlijk is sneller technisch beter, maar in deze vergelijking in de praktijk dus niet.

De test van Linus ging overigens maar tot 240 fps, en ik denk niet dat je die resultaten zomaar door kan trekken naar 500 Hz/fps.

[Reactie gewijzigd door Kurios op 23 juli 2024 08:23]

Het nut is latency en ghosting reductie. Let op: dat zijn niet per se dingen die je bewust ziet. Maar hoe EERDER en DUIDELIJKER en scherm jou een bepaald object en/of (verandering van de ) richting van dat object toont, hoe eerder je daar op kan reageren.

Een game zoals een shooter is immers geen film, maar een interactief gebeuren met actie reactie. Voor een vloeiende ervaring is 144hz al zat. Maar nogmaals, voor competatieve shooters is een nog hogere refreshrate dan dat wel nuttig.

[Reactie gewijzigd door PjotterP op 23 juli 2024 08:23]

Een game zoals een shooter is immers geen film, maar een interactief gebeuren met actie reactie. Voor een vloeiende ervaring is 144hz al zat. Maar nogmaals, voor competatieve shooters is een nog hogere refreshrate dan dat wel nuttig.
Of dat echt nuttig is valt te betwijfelen. Is het menselijk reactievermogen echt zo goed dat er een waarneembaar verschil is tussen bijvoorbeeld 0,002 seconden (1 frame bij 540 Hz) en 0,004 seconden (1 frame bij 240 Hz)?

Gezien de theorie betwijfel ik dat er een significant verschil is. Dit zou enkel objectief getest kunnen worden met een dubbelblindtest voordat je met zekerheid kan zeggen dat nog meer Hz nuttig is.

[Reactie gewijzigd door The Zep Man op 23 juli 2024 08:23]

Dit komt elke keer weer naar voren, maar het nut van zo'n hoog mogelijke refresh rate is niet reactievermogen zelf, maar de duidelijkheid van het beeld bij snelle bewegingen. In competetieve shooters doe je vaak snelle bewegingen, en of je tijdens zo'n beweging 3, 10 of 30 frames te zien krijgt maakt enorm veel uit voor hoe interpreteerbaar het beeld is, en of je snapt wat er aan het bewegen is welke kant op met welke snelheid. Bij een lage hoeveelheid frames ben je gewoon even blind want je hele beeld verandert veel te veel tussen elke frame voor je hersenen om dat aan elkaar te knopen tot een logisch bewegend geheel.

Daar is natuurlijk een limiet aan, maar die ligt verassend hoog. Zelf merk ik echt op mijn 360Hz monitor dat bij elke stap meer frames het beeld echt beter te volgen word als het allemaal snel gaat. Dat gaat het em het verschil niet maken voor ons gewone stervelingen, maar de pros op topniveau willen graag elk voordeel meenemen.
Je praat te algemeen ,
of je tijdens zo'n beweging 3, 10 of 30 frames te zien krijgt maakt enorm veel uit voor hoe interpreteerbaar het beeld is
De vraag is of je pakweg 240 hz vs 540hz effectief "ziet" of ervaart.
Zelfs al heb je 540fps (wat in zowat alle games je niet gaat hebben) ga je dat verschil merken tov 240fps?
Bij een lage hoeveelheid frames ben je gewoon even blind want je hele beeld verandert veel te veel tussen elke frame voor je hersenen om dat aan elkaar te knopen tot een logisch bewegend geheel.
Dan spreek je van 24fps , niet 240fps.

Veel van dit is puur placebo
Veel van dit is puur placebo
Zeg jij stellig, gebaseerd waar op? Zelf heb ik een 360Hz monitor en er mee getest wat het effect daadwerkelijk is, daar baseer ik me op. Als ik het effect kan zien als niet pro toernooispeler, dan kunnen de pro's dat zeker.
Dan spreek je van 24fps , niet 240fps.
Absoluut niet. Een flick is een snelle beweging die constant gemaakt word binnen competitive FPS. Je spreekt hier van bewegingen van 100ms tot sneller, die in het uiterste geval een volle 180 kunnen zijn. Als je op 240fps hebt moet je dus 24 frames verdelen over die 180 graden, dan ben je elke keer sprongen aan het maken van 7.5 graad per frame, dat is flink veel. Op 540Hz is dat nog maal 3.3333 graad. Dat kan het verschil zijn tussen een beeld wat je kan volgen en waar je dingen in kan zien, of iets waar je hersenen gewoon kleursoep van maken totdat de beweging weer afremt.

Is dat verschil het waard voor de normale gamer? Absoluut niet, en dat zeg ik dan ook niet, dit zal een voordeel zijn die alleen de pro's op de hoogste niveaus zou kunnen boeien. Maar kan je bij snellere bewegingen bij meer Hz steeds beter en beter zien in ieder geval tot 360Hz, daar heb ik zelf gewoon ervaring mee.
1. Je GPU gaat waarschijnlijk geen 500 frames kunnen renderen per seconde
2. Bijna niemand in blinde tests kan een 360 Hz er uit pikken tov 240 Hz. Dat verschil zal alleen maar kleiner worden bij 360 vs hoger.

[Reactie gewijzigd door Dekar op 23 juli 2024 08:23]

Ik haalde al in sommige situaties over de 1000fps met m'n 1060 6GB in Valorant. De test die je gelinkt hebt is Valorant en daar zeggen ze dat ze 700+fps hebben. De game is voornamelijk beperkt door de main CPU thread, niet de GPU, en is super licht gehouden zodat iedereen het kan spelen en juist die extreem hoge framerates mogelijk worden. En inderdaad, maar bijna niemand is ook pro gamer, en dat is de enige groep voor wie deze schermen uberhaupt interessant zijn.
Er zullen altijd mensen zijn die 144Hz als dikke prima zien (en dat is oké) Maar alles daarboven als onzin beschouwen. Je kunt hen daar niet echt van overtuigen.

Ik bedoel er zijn nog steeds mensen die denken dat het menselijk oog niet meer dan 60 fps kan waarnemen, en daarom alles boven 60 pure onzin is. |:(

Eigenlijk altijd een beetje zinloos debat

[Reactie gewijzigd door PrometheusOW op 23 juli 2024 08:23]

Ja, ik zie wat je bedoelt, ik ga me er volgende keer ook niet meer zo in mengen. Wel jammer, want zo loopt de discussie de connectie mis met de competitieve fps scene die juist een hoop ervaring met die hoge refresh rates heeft en in de engines speelt waar ze gehaald worden. Maar voor je mentale gesteldheid is het waarschijnlijk wel een stuk beter om iedereen maar lekker te laten speculeren over het menselijk oog ;)
1000 fps en wat dan met de latency tussen de verschillende spelers :?
Client prediction, bijhouden van ticks, en een hele hoop slimme technologie! Als je wil weten hoe het werkt, Riot heeft zelf een aantal artikelen over hun engine en netcode design gepubliceerd, zoals bijv: https://technology.riotga...peeking-valorants-netcode
Zeg jij stellig, gebaseerd waar op? Zelf heb ik een 360Hz monitor en er mee getest wat het effect daadwerkelijk is, daar baseer ik me op. Als ik het effect kan zien als niet pro toernooispeler, dan kunnen de pro's dat zeker.
Op decenia lang gaming. Heb hier een 144hz en 240hz monitor staan.
Absoluut niet. Een flick is een snelle beweging die constant gemaakt word binnen competitive FPS. Je spreekt hier van bewegingen van 100ms tot sneller, die in het uiterste geval een volle 180 kunnen zijn. Als je op 240fps hebt moet je dus 24 frames verdelen over die 180 graden, dan ben je elke keer sprongen aan het maken van 7.5 graad per frame, dat is flink veel. Op 540Hz is dat nog maal 3.3333 graad. Dat kan het verschil zijn tussen een beeld wat je kan volgen en waar je dingen in kan zien, of iets waar je hersenen gewoon kleursoep van maken totdat de beweging weer afremt.
Pro gamers spelen niet op dergelijke refresh rates games , online multie player games kunnen dat ook niet aan. Je gaat hier echt niet beter door spelen zelfs niet op iets competitief voor een gewone gamer, dit is even nuttig als special gaming stoelen voor 99.99% van de gamers.
Pro gamers spelen niet op dergelijke refresh rates games , online multie player games kunnen dat ook niet aan.
De 2023 Valorant Champions finals waren tussen Evil Geniuses en Paper Rex, waarvan ongeveer de helft van de spelers op 240Hz speelt en de andere helft op 360Hz. De game kan dat prima aan, ga geen claims maken over dit soort gear als je duidelijk niet weet wat er in de space gebeurt.
Valorant zou een 128 tick rate hebben, daarbij is 360hz geen 540 hz waar het hier over gaat.
Dus neen de game kan dat niet aan.

[Reactie gewijzigd door k995 op 23 juli 2024 08:23]

De Valorant servers hebben een tick rate van 128, maar de client draait sneller dan dat en voorspelt movement op slimme manieren, en niets daar van doet af aan het feit dat meer frames zorgt voor betere visual clarity zelfs als er totaal niks aan de game state zou veranderen tot een server update. Ja, de game kan dat prima aan.
Je zegt het zelf, de game update elke 128 ticks, die kan die snelheid dus helemaal niet aan en het grootste "vorrdeel" (wat veel hier aanhalen) is er helemaal geen.

Meeste multiplayer games zitten tussen de 32 en 64 ticks trouwens.

En niks veranderd aan het feit dat de overgrote meerderheid van mensen dit niet gaat merken laat staan beter spelen.
Je zegt het zelf, de game update elke 128 ticks, die kan die snelheid dus helemaal niet aan
Okay, aangenomen dat je dit soort technologie binnen fps games gewoon niet kent zal ik er even tijd aan besteden hoe het werkt.

De Valorant client en server communiceren 128 keer per seconde met elkaar. Dat is de tick rate. Dat staat los van wat de client verder als framerate heeft, want de client update zichzelf veel meer dan 128 keer per seconde, om de informatie op het scherm zo up to date mogelijk te houden. Hoe doet de client dat zonder informatie van de server? Nou, Valorant heeft net als bijna elke fps momentum based movement. Dat betekent dat je een bepaalde snelheid hebt een bepaalde richting in, en het een tijd duurt om die richting of snelheid te veranderen. De client kan dus de voorspelling doen dat de movement die is ingezet door alle spelers doorgezet blijft (bij de meeste updates van de server wisselen spelers niet van movement input, je wisselt namelijk geen 128 keer per seconde van movement input), en zo zichzelf updaten. Als blijkt dat dat niet zo is en een speler een andere movement input heeft gedaan, corrigeert de client subtiel, want het verschil is extreem klein omdat je gewoon in 1/128e van een seconde niet veel aan je momentum verandert zelfs met compleet omgekeerde movement.

Op die manier kan de tick rate van je server wel 128 zijn, maar update de client van je game veel sneller, en kan je op de client meer updates van de game state aan dan je door de tick rate zou verwachten. En zo heb je dus ook wat aan je 240 of 540Hz monitor, omdat je client dan die voorspelde frames aan je kan weergeven.
Je snapt nog steeds niet waar het om gaat blijkbaar. het gaat hier niet om elkaar het snelste zien maar om elkaar het eerst neer te schieten.

De (incorrecte) logica is hier dat met hogere FPS zal je elkaar sneller zien EN reageren en dus het eerste zijn en "winnen". Zelfs al negeren we alle menselijke en alle andere technische verschillen (wat absurd is maar stel) dan nog maakt dit weinig uit. Doen we de nog absurdere veronderstelling dat iemand zo snel kan reageren dan nog maakt dit niet uit omdat de tick ervoor zal zorgen dat die gelijktijdig geregistreerd komt waar het uitmaakt: de server.

Misschien als je heel veel geluk hebt en juist tussen die zit maar dat is puur geluk .

En nogmaals dat gaat van de heel absurde situatie uit dat er geen andere technische en menselijke verschillen zijn. In de praktijk is dit dus nutteloos voor zowat alle gamers en zelfs de meeste pro gamers.

Oh tuurlijk gaan die die gebruiken maar dat is pure marketing weinig dat dit echt een verschil voor hen maakt.
Doen we de nog absurdere veronderstelling dat iemand zo snel kan reageren dan nog maakt dit niet uit omdat de tick ervoor zal zorgen dat die gelijktijdig geregistreerd komt waar het uitmaakt: de server.
Je doet hier wederom een verkeerde aanname over de techniek. De client weet hoe ver je in je in een tick bent en timestampt je schot, zodat de server kan vergelijken wie als eerste een schot gelost heeft. Daarom zie je nooit de situatie dat mensen tegelijk elkaar neerschieten in Valorant, iets wat anders zou moeten kunnen als pakketten gewoon op dezelfde tick binnenkomen. Zie, er is flink over nagedacht, het zit best slim in elkaar!
Je snapt nog steeds niet waar het om gaat blijkbaar. het gaat hier niet om elkaar het snelste zien maar om elkaar het eerst neer te schieten.
Zelfs als we hier in mee gaan... als je je tegenstander het snelste ziet dan kan je toch eerder op LMB drukken? En zelfs als alles zo discreet binnen 128 ticks zou gaan (wat het dus niet doet) heb je dan toch de kans om in een net eerdere tick mee te gaan? Volgens mij bestaat dat theoretische voordeel gewoon, hoe de techniek ook werkt. Maar zoals gezegd, ik denk dat het grootste voordeel de visual clarity is, niet het reactievermogen, vandaar dat ik dat expliciet benoemde.

Maar goed, ik wil dus maar even uitleggen, Valorant kan prima 540fps aan. De techniek is slim en zorgt er voor dat je op de client zo snel kan draaien als je wil, en de tick rate van 128 en de manier waar het spel op werkt betekent dat de client en server state niet ver uit elkaar raken.
De verwarring is bij veel mensen absoluut vs additief relatief. De snelste reactietijd ooit gemeten in 100ms, bij normale mensen is het zo max 175ms, meestal 200ms. Je kan dus uberhaupt niet reageren op een tick, laat staan een frame, niemand. Maar.... er is wel een verschil of jij 200ms neemt of 202ms. Dus als jouw frame gewoon 2ms eerder komt, dan win je, ook al reageer je daar pas 200ms later op.

Die local timestamp trouwens, is dat niet onwijs cheat gevoelig?

[Reactie gewijzigd door Zoijar op 23 juli 2024 08:23]

Je denkt dat de timestamp die maximaal 1/128e van een seconde beinvloed cheat gevoelig is, en niet dat je client alle posities van je vijanden moet kennen om predictive movement überhaupt te kunnen doen? ;) Klopt, de client wordt veel toevertrouwd in Valorant, vandaar dat er zo'n aggressieve anti-cheat in zit in de vorm van Vanguard.
Zeg jij stellig, gebaseerd waar op?
Gebaseerd dat nooit met een dubbelblindtest is aangetoond dat een daadwerkelijk verschil wordt opgemerkt op zulke hoge refresh rates (en dat zo'n hoge framerate invloed heeft op gameplay).

"Het is geen placebo, want ik zie het." is geen goed argument om een placebo te ontkrachten, want die stelling gaat enkel uit van je eigen waarneming. Tegelijkertijd is het aan degene die claimt dat iets bestaat (het verschil) om dit aan te tonen. Immers is het onmogelijk om te bewijzen dat iets niet bestaat, maar is het wel aannemelijk te maken dat iets wel bestaat (door een dubbelblindtest).

[Reactie gewijzigd door The Zep Man op 23 juli 2024 08:23]

"Er is nog nooit onderzoek naar gedaan dus we weten het niet" is anders dan "dit is puur placebo". Om die laatste claim te maken zou je dat onderzoek juist moeten hebben.
Om die laatste claim te maken zou je dat onderzoek juist moeten hebben.
Andersom is onderzoek ook nodig om de claim "ik merk wel een verschil" te maken.

De theorie gecombineerd met de vele andere variabelen die komen kijken bij spellen spelen geeft aan dat als er een verschil is, dat het waarschijnlijk insignificant is. Jij bent vrij om het tegendeel te bewijzen. :)

[Reactie gewijzigd door The Zep Man op 23 juli 2024 08:23]

Mijn claim is, zoals jij ook zegt, "ik merk wel een verschil". Het is niet "het is objectief zo dat er een significant verschil is". Dwz, mijn claim heeft expliciet een subjectieve basis, daarom zeg ik er bij dat dit gebaseerd is op mijn persoonlijke ervaring, zodat men mijn claim in context kan zetten en dan zelf kan beslissen om het te geloven of niet te geloven, bij gebrek aan wetenschappelijk onderzoek hier over.

[Reactie gewijzigd door jaxxil op 23 juli 2024 08:23]

Veel van dit is puur placebo
Integendeel, dit is juist puur theoretisch;

Stel: er spelen 2 tegenstanders tegen elkaar een shooter game, ze hebben beide exact dezelfde reactiesnelheid. Als de ene speler zijn beeld 0,002 seconden eerder ziet dan de andere speler, kan hij 0,002 seconden eerder reageren. Dat is in een digitale game het verschil tussen winnen of verliezen. Zie het als 2 cowboys die tegenover elkaar staan om revolver duel te doen.

Er zit ook een keerzijde aan dergelijke hoge refresch schermen, en dat is dat de pixels zelf helemaal niet in staat zijn om zo snel te schakelen. Voordat de pixel zijn juiste lichtwaarde heeft berijkt, krijgt het alweer een andere opdracht. Pixels zullen dus zeer zelden de juiste lichtopbrengst behalen, wat resulteerd in afwijkend kleurgedrag. Dat is echter in E-sports van ondergeschikt belang. Voor de thuisgamer zijn deze schermen niet geschikt.
Integendeel, dit is juist puur theoretisch;
We leven echter niet in de theoretische maar de echte wereld en in de echte wereld hebben multiplayer games tick rates: dat wil zeggen, hoeveel keer een server de speler posities update.

Als 2 games dus elkaar zien hangt dit van de tick rate (tussen de 20 en 50/s meestal) wanneer ze elkaar gaan zien, als de ene dus 240hz en de andere 540 hz is zullen ze dit beide elkaar zo goed als evensnel zien .

En neen 0.002 seconden maakt niks uit, dit is en blijft een game en niet louter 'wie klikt het snelst" immers in zowat elke game hangt het ervanaf of je raak schiet, waar je schiet, welke wapen,...
Vandaar ook theoretisch. Dat er nog meer factoren zijn maakt dat niet minder.
Nogmaals we leven in de realiteit: ik praat daarin en daarin is dit zo goed als nutteloos voor zowat iedereen.
Het ging toch over het theoretische nut van dergelijke schermen? En die is er, zoals ik aantoonde in mijn voorbeeld. Nu lijkt het alsof je het verschil niet kent tussen theorie en praktijk. Dan houd een inhoudelijke discussie op.
Neen het ging over feitelijke verschillen: is het nuttig dit te kopen.
En zelfs theoretisch is er geen/amper geen nut laat staan practisch.
Stel jezelf even de vraag of je bij games met een tickerate van 20, je FPS zou kunnen cappen op 20 en dezelfde ervaring zou hebben als bij 60FPS of hoger.. Volgens uw theorie zou dat exact hetzelfde moeten zijn.
Nee want in dit geval gaat de vertraging wel groot genoeg zijn.

FYI :
20 fps = 50ms
60 fps = 16 ms
240 fps = 4 ms
540 fps = 1.9 ms

SNap je waar ik naartoe wil? die 2ms vallen in het niet tegen al de rest van de vertragingen.
En waar ik naartoe wil is dat de ticktate niet rechtstreeks in verband staat met de refreshrate van een monitor (of pollingrate van een muis zoals ik soms ook wel zie).

De gemiddelde reactietijd verkort weldegelijk 2ms. Hoewel dat dus weldegelijk een beetje winst is, zij het minimaal maar alle beetjes helpen, zit daar het grootste voordeel niet.
Het grootste voordeel word behaald doordat het beeld nog vloeiender kan weergegeven worden. Bij snelle actie (lopen, draaien, springen tegelijk) kan dit helpen om een duidelijker beeld te vormen van wat er rondom jou gebeurd. Het kan het verschil maken tussen een 'vlek' zien tijdens een snelle draaibeweging of het herkennen van het silhouet van een vijand bijvoorbeeld. De tickrate speelt hierbij amper of geen rol.

Daarbovenop komt ook dat hoe meer stapjes je neemt, hoe minder de winst merkbaar word bij de volgende stap. Het verschil tussen 360 en 540Hz gaat veel minder waarneembaar zijn dan het verschil tussen 60Hz en 240Hz of 60Hz en 540Hz omdat het verschil procentueel kleiner is. Om meer verschil te merken met een 360Hz scherm ga je dus eerder naar 1000Hz en meer moeten gaan.
In de praktijk zijn we daar lang niet aan toe, maar roeptoeteren dat 540Hz onzin is en je het verschil niet meer merkt is mijn inziens veel te kort door de bocht.
In de praktijk zijn we daar lang niet aan toe, maar roeptoeteren dat 540Hz onzin is en je het verschil niet meer merkt is mijn inziens veel te kort door de bocht.
Dat is gewoon de realiteit, de meeste gamers gaan het verschil al veel vroeger niet meer merken.
Is wel verschil per persoon: https://www.dutchcowboys....t-in-een-andere-framerate maar hoe ver dat gaat kon ik niet zo snel vinden :)

En misschien voor de pro-gamer wel een soort van placebo-effect? Ook al merken ze het niet, je gamet dan wel met de gedachte dat je het snelt mogelijke scherm hebt.

[Reactie gewijzigd door H.Klinkhamer op 23 juli 2024 08:23]

Placebo effect? Als ik van mijn 300hz monitor naar mijn 165hz monitor ga dan controleer ik soms de refresh rate of deze niet op 60hz staat. Verbaasd ben ik dan als ik zie dat het toch op 165hz staat.

Ik vermoed dat het verschil tussen 300hz en 540hz ook nog wel merkbaar is.
Zei ook misschien, maar ik verwacht toch echt niet dat ieder mens het verschil ziet/merkt. Laat staan ook nog de apparatuur / menselijke vermogens heeft om van dat verschil te profiteren.
Dat eerste vermoed ik van wel. Toch als je nog geen 60 plus bent in elk geval :+

Dat 2e, tja alle info extra telt. Vooral in snelle games of momenten met snelle bewegingen.

[Reactie gewijzigd door BlaDeKke op 23 juli 2024 08:23]

Citaat uit de bron van het artikel waarnaar ik refereerde in eerder bericht staat: "The same meta-study also notes that certain humans may have better temporal perception than others, allowing them to perform jobs or tasks others are less equipped to perform."

Zou toch slecht onderzoek zijn als verschil in leeftijd daar niet in is meegenomen of als er een vergelijk gedaan is tussen een 21-jarige en een 80-jarige. Zaken zoals reactievermogen etc verschilt ook van mens tot mens waarom zou dat niet gelden voor dit onderdeel?
Die studie dat je linkt is uitgevoerd op 80 mensen. Die dmv een bril naar een flikkerend ledje kijken en moeten aanduiden wanneer ze het niet meer zien flikkeren. Ik kan je zo zeggen dat ik op een goeie of een slechte dag een heel ander resultaat ga hebben op deze test. Plus dat je zo iets hebt van zie ik het nog flikkeren? Of zit het in men hoofd. Niet duidend in mijn ogen. En we praten hier over totaal iets anders.

Je kan je monitor tussen elke frame een volledig zwart beeld laten tonen. Dit compenseert motion blur. Het enige dat je merkt is dat je monitor minder helder wordt. Je kan dit niet zien, ik ook niet. Maar ik zie wel het verschil tussen 165hz en 300hz. En dat is geen klein verschil.

Als jij met een 120-165hz scherm met een kadertje beweegt. Dan zie je zelf toch dat het nog een stuk vloeiender kan dan dat. Zelfs men 300hz monitor is nog niet perfect vloeiend.
rtings.com heeft er onlangs nog een mooie video over gemaakt over hoe zij testen en zijn uitvoerig op motion blur ingegaan. Iedereen neemt waar dat de beelden die uit een monitor komen bij bewegingen onscherp zijn om verschillende redenen. Denk bijvoorbeeld aan text tijdens het scrollen. Dat wordt zels met 240Hz gewoon onleesbaar als je te snel scrollt.hoe sneller het display en hoe hoger de FPS, hoe zuiverder het beeld. En hoewel het niet perse nodig is dat tijdens bewegingen alles goed herkenbaar en wij er natuurlijk tot op zekere hoogte ook aan gewend zijn dat het altijd blurry is.
Het is een rare misvatting dat je EIGEN reactietijd uitmaakt.

Stel reactietijd van persoon A is 150ms en van persoon B is 200ms. Dat is allemaal tijd BOVENOp de latency-keten komt van je computer en scherm.

Ook de speler met 200ms is dus net zo gebaat bij een verdere reductie van de tijd die het duurt voordat de ‘teller’ van diens eigen reactietijd gaat lopen.
Misschien maakt het qua reactietijd niet uit. Maar het voelt bij mij wel rustiger voor mijn ogen.
Een 240Hz monitor ververst het beeld elke 4.17 ms en een 540Hz monitor elke 1.85 ms. Elke kleine verbetering die de reactietijd verlaagt, kan als een voordeel worden gezien, vooral in competitieve gaming settings. Voor twee competitieve gamers met vergelijkbare setups en reactievermogens zou de overstap van een 240Hz naar een 540Hz monitor theoretisch een voordeel van ongeveer 2.32 ms per frame kunnen bieden op de ander. Hoewel dit verschil erg klein lijkt, kan het in hoog competitieve omgevingen waar elke milliseconde telt, potentieel impact hebben op de uitkomst van een spel. Al maakt reactievermogen van de speler eigenlijk niet uit en is irrelevant om profijt te hebben van deze hardware verbetering. Je ziet de nieuwe visuele informatie gewoon eerder en daar haal je dan voordeel uit.
Zie verder jdh009 in 'AOC introduceert 540Hz-gamingmonitor; komt uit in juli'

[Reactie gewijzigd door jdh009 op 23 juli 2024 08:23]

Precies. Ik snap niet waarom mensen hun eigen reactietijd hierbij slepen. Dat komt pas daarna. Sterker nog iemand die een relatief iets tragere reactietijd heeft maar wel competitief wil gamen is misschien juist extra gebaat bij al deze extra marginale reducties om het gat te dichten.
Een game zoals een shooter is immers geen film, maar een interactief gebeuren met actie reactie. Voor een vloeiende ervaring is 144hz al zat
Dat klopt dus niet. Zelfs op 480hz is er bijvoorbeeld een stroboscopisch effect te zien. Er zijn genoeg voorbeelden, zoals bijvoorbeeld motion sickness in VR, waar display persistence echt heel belangrijk is. Ook narmate de resolutie verhoogd, verhoogd de behoefte naar een lage display persistence. Misschien is het verschil tussen 240hz en 144hz niet zo heel zichtbaar, omdat je in allebij de gevallen nog steeds met een vrij hoge display persistence te maken hebt.

Overigens voorspelde datzelfde artikel al DLSS3 in 2017.
Voor een stilstaand beeld heb je geen miljoenmiljard fps nodig. Zelfs op 1fps kun je perfecte image persistence hebben. En dus voor bewegend beeld geldt hetzelfde.

[Reactie gewijzigd door _Thanatos_ op 23 juli 2024 08:23]

Ghostingreductie? Op een TN-paneel? Hou toch op man.
Ik ben zelf van een leven lang 60hz IPS naar een 165hz OLED gegaan en het verschil is minimaal. Beeldkwaliteit wel een stuk beter vanwege OLED, maar merk niet bijzonder veel van vloeiender beeld. Ik speel alleen heel af en toe RDR2 en haal 120+ FPS met m'n 2080 ti. Wellicht met een upgrade naar de 50xx series dat ik 200 FPS haal en het wel duidelijk merk. Maar op 60hz werd ik ook al vaak eerste met CoD, toen ik dat nog speelde.
ja maar CoD is niet echt een serieuze competitive shooter.
Staat je scherm wel op 165hz ingesteld? Doet hij niet vanzelf. Ik kan me echt niet voorstellen dat je dat zelfs in Windows niet al merkt. Ik vind het een wereld van verschil in de responsiveness van alles.
Ja die moest ik wel op 165hz zetten, volgens mij stond ie uit zichzelf op 100 of 120hz.
Mijn ervaring is totaal anders. Van 60Hz naar 144Hz was een gigantisch verschil, zodanig dat ik niet meer terug kan naar 60Hz omdat de lage verversingssnelheid te schokkerig is. Mijn volgende monitor wordt dan ook 240+Hz, liefst nog veel hoger, om het stroboscopisch effect te verminderen.

In bepaalde games, voornamelijk shooters, merkte ik ook een verbetering in mijn prestaties. Deels door het sneller kunnen waarnemen van vijanden en je omgeving, deels door een algemeen rustiger ogend beeld. Hoewel ik niet vaak racespellen speel, kan je het voordeel in deze ook opmerken.

Het voordeel van een hogere verversingssnelheid neemt af naarmate je hoger gaat, en ergens zal wel een grens zitten waar het totaal geen voordeel meer biedt, maar deze grens ligt zeker niet bij de 60Hz.
Die zijn voor jou goed genoeg in games omdat je niet beter weet.

Als je een nieuwe pc hebt die hoge fps haalt in veel games die je speelt, is het wel fijn dat al die beelden ook op je monitor worden vertroond. Als je bijvoorbeeld een spel speelt op 500 fps op een 60 hz monitor, worden maar iets meer dan 10% van de door jou pc berekende frames op je beeld getoond, dat is een beetje zonde. Hogere fps met hoge hz geeft je een veel betere ervaring doordat het beeld veel soepeler eruit ziet, niet zo ''choppy'' en je hebt een veel lagere inputlag, dit is goed voor competetief gamen.
Het is gewoon niet waar. Ik heb dus een 144fps monitor, en ook al staat alles op 144fps, ik merk géén verschil met 60fps. Totaal en volledig hetzelfde. Zelfs niet een beetje verschil.

En daarmee wéét ik nota bene dat ik een snellere 144fps zou moeten ervaren. Dus zelfs met confirmation bias zie ik het niet. Het blijft gewoon een vloeiend beeld. En waarom? Omdat je hersenen het niet registreren. Alles boven 50-60 fps (dat verschil per persoon) is al "beweging" waarbij meer frames geen toegevoegde waarde hebben, anders dan de pimpfactor.

Dus al mijn games limiteer ik op 60fps als die optie er is. Dat is zo smooth als een warm mes door zachte boter.
Fijn dat dit voor jou werkt maar de meeste mensen merken het meteen als een scherm op 60hz staat bij het gamen. Daarvoor hoef ik niet eens in de settings te kijken.

Feit is dat het verschil tussen 144hz en 60hz al 9 a 10 milliseconden verschil is. Als jij denkt dat dat geen verschil maakt in fast paced competitive shooters dan valt je standpunt echt niet serieus te nemen, sorry.
9-10 milliseconde kun je toch helemaal niet waarnemen. De reactietijd van een gemiddeld persoon is, als ik de verschillende zoekresultaten mag geloven, 150-250 milliseconde. Die 9-10 milliseconde die je dan extra zit te wachten t.o.v. een verder identiek systeem maar met een "langzame" monitor, valt daarbij in het niet.

Zoals ik zei heb ik ook een persoonlijke ervaring daarbij. Als jij dat niet serieus wil nemen, dan is dat w.m.b. omdat je je eigen aankoop zit te verdedigen. Je durft het zelfs als feit neer te zetten dat ik niet serieus genomen kan worden. Beetje raar.
Het gaat niet om wat je bewust merkt, maar wat onbewust wel uitmaakt. Daar zit jouw misvatting. En ja 10ms maakt uit in de praktijk. Zie ook de onderbouwing bij de +3 post.

Je bent bij meerdere reacties bij dit onderwerp erg eigenwijs en dat mag je best doen, maar je persoonlijke ervaring en opvatting wordt niet gedeeld met die van anderen en onderzoeken.
Omdat je hersenen het niet registreren. Alles boven 50-60 fps (dat verschil per persoon) is al "beweging" waarbij meer frames geen toegevoegde waarde hebben, anders dan de pimpfactor.
Hey, ik ben blij voor je dat het zo voor je werkt. Scheelt je een hoop geld aan monitoren, 60Hz is goedkoper! Maar hier ben je toch echt de uitzondering in, tenzij je denkt dat iedereen z'n geld voor de lol aan het verkwisten is en ook dat alle tech reviewers aan het liegen zijn. Voor de meeste mensen maakt high refresh rate wel degelijk veel uit, voor mijzelf ook.
Niet persé nutteloos, wel diminishing results. Het ziet er vloeiender uit. Er is echt nog verschil tussen 240 en 540.
Het ziet er niet vloeiender uit.

Ik durf wel te wedden dat in een propere dubbelblinde test (niet letterlijk nemen aub) er geen statistisch significant verschil is.
Een kleine groep serieuze gebruikers vinden sinds dat LCD schermen CRT's vervangen hebben, dat LCD's er te traag eruit zien met de pixel overgang/transities en dat enkel zeer hoge refresh rates er wat aan kunnen doen om het te compenseren.

Voor dit type kleinere groep is waar zo'n monitor dan onder andere aantrekkelijk voor is, als OLED geen gewenste optie is. Maar deze groep zal ook aangeven dat ze 1000Hz nodig hebben om LCD ghosting beter tegen te gaan, en dat zelfs 540Hz misschien onvoldoende is en meer als een tussenstap gezien wordt.

Iets dat wij heel slecht begrip voor zullen tonen, en misschien belachelijk vinden, maar als we redeneren voor welke gebruiker dit is, dan is het dat type gebruiker.

[Reactie gewijzigd door RCFProd op 23 juli 2024 08:23]

Je redenatie leest als "de doelgroep is de groep mensen die ons product willen kopen". Dus je maakt een 540fps monitor voor mensen die denken dat ze een 540fps monitor nodig hebben.

Dat is niet hoe doelgroepen werken.

Los daarvan, het is meer een audiofielen-dingetje, maar dan voor gaming. Dus je koopt een dure monitor met een miljoenmiljard fps, en dan denk je dat je het ziet. En zelfs als je weet dat het geen bal uitmaakt, zal je het toch verdedigen, want je hebt er goed geld voor betaald. Je wilt immers niet jezelf wijsmaken dat je in die flauwekul bent getrapt, dus je verdedigt je keuze. Daar is vast een term voor.

Edit: Sunk cost bias, dat is em vgs mij.

[Reactie gewijzigd door _Thanatos_ op 23 juli 2024 08:23]

Ik speelde vroeger inderdaad FPS games in 800x600 op een heel duur 200hz CRT scherm zonder enige inputlag en we beginnen pas sinds kort met de high refreshrate oleds etc. weer in de buurt te komen of zelfs voorbij te gaan, uiteraard op veel hogere resoluties.

Je ziet telkens bij dit soort berichten de typische reacties die er op neer komen dat dit soort schermen nutteloos zijn (waarbij ook de misvatting speelt dat als je iets niet bewust merkt dat het dan niet uit zou maken). Ik denk ook dat dat voor veel mensen geldt dat dit soort schermen niet heel veel toevoegt (boven bijv 144hz, wat al best prettig is) en er is uiteraard sprake van diminishing returns, maar ik verwelkom de vooruitgang. Ik zelf denk dat ergens vanaf 500hz we wel het punt bereikt hebben dat zelfs de ongemerkte verbetering extreem beperkt is. Het voordeel van 500 of, wellicht ooit, 1000hz, is dat je aan black frame insertion kan doen dus nog minder blurring / ghosting etc.

[Reactie gewijzigd door PjotterP op 23 juli 2024 08:23]

Ja precies en dit type ervaring van CRT gebruikers lees ik vaker terug en ik vind het argument overtuigender dan ongeïnteresseerde gebruikers die een aanname doen dat hoger dan 240Hz onzin is.

Maar dan heb je stiekem ook bepaalde enthusiasts in sommige communities die veel te overtuigend dure 480Hz+ monitors aanraden aan willekeurige gebruikers, dat vind ik weer het tegenovergestelde. Er zijn gewoon zeer veel gebruikers die met 165Hz al dol tevreden zijn of zouden zijn. Veel goedkoper ook, en daar genoegen mee hebben is ook niets mis mee.

[Reactie gewijzigd door RCFProd op 23 juli 2024 08:23]

Wat waarschijnlijk nog belangrijker is, is input to signal/screen latency.

Je kan een 500hz scherm hebben, maar als het 15 ~ 30ms duurt voordat dingen worden doorgegeven is het alsnog beter om een lager refreshrate scherm te hebben met tussen de 0 en 5ms input latency. (Als voorbeeld). Iig nòg belangrijker dan zo hoog mogelijke refreshrate te bemachtigen.

Heeft o.a. met scalers en simplistisch design te maken, en hoe minder circuitry tussen input en pixel refresh, hoe beter.

Het probleem is vaak dat ik high end (met hoge refresh rates) monitoren zie, maar dat het dus schort bij de daadwerkelijke input lag.

Zeker hoe hoger de refresh rate hoe lager de praktische input latency zal zijn, maar dit is bij lange na niet zo'n effectief element als de bovengenoemde geval.

(i.e. van 120 naar 240hz effectief 4~ms, van 240 naar 480 nog maar 2~ms)

Tftcentral heeft vaak hele mooie uitgebreide reviews, met uitleg.

[Reactie gewijzigd door Marctraider op 23 juli 2024 08:23]

Ander voordeel is kijken van 3D films of games. Als je een hoge refresh hebt, kan je sneller links/rechts beelden afwisselen. 100-120 Hz is hiervoor minimum, maar als de monitor hoger aankan, krijg je stabielere wisselingen/minder crosstalk.
Ik stelde mezelf exact dezelfde vraag, tot ik een dual monitor setup had waarbij het linkerscherm 165Hz is, en het rechterscherm 75. Het is heel makkelijk te testen, houd je ogen stil en beweeg je muis snel heen en weer over het scherm, hoeveel keer zie je je cursor? op het 75 Hz scherm zie ik over ongeveer het halve scherm 4 à 5 keer de cursor. Op het 165Hz scherm ongeveer 15 keer. En dan nog zit er zo'n 2-3cm tussen de verschillende frames van de cursor.

Ik zei altijd dat het boven 120Hz geen hol uitmaakt, maar ik ben daar behoorlijk van teruggekomen, en ben eigenlijk wel benieuwd naar zulke hoge refresh rates. Zelfs met kantoorwerk is het minder vermoeiend voor je ogen als je een hogere frame/refreshrate hebt. (en ik game ook)
Het is jammer dat het maar 1080P is, maar dat is ook wel te begrijpen (bandbreedtelimiet DP)
Ik ben benieuwd wat een groter verschil maakt in "fidelity" Snellere refresh of hogere resolutie.
Letterlijk elk artikel over zo'n monitor heeft deze opmerking.
Klopt, en de onzin is de reden hiervoor.
Zoals Tech Jesus zou zeggen, “because higher number is better.”
net zoals de topsnelheid van 180km/h of hoger nutteloos is op je auto, alleen ga je dit nog veel minder merken.
Dit is natuurlijk een onzinnige reactie, je merkt het verschil wel degelijk. Sleep maar eens een venster heen en weer en bekijk het verschil tussen een 60Hz monitor en eentje met 120Hz of meer. Ook is je voorbeeld niet echt sterk, als jij die 180 km/u haalt op de Autobahn ga je echt wel merkbaar sneller dan wanneer je op 100 blijft rijden. Waar jij op doelt is een legale snelheidslimiet van 100 km/u op de nederlandse sloomweg, maar dergelijke arbitraire restricties gelden uiteraard niet voor de huidige discussie.
het verschil tussen een 60 en 120 merk je inderdaad, maar vanaf een bepaalde snelheid ga je het niet meer merken, daarom dat ik dit specifieke voorbeeld geef: boven de 180 (hz of km/h) wordt het waarneembare verschil toch ech veel kleiner en moet je al specifieke scenario's hebben om het te merken.
Een scenario waar elke PC-gebruiker mee te maken krijgt is het verplaatsen van de cursor. Duidelijker voorbeeld is het verplaatsen van vensters, maar zelfde principe. Het verschil wordt inderdaad kleiner maar we zijn nog lang niet op een moment waarop een toename in de verversingssnelheid niet meer leidt tot een afname van het stroboscopisch effect, ook wel bekend als array ghosting en vergelijkbare termen. Naar schatting ligt de grens tussen de 1000 en 2000 Hz. Dat is toch wel een beetje hoger dan die 180 Hz.
ik heb dit jaar mijn 1440p 165hz lcd ingeruild voor een 1440p 240hz oled, en kan je vertellen, apex legends is een stuk eenvoudiger geworden.
Hoe kan je het nut zien van iets wat je niet voor je hebt.

Vaak is het met dit soort dingen ook dat je het pas echt merkt wanneer je een terug probeert te gaan. "Heb ik Hier mee gegamed?!"
Het wordt meer en meer marketing.
De 360Hz oled displays zijn superieur qua weergave omdat de pixel responstijd veel meer zegt dan refresh rate op deze hoge frequenties.
Heb je dan ooit een monitor geprobeerd die een hogere refresh rate heeft? Indien niet ... sjah :+
Is dit nou een spec race waar geen enkel tastbaar voordeel in zit, of heb ik ergens iets gemist?
Als er geen tastbaar voordeel zit, dan zouden CRT schermen niet zo geliefd zijn. Buiten dat een hoge refreshrate er voor zorgt dat je in bijvoorbeeld een online FPS titel het frame dat je tegenstander in beeld komt sneller voorgeschoteld krijgt, of hier een verschil tusen bijv 360 en 540hz te merken is laat ik me verder niet over uit. Maar om die hoge refreshrates te kunnen serveren, moet de response time van het display dit wel kunnen ondersteunen.

De respone time van een monitor bepaald hoe snel een pixel naar het volgende frame kan wisselen, de refreshrate bepaald hoe veel frames je per seconde ziet. Een refreshrate van 540hz geeft een frame time van 1.85ms, dus dan moet de pixel respone time van een 540hz onder die snelheid zitten, anders kunnen de pixels de refreshrate niet bijbenen en krijg je ghosting.

CRT schermen hadden hier geen last van, daar werd met een electron gun een phosphoor laag beschoten, en kan het beeld nagenoeg gelijk veranderen. Hierdoor is bij beweging het scherm bijna altijd scherp, zelfs op lage refreshrates als 60hz. Bij moderne tft's, dus ook OLEDs, is dit niet het geval. Die houden het frame vast en veranderen de pixels met elke pixel refresh, een techniek dat sample-and-hold wordt genoemd. Een combinatie van een hoge refresh rate/lage response tijd kan voor een veel mooier beeld zorgen.
LCD laat staan oled zijn al heel lang beter dan crt hoor.

Daarbij is er geen multiplayer game in de wereld dat een tick rate van boven de 100 heeft laat staan 540.

Het kan je misschien helpen om iets vloeiendere bewegingen te zien, maar zelfs dan is uiterst twijfgel achtig en enkel nuttig voor de 0.001% pro gamers
mweh, ik heb diverse crt en lcd, maar toch lijkt een crt een veel fijner beeld voor het natuurlijk oog. lcd/oled is toch maar behelpen tov wat crt van nature doet.
Ik heb hier op zolder nog 2 oude liyama vision pro's liggen en sorry de C1 die ik nu gebruik geeft een veel beter beeld op elk vlak. Ik weet dat sommige verslingerd zijn aan die maar dat is eerder nostaligie niet echt beter. Indien die beter waren werden die nog effectief gebruikt.
Hier in video die laat zien wat het verschil is. Waarom dit nut heeft wordt hier beschreven

[Reactie gewijzigd door 24hourpartypal op 23 juli 2024 08:23]

Dat is 60fps vs 60 fps, lcd gaat wel al veel verder dan dat, 540 fps bijvoortbeeld zoals hier.

Heeft ook andere vorodelen zoals veel snellere response rate, hogere frequentie, hogere resolutie, helderheid, flicker op niet 100% helderheid ,...
Fijn dat je 1 seconde naar de video kijkt en meteen een conclusie trekt, later wordt 165hz met volgens mij 85hz op de CRT vergeleken (UFO test), 540hz komt eindelijk in de buurt maar is nog steeds niet hetzelfde.

Ook fijn dat je misinformatie deelt. De response rate van een CRT is onmiddelijk, omdat het om een strobing techniek gaat. Wel heb je met phosphor decay te maken, dat niet hetzelfde is, wat vaak 1ms is. Lager dan welke LCD dan ook, en OLEDs hebben een response rate gemeten van gemiddeld 0.3ms maar zijn nogsteeds sample-and-hold, dus is de display persistency lager, zelfs een 480hz OLED monitor is niet gelijk aan een goede CRT monitor.

Bij CRT monitors heb je niet met pixels te maken maar met lijnen. De resolutie van de monitor is gelimiteerd aan de verticale sync van de electron gun, Hoe sneller je een scan cyclus kan voltooien, hoe meer lijnen je kan tekenen in 1 cyclus, hoe hoger de resolutie is. Dit is niet hetzelfde als de refresh rate, en kan je zien als de bandbreedte van een CRT want als je de refresh rate verhoogd heb je minder tijd om diezelfde lijnen te tekenen. Dat de techniek 20 jaar heeft stilgestaan is een feit, maar de resolutie van high-end CRT monitors was vaak hoger dan LCDs.

Ik weet niet waar je het over hebt met flicker op niet 100% helderheid, vaak hadden goedkopere CRTs juist flicker bij hoge contrast en brightness settings? Wel is een CRT van zichzelf niet heel helder.

[Reactie gewijzigd door 24hourpartypal op 23 juli 2024 08:23]

540hz komt eindelijk in de buurt maar is nog steeds niet hetzelfde.
Sorry maar dat verzin je gewoon, nogmaals een beeld is meer dan louter hoe snel er iets op komt.
Contrast, helderheid, kleurvastheid, flickering,... schermen nu zijn op alle vlakken beter dan CRT's.
Ook fijn dat je misinformatie deelt. De response rate van een CRT is onmiddelijk, omdat het om een strobing techniek gaat. Wel heb je met phosphor decay te maken, dat niet hetzelfde is, wat vaak 1ms is. Lager dan welke LCD dan ook, en OLEDs hebben een response rate gemeten van gemiddeld 0.3ms maar zijn nogsteeds sample-and-hold, dus is de display persistency lager, zelfs een 480hz OLED monitor is niet gelijk aan een goede CRT monitor.
https://www.researchgate....ately-64-ms_fig16_5550239

ALs je van "misinformatie" spreek. Neen dat is geen 1ms en dat is een pak trager dan wat schermen nu kunnen.

De techniek heeft langs geen kanten 20 jaar stel gestaan .
Ik weet niet waar je het over hebt met flicker op niet 100% helderheid, vaak hadden goedkopere CRTs juist flicker bij hoge contrast en brightness settings? Wel is een CRT van zichzelf niet heel helder.
Dat was dikwijls omdat je die niet hoger qua refresh rate kreeg, crt's flickeren altijd maar op lagere helderheid en refresh rates merk je dat gewoon heel goed.
Sorry maar dat verzin je gewoon, nogmaals een beeld is meer dan louter hoe snel er iets op komt.
Heb je ook maar 1 letter van het blurbusters artikel gelezen? Dan hoef ik je niet (opnieuw) uit te leggen dat ik dit niet verzin.
Contrast, helderheid, kleurvastheid, flickering,... schermen nu zijn op alle vlakken beter dan CRT's.
De origenele poster vraagt waarom 540hz zin heeft. Het gaat hier dus om display persistence, contrast kleur, etc. hebben hier dan ook niets mee te maken. Genoeg liefhebbers van CRT displays die de kleuren en visuele qualiteit van CRTs sterk prefereren overigens.

Het figuur dat je link doet een uiterst precieze meting voor wetenschappelijke doeleinden van 1 specifieke monitor (het eerste resultaat als je crt phosphor decay googled trouwens) voor het testen van het visueel geheugen van de proefpersonen. De phosphor decay kan aanzienelijk per type phosphor verschillen. En opnieuw, phoshop decay is niet hetzelfde als sample and hold display persistence.
De techniek heeft langs geen kanten 20 jaar stel gestaan .
Welke fabrikant heeft in de afgelopen 20 jaar nog geïnvesteerd in CRT technologie dan? LPD gaat nooit gebeuren...
Dat was dikwijls omdat je die niet hoger qua refresh rate kreeg, crt's flickeren altijd maar op lagere helderheid en refresh rates merk je dat gewoon heel goed.
Je meet wel met twee maten hier, LCDs zijn beter omdat die 8k 480hz zijn, en CRTs zijn inferieur omdat die flickeren op lage refreshrates en lage helderheid? Opnieuw, ik draag enkel de voordelen van CRTs aan in de context van display persistence.

Anyway, dit is het laatste antwoord dat je van mij kan verwachten, je bent gewoon aan het discussieren om tegendraads te zijn. Ik hoop dat je ooit een betere manier van het inrichten van jouw en andere hun tijd kan bedenken.

[Reactie gewijzigd door 24hourpartypal op 23 juli 2024 08:23]

Heb je ook maar 1 letter van het blurbusters artikel gelezen? Dan hoef ik je niet (opnieuw) uit te leggen dat ik dit niet verzin.
Het is gewoon een feit dat een beeld meer is dan refresh rate, heel veel speelt daarin mee hoe goed een beeld, zeker een beweegd beeld te zien is.
De origenele poster vraagt waarom 540hz zin heeft. Het gaat hier dus om display persistence, contrast kleur, etc. hebben hier dan ook niets mee te maken. Genoeg liefhebbers van CRT displays die de kleuren en visuele qualiteit van CRTs sterk prefereren overigens.
Dat doet het wel en mensen maken zichzelf de gekste dingen wijs soms.
Het figuur dat je link doet een uiterst precieze meting voor wetenschappelijke doeleinden van 1 specifieke monitor (het eerste resultaat als je crt phosphor decay googled trouwens) voor het testen van het visueel geheugen van de proefpersonen. De phosphor decay kan aanzienelijk per type phosphor verschillen. En opnieuw, phoshop decay is niet hetzelfde als sample and hold display persistence.
En de meeste ervan zitten ver boven de 1ms; of haal je 10% door elkaar met 100%?
Welke fabrikant heeft in de afgelopen 20 jaar nog geïnvesteerd in CRT technologie dan? LPD gaat nooit gebeuren...
CRT beeldschermen dateren van 1920's, LCD's 1970's . LPD heeft men trouwens wel ontwikkeld, dat was gewoonweg niks.
Je meet wel met twee maten hier, LCDs zijn beter omdat die 8k 480hz zijn, en CRTs zijn inferieur omdat die flickeren op lage refreshrates en lage helderheid? Opnieuw, ik draag enkel de voordelen van CRTs aan in de context van display persistence.
Je haalt er 1 klein deeltje uit dat het zelfs niet is, ik had het over beeld kwaliteit.
Moest CRT echt een voordeel geven dan had je genoeg competitieve gekken die er nog mee speelde. Dat doen ze niet omdat er geen voordeel is. Dat is er al een hele tijd niet meer en je argumenten dateren vooral van toen lcd opkwam niet 2024 .
CRT zijn nog steeds beter dan LCD monitoren in scherpte in bewegende beelden ( motion clarity)
Niet meer eens je hogere refresh rates hebt op LCD's en zeker OLED's. Die zijn op alle andere vlakken gewoon veel beter waardoor je gewoon een beter beeld hebt.
Je hebt wel gelijk. Als de servers van bijvoorbeeld battlefield maar een tick rate van 100 hebben dan wordt alles toch maar 100 keer per seconden naar je gestuurd. Dan kun je wel 540x per seconden een beeld verversen maar als je toch maar eens per 5 beelden een refresh krijgt van de server waar iemand zich bevind dan kijk je nog steeds 5 tot 10 frames naar een leeg scherm en komt daarna opeens iemand de hoek om. Ik zie het voordeel eerlijk gezegd ook niet in van een 540 hz scherm. Ik denk 144 of 240hz en alles daarboven is gewoon marketing naar mijn mening. Het is alleen w veel vloeiender op je eigen scherm dat wel. Al vraag ik me af hoeveel mensen nog het verschil tussen 240 en 540 gaan merken

[Reactie gewijzigd door sygys op 23 juli 2024 08:23]

Eigenlijk zal je client wel beelden nog geven hoor, die zal gewoon een beetje gokken, pas als die terug een serverupdate krijgt zal die de correcte positie terug weten.

Dat kan zo dan "rubberbanding" geven als iemand een slechte ping heeft bijvoorbeeld waarop de speler plots van positie veranderd omdat die heel traag updates geeft.

Als alles normaal gaat zullen die updates zo klein zijn (tick rate van 30 of 60 is normaal à maar dat is nog steeds maar 30ms en amper te merken dat die speler dan eventjes een iets andere positie krijgt.

Het zal idd iets vloeiender zijn, hoeveel je dat echter merkt is de vraag.
CRT's hebben geen hoge refreshrate. Technisch gezien heeft een LCD géén refresh rate. Het beeld hoeft nml niet te verversen om gelijk te blijven. Het is meer een update rate, of zoals dat in de volksmond heet: een framerate.

En hou toch op met die smoesjes over frametimes. Met een framerate van 60fps heb je een frametime van 1/60ste seconde. Dat is nog altijd een orde van grootte minder dan alle andere factoren die voor lag zorgen, zoals alles want tussen je muis en je pixels in zit. Daarnaast betekent een framerate van 540fps niet dat je monitor al die 540 frames in perfecte scherpte achter elkaar kan weergeven. Het kan wél 540x per seconde een "update" naar de pixels sturen, maar ze kunnen best in elkaar overlopen. Je ogen zien het verschil toch niet. Boven enkele tientallen frames per seconde lopen ze toch wel in elkaar over.

En een CRT gaat hier niets aan veranderen. Daar heb je ook die zogenaamd heilige frametimes. Veel erger nog zelfs, want je krijgt er barstende koppijn van. Nou nou, wat een verbetering.
CRT's hebben geen hoge refreshrate. Technisch gezien heeft een LCD géén refresh rate. Het beeld hoeft nml niet te verversen om gelijk te blijven. Het is meer een update rate, of zoals dat in de volksmond heet: een framerate.
Uh, bedoel je Sample-and-Hold? Dat is dan juist ook het probleem van tft schermen, het blijft te lang gelijk waardoor je bij beweging wazig beeld krijgt.
En hou toch op met die smoesjes over frametimes. Met een framerate van 60fps heb je een frametime van 1/60ste seconde. Dat is nog altijd een orde van grootte minder dan alle andere factoren die voor lag zorgen, zoals alles want tussen je muis en je pixels in zit.
Voor de duidelijkheid: een frametime is een eenheid die wordt gebruikt om aan te geven hoe lang het duurt om van draw call bij de CPU naar de framebuffer te gaan, als alternatief voor frames per seconden.

1/60ste van een seconde is 16.7ms, een moderne televisie heeft een input lag (en dan wordt hier specifiek de tijd van uit de framebuffer naar beeld op de monitor - de response time bedoeld) van breed genomen ~10ms, en een goede gaming monitor zit daar nog onder. Gaming muizen hebben een click latency van enkele ms. Echter heeft niets van dit met ghosting op je monitor te maken en schreef ik in letterlijk de eerste paragraaf van de comment waar je op reageerdt dat ik me hier ook verder niet over ging uit laten. of je dit wel/niet ervaart is subjectief.
Daarnaast betekent een framerate van 540fps niet dat je monitor al die 540 frames in perfecte scherpte achter elkaar kan weergeven. Het kan wél 540x per seconde een "update" naar de pixels sturen, maar ze kunnen best in elkaar overlopen. Je ogen zien het verschil toch niet. Boven enkele tientallen frames per seconde lopen ze toch wel in elkaar over.
Dat is dus precies wat ik omschrijf met display persistence, en een sample-and-hold scherm van 1700hz heeft daar (volgens Nvidia) dus geen last van.
En een CRT gaat hier niets aan veranderen. Daar heb je ook die zogenaamd heilige frametimes. Veel erger nog zelfs, want je krijgt er barstende koppijn van. Nou nou, wat een verbetering.
Dat komt inderdaad door het strobe effect van een CRT display, naarmate de refresh rate wordt verhoogd wordt de hoofdpijn minder, omdat dit steeds minder merkbaar wordt voor het menselijk oog. Veel mensen draaiden vroeger hun CRT op 75hz of 85hz om dit te verhelpen, want dat gaat op een gemiddeld consumenten setje nog wel, maar als je wat meer high-end gaat zijn er modellen met refresh rates hoger dan 160hz te maken (verschilt per individuele monitor, noem het de electron gun lottery)
Uh, bedoel je Sample-and-Hold? Dat is dan juist ook het probleem van tft schermen, het blijft te lang gelijk waardoor je bij beweging wazig beeld krijgt.
Kan wel ja. Sample-and-hold klinkt als een techniek, maar ja, LCD is in staat het beeld vast te houden zonder dat daar aansturing voor nodig is. Je kunt het ook retention noemen, denk ik.

Maargoed, dat wazig beeld effect los je niet op door er een hogere framerate tegenaan te gooien. Je zult dan óók met pixels moeten komen die zo snel kunnen schakelen. In het geval van 540fps heb je dus pixels nodig die in <2ms van wit naar zwart kunnen en andersom. En ik ben er niet van overtuigd dat een LCD dat kan, en al helemaal niet een TN-paneel. De response times die in de specs van een monitor staan, zijn tegenwoordig allemaal grey-to-grey, wat veel "makkelijker" is om te behalen.
maar als je wat meer high-end gaat zijn er modellen met refresh rates hoger dan 160hz te maken (verschilt per individuele monitor, noem het de electron gun lottery)
Ik snap wel wat je bedoelt, maar het ghosting effect blijf je houden. Het fosfor gloeit "langzaam" uit, en dat is bijna niet tegen te gaan. Dus ook hier geldt dat je wel een hogere framerate ertegenaan kunt gooien, maar dan krijg je juist veel meer ghosting. Bij LCD kun je nog wat betere pixels maken, maar ook hier zal een limiet aan zitten, en al helemaal met verouderde technologie zoals TN.
Kan wel ja. Sample-and-hold klinkt als een techniek, maar ja, LCD is in staat het beeld vast te houden zonder dat daar aansturing voor nodig is. Je kunt het ook retention noemen, denk ik.
Je begrijpt me niet, en image retention is een ander fenomeen. Dat is wanneer de liquid crystals in het display lang achter elkaar hetzelfde voltage laten zien en er een soort voorkeur voor de liquid crystal ontstaat om in dezelfde positie te blijven. Lang genoeg een ander voltage en die voorkeur gaat weer weg, dit is iets anders dan burn in. Open voor de grap is een extreem witte webpage voor een aantal minuten en open daarna een compleet vlak grijsveld, dan kan je dit fenomeen met je eigen ogen zien.

Misschien heb je op een manier niet zo'n ongelijk en kan je het probleem van sample-and-hold technieken wel image retention op microschaal zien aangezien hier vergelijkbare processen aan de hand zijn.
Maargoed, dat wazig beeld effect los je niet op door er een hogere framerate tegenaan te gooien. Je zult dan óók met pixels moeten komen die zo snel kunnen schakelen. In het geval van 540fps heb je dus pixels nodig die in <2ms van wit naar zwart kunnen en andersom. En ik ben er niet van overtuigd dat een LCD dat kan, en al helemaal niet een TN-paneel. De response times die in de specs van een monitor staan, zijn tegenwoordig allemaal grey-to-grey, wat veel "makkelijker" is om te behalen.
Opniew, uit de eerste en tweede paragraaf uit de originele comment:
Maar om die hoge refreshrates te kunnen serveren, moet de response time van het display dit wel kunnen ondersteunen.

De respone time van een monitor bepaald hoe snel een pixel naar het volgende frame kan wisselen, de refreshrate bepaald hoe veel frames je per seconde ziet. Een refreshrate van 540hz geeft een frame time van 1.85ms, dus dan moet de pixel respone time van een 540hz onder die snelheid zitten, anders kunnen de pixels de refreshrate niet bijbenen en krijg je ghosting.
Het lijkt wel alsof je mijn comment helemaal niet hebt gelezen, je omschrijft dingen die ik al veel eerder heb aangekaart...
Ik snap wel wat je bedoelt, maar het ghosting effect blijf je houden. Het fosfor gloeit "langzaam" uit, en dat is bijna niet tegen te gaan. Dus ook hier geldt dat je wel een hogere framerate ertegenaan kunt gooien, maar dan krijg je juist veel meer ghosting.
Dat doe je duidelijk niet, de electron gun lottery ging er om dat de sync rate niet van elke monitor, ook al is het hetzelfde type monitor, exact gelijk is. Sommige monitors kunnen dus hogere verticale syncs aan, en dus refresh rates. Boven de 200hz is niet ongehoord.

Phosphor decay heb ik in een andere comment al beschreven en wordt juist als een voordeel gezien. Dit is geen ghosting, want de phosfoorlaag kan nogsteeds gestimuleerdt worden en nieuwe pixels laten zien. Dat dit kan is inherent aan de strobing technologie omdat tussen elk frame het beeld dus compleet ververst wordt.

Het voordeel is dat het een soort ingebouwde motion smoothing is, een beetje zoals hoe de verhoogde vervorming bij een buizenversterker voor je gitaar of in een volledige analoge synthesizer volgens velen een plezanter geluid met zich meebrengt. Wel kan phosphor decay de maximale refreshrate van de monitor beïnvloeden.
Bij LCD kun je nog wat betere pixels maken, maar ook hier zal een limiet aan zitten, en al helemaal met verouderde technologie zoals TN.
Ik weet niet wat je bedoeld met "betere pixels", maar op een LCD is deze refresh rate juist mogelijk door TN techniek, dit komt omdat TN panelen gemiddeld een response time van ~1ms hebben. Wel zijn ze nog steeds sample-and-hold,

Maar met al je argumenten snap ik nog steeds niet wat je punt is? De originele commenter vraagt wat het nut is van een hoge refresh rate. Ik leg uit dat sample-and-hold displays wat technische problemen met zich mee brengt, hoe je bij een andere techniek hier minder last van hebt, geef als voorbeeld CRT displays die universeel geprezen worden voor hun goede motion performance en hoe een hogere refresh rate hier bij kan helpen. Of jij dit persoonlijk wel/niet kan zien is verder niet relevant, het gaat er om dat er veel mensen zijn die graag CRT displays hebben voor hun goede motion performance. Het was een argument waar je kan zien dat er in de echte wereld genoeg mensen zijn die op zoek zijn naar pefrecte motion performance, om de voordelen van zulke extreme refresh rates te laten zien. Ik verkoop geen CRT displays, ik hoef de techniek verder niet te verdedigen.

De hierboven gaande discussie over input lag boeit mij persoonlijk niet zo, ik geloof wel dat er een competitief voordeel aan zit, maar uiteindelijk is dat maar een fractie van het plaatje van je prestaties. Je kennis, ervaring, persoonlijk reactie vermogen, hebben denk ik een veel grotere invloed. Dit wordt dan ook beaamd met de notie dat pro spelers een minder groot voordeel zien dan amateurs van hoge refresh displays.

Maar dat er ghosting optreed bij alle sample-and-hold displays is een objectief feit. Dat een snellere pixel response time dit tegen kan gaan is een feit. Je kan het meten, er zijn genoeg manieren om dat te doen (e.g doormiddel van pursuit photografie met de UFO test, of de recent vernieuwde test suite van RTings*). Ik snap niet waarom je hier over wilt discussiëren? Doe je dat ook over vaccinaties of Newtons wetten?

*Als je het nog steeds niet begrijpt lees dit artikels eens, of kijk de video hierover die in wat meer detail gaat. Ik heb hier wel genoeg woorden aan vuil gemaakt.

[Reactie gewijzigd door 24hourpartypal op 23 juli 2024 08:23]

Ik speelde rond 2005 met een CRT op 200 hz op 800 x 600 pixels. Zie verder de +3 post bovenin deze thread voor de onderbouwing dat dit soort schermen wel nut heeft voor competitive shooters. Je hebt echt geen benul, sorry.
Ik snap het niet waarom ik zo aangevallen moet worden met misinformatie puur omdat ik uitleg waarom mensen op zoek zijn naar hoge refresh schermen. Het is niet echt alsof hier zinnig over te discussiëren valt, dit zijn gewoon waarneembare feiten. Gelukkig weet jij wel hoe het zit ;)

Mis mijn oude viewsonic nog steeds :'(
Ik reageerde op thanatos die liep te bazelen dat CRT geen hoge refreshrate hebben of hadden. Dat hadden ze al jaren geleden. Niet allemaal maar zoals gezegd ik speelde al 20 jaar geleden op een 200hz CRT scherm. Ik reageerde dus niet op jou. Jouw post is juist prima. Ik reageer zelf juist op alle misinformatie en misverstanden die reageerders zoals thanatos en andere hier plaatsen.

[Reactie gewijzigd door PjotterP op 23 juli 2024 08:23]

Nee ik was het ook met je eens ik was juist blij dat jij het wel begreep en wou vooral mijn leed hier delen :'(

[Reactie gewijzigd door 24hourpartypal op 23 juli 2024 08:23]

Je hebt denk ik gemist dat als een spec voor jou geen enkel tastbaar voordeel heeft, dat dat voor andere mensen niet zo hoeft te zijn. Voor veel gamers is een hoge refresh scherm zeker wel een voordeel, vooral op competitief gebied in shooter games.
Er zit wel degelijk een voordeel in. Je hebt 540 frames die je per seconde allemaal kunt waarnemen. En het is een TN-paneel, dus dan heb je tenminste niet zo'n grote kleurruimte, want mensen zien toch maar 2 primaire kleuren. /s
Ja kan zijn, maar dat voordeel heb je toch alleen als je die 540 FPS ook daadwerkelijk kunt genereren met je GPU? Oftewel als ik 60FPS draai krijg ik dan toch 9x hetzelfde plaatje te zien? Naast het feit dat je biologisch gezien ook over de limiet vh menselijk oog zit.
Onwetenschappelijke onzin. Je ogen zien geen "frames" en zelfs bij refresh rates van 10000hz is het stroboscopisch effect nog waarneembaar.
Wat is de reactietijd van de LCD? Die moet minder zijn dan 2ms (1/540).
De reactietijd zal op zich wel goed komen, 1ms is technisch gezien niet moeilijk om te halen. Maar de vraag is hoe goed de overdrive gaat zijn in termen van overshoot/inverse ghosting om adequaat op 540Hz te kunnen draaien. Je kan flink wat inverse ghosting krijgen door een paneel te hard een zwieper te geven met de overdrive.
Zien de ogen van de gemiddelde gamer deze techniek ook echt?
Of is het meer van , hoe sneller hoe beter ,dus of ik ook echt verschil zie is niet relevant
Zoals ik hier beneden al zei, het gaat vooral om de duidelijkheid van het beeld bij snelle bewegingen. Als je een flick maakt maakt het heel erg uit of je 3, 10 of 30 frames te zien krijgt tijdens je beweging willen je hersens alles makkelijk aan elkaar kunnen knopen tot een logisch geheel, bij te lage framerates wordt je als het ware even blind omdat het beeld veel te veel verspringt tussen frames in en het niet meer aan elkaar te knopen valt. Zelf merk ik dat de duidelijkheid en interpreteerbaarheid van snelle bewegingen steeds verbetert van 144Hz, naar 240Hz, naar 360Hz. En ik ben geen pro (wel toernooispeler geweest). Boven die range heb ik geen ervaring hoe veel effect er nog is, maar het zou prima kunnen dat nog veel verder gaat dan 360Hz.

Voor de doorsnee gamer (en daar schaar ik mezelf ook onder) zal dat niet het verschil maken, er zijn veel grotere problemen in je gameplay die je eerst moet aanpakken. Maar ik snap dat je als pro wel elk voordeel mee wilt pakken en de monitor meepakt die je het duidelijkste beeld geeft juist als je jezelf echt aan het pushen bent qua snelheid.
Boven de 240hz zie je amper iets laat staan dat het nut heeft.
Misschien in heel beperkte omstandigheden en personen maar 99% heeft hier niks aan.
Dit werd ook gezegd over 30Hz, en toen 60Hz, en toen 120Hz. Je ziet wel degelijk een verschil, met name betreft bewegende objecten. Of je hier een voordeel uit haalt is een ander verhaal, maar je kan het wel degelijk waarnemen.
Onzin dat zei men toen niet, en nogmaals : de meerderheid van mensen gaat dat niet meer merken, er is een enorm verschil tussen 30 en 120 hz en 380 vs 540 hz. De tijd verschillen tussen frames worden gewoon absurd klein.
Er is inderdaad een verschil. Maar je eerdere opmerkingen kloppen nog steeds niet, er is dus nog degelijk een merkbaar verschil. Ik krijg de indruk - niet alleen hier, maar vrijwel overal waar ik scroll in dit topic - dat je puur tegendraads doet om het tegendraads doen.
Neen maar blijkbaar willen sommige nog wanhopig doen alsof crt anno 2024 nog steeds ebter is als gelijk wat qua beeld, onzin.
Jazeker, vooral bij bewegingen van objecten zie je een duidelijke afname van het stroboscopisch effect.
Dat stroboscopisch effect afneemt met een hogere refresh rate klopt wel, echter is het de stepping distance dat kleiner wordt. Dat betekent dat zelfs op 480hz er nog een duidelijke trail zichtbaar is bij snelle bewegingen, en ik ga er vanuit dat dit scherm hier ook nog last van heeft. Om dit effect tegen te gaan moet je juist motion blur introduceren. Zie ook.

[Reactie gewijzigd door 24hourpartypal op 23 juli 2024 08:23]

Dat is een goede vraag, er zijn in het verleden monitors uitgebracht met 360hz waarvan later bleek dat de pixels een te langzame pixeltransitie hebben om de refresh bij te houden, en dan krijg je smearing.

Maar het kan zeker wel, mijn 240hz phillips paneel heeft in overdrive een gemiddelde pixeltransitie van 1,7ms.
TN panelen hebben over het algemeen een response time van 1ms, dat is een groot voordeel van de techniek over IPS (origineel gemiddeld 16ms, een goede gaming variant tusssen de ~3-10ms) of VA (waar bij donker beeld >30ms niet ongehoord is)
Wanneer je denkt dat het niet veel gekker kon met het 'gaming'-uiterlijk.. doen ze er nog een schepje bovenop.
Assymetrische voet, behuizing en RGB.. Naast het feit dat ik die gaming stijl zo al niet kan smaken, is dit iets wat mijn OCD zou triggeren als dat op men bureau zou staan :Y)
Dan speel je met 360fps en is de tick-rate van de server tussen de 20 en 60...
Deze monitor vol uitnutten kan ik volgens mij alleen in Rocket League of als ik kwaliteit van ultra af ga halen in andere games. En dan heb ik een 4090, ik mis echt het nut van deze monitoren.
Dus jij denkt gpu bottlenecked te zijn in rocket league met een 4090? Ik vermoed dat ongeacht wat je doet met grafische instellingen in rocket league je fps nagenoeg hetzelfde gaat blijven.
Nee niet de bottleneck, was meer om aan te tonen dat er weinig nut aan deze monitor zit vooral als je een normale gamer bent.

De pro's zetten alle details low etc en spelen puur voor de score, maar met alle grafische pracht en praal van tegenwoordig is dat voor de meeste mensen toch echt zonde.
Ik kan geen multiplayer game spelen met alle registers open. Dat is voor mij gereserveerd voor singleplayer of race games. Als ik multiplayer speel wil ik zien waar het om gaat, niet hoe mooi de belichting of het water wel niet zijn.

[Reactie gewijzigd door BlaDeKke op 23 juli 2024 08:23]

Deze zijn voor E-sports, en de echte enthousiasten, en dus niet voor mij - ik heb liever 2160p ipv 1080p, want ik ben het echt beu om pixels te zien, 500+hz of niet.
CS2, Overwatch 2, Valorant, Rainbow Six siege, Fortnite. Al deze games haal je met een mid end game pc makkelijk de 500 fps.

Zoals je ziet allemaal spellen met gigantische spelersaantallen, dus dat zijn aardig wat gamers die deze monitor vol kunnen benutten.
Ticket rate is een ding, niet gelimiteerd worden op je input van de muis bij het bewegen waardoor directheid en accuraatheid van het richten bevorderd wordt zeker tijdens snelle bewegingen waarbij je de nieuwe pixels zo snel mogelijk zonder wazige transities op het beeld getoverd worden om een soort-van 'motion-blur' tegen te gaan en i.c.m. G-sync dus geen domme 'limiteer onder Hz limiet' trucjes meer hoeft toe te passen om input lag te minimaliseren en zo ook geen tearing krijgt is een heel ander verhaal. ;)

Er zijn ook al verschillende muizen die 8000Hz doen overigens, terwijl veel van de oudere monitoren de 1000Hz muizen eigenlijk al teleurstellen voor deze type e-sporters of fanatieke FPS-gamers.

Helaas stelt de RTX 4090 dan weer teleur op het ontbreken van Display Port 2.1 en is zijn geld dus niet waard, dus tot die tijd is het wachten op de RTX 5090 met PCI-E 5.0, 32GB GDDR7 VRAM en DisplayPort 2.1 :o

[Reactie gewijzigd door CriticalHit_NL op 23 juli 2024 08:23]

Op een PCI bus. Je gaat die combineren met een pentium 4 ofzo?

Maar even serieus. Wat maakt het voor jou uit op welke pcie versie deze draait? Kom je momenteel pcie lanes te kort dan?
PCI-E lanes en PCI-E versie is een verschillend iets, typo gefixed overigens.

Maar ik kan me best indenken dat PCI-E 5.0, zeker gezien de nieuwe GPUs er sowieso mee uitgerust gaan worden, enigszins, al dan niet kleine voordelen kan behalen, meer bandbreedte is voor hogere resoluties en het minimaliseren van stutters in de lage 0.1% lows mijn inziens altijd goed, als de average daar mee verbeterd wordt is altijd positief.

Hier kan je wel een paar van deze voorbeelden zien:
https://www.techpowerup.c...i-express-scaling/24.html
https://www.techpowerup.c...ci-express-scaling/6.html
https://www.techpowerup.c...i-express-scaling/27.html
https://www.techpowerup.c...i-express-scaling/28.html

Toen ik de GTX 780Ti en GTX 1080 Ti gebruikte met het X79 systeem forceerde ik altijd PCI-E 3.0, terwijl bij de X79 moederborden de PCI-E 3.0 specificatie nog niet geheel gefinaliseerd was en dus standaard bij elke driver update werd terug gebracht naar 2.0 bij Nvidia wegens volgens hun grote variatie in signal timings, het verschil was wel lichtelijk voelbaar qua performance overigens en draaide prima.

Die tool om te forceren is overigens hier te vinden:
https://nvidia.custhelp.c...3-support-on-x79-platform

En tja laten we eerlijk zijn, als de moederborden inmiddels PCI-E 5.0 ondersteunen wil je bij een nieuwe videokaart ook wel graag dit kunnen benutten, hopelijk komen de PCI-E 5.0 risers ook tegen die tijd op de markt want horizontaal plaatsen van een RTX 5090 zal wel net zo'n debacle gaan worden.
Mijn vraag werd gesteld vanuit het idee dat pcie 4.0 16x de kaart verzadigd en dat je op pcie 5.0 dat met 8x kan.

En als je kijkt naar de 1080 hoe die performance increase afvlakt naarmate je de bus snelheid verhoogt en dan kijkt hoe de 4090 afvlakt dan lijkt het dat pcie 4.0 16x de kaart inderdaad verzadigd op misschien heel af en toe dat laatste procentje na.

[Reactie gewijzigd door BlaDeKke op 23 juli 2024 08:23]

Dat zijn twee totaal verschillende zaken, en je hebt blijkbaar nog nooit van client side hit reconciliation gehoord als je denkt dat alleen de server side tickrate uitmaakt. Probeer je eerst eens iets meer te verdiepen in het hele systeem van server, client en client interface voordat je denkt slechts een component in de keten als onzinnig af te doen gebaseerd op een metric van een andere component.
Man kom even van je hoge paard af. Heb ik ergens gezegd dat alleen de tick-rate iets uitmaakt? 360fps blijft onzin, maar als jij denkt dat je dezelfde apparatuur nodig hebt als een pro-gamer be my guest.

Probeer je te verdiepen is de grootste dooddoener die je maar kan gebruiken om iemand het zwijgen op te leggen als die een mening heeft die jou niet aanstaat.
Je haalt zelf out of leftfield serverside tickrate erbij als een argument dat in deze discussie uit zou maken, maar helaas, dat doet het dus niet. Ik heb je voldoende aangrijpingspunten gegeven in mijn reactie om je nog eens in te lezen waarom dat niet zo is.
Zou toch liever gaan voor de OLED 480Hz. Response time van die panelen is niet te verslaan.

[Reactie gewijzigd door nocturnal op 23 juli 2024 08:19]

Ik ben groot fan van OLED hoor, maar bij gaming kan ik ook met een goed VA of IPS paneel overweg. Op TN ben ik wel uitgekeken, hoewel de laatste varianten wel een heel stuk beter kunnen zijn. Een OLED kost makkelijk het dubbele...
Als het enkel daar op aankomt ben ik het volledig met je eens, maar OLEDs hebben een zeer belangrijk nadeel: burn-in. Als ik een (dure) monitor koop, wil ik er wel wat langer mee doen dan 2 jaar. Momenteel zit ik dan ook op een 144Hz LCD en wacht ik de markt af voor microLED panelen.
Hier volgt een onvermijdelijke discussie over de zin en onzin hiervan. Ik zit in ieder geval in het tweede kamp.
Ja, dit is voor de 'spec boiiis' - de kopers die zich blindstaren op de getallen van computercomponenten ('meer VRAM = meer FPS = ik win 8)7 '). Net zoals goud gecoate USB stekkers van muizen omdat goud beter geleid en dus sneller is. Dit is waar, maar enkel meetbaar in een laboratorium. Niet-wetende gamers kopen duur spul wat e-gamers ook hebben om te winnen. Het is allemaal marketing.

Maar.

Dit soort dwaasheden leiden wel tot innovatie. De achterliggende technieken kunnen een 'stepping stone' zijn voor écht bruikbare innovaties. Misschien zijn monitorcomponenten door deze race energiezuiniger geworden omdat er anders sprake zou kunnen zijn van oververhitting, want weer een winst kán zijn voor het energieverbruik bij andere modellen. Videokaartboeren worden zo ook aangemoedigd om betere videokaarten te leveren. Al is dit een niche waar ik liever uit de buurt blijft, de neveneffecten kunnen gunstig zijn voor iedereen.
Hoge refresh schermen zijn al lang geen nice meer. Bijvoorbeeld een spel als cs 2 heeft het meerdendeel van de spelers een hoge refresh monitor, als je dat niet hebt dan heb je een competitief nadeel.
Diminishing returns.

120Hz vs 60Hz is zeer merkbaar. 120Hz vs 144Hz? Beter, maar niet meer heel erg merkbaar. 165Hz? 240Hz? Ach houd toch op. 360Hz?? 540Hz?? Een miljoen Hz?

Ik ben nog nergens een solide betoog tegengekomen dat beschrijft hoe dit nog een zinvolle verbetering oplevert.

In een blinde test raad is het NIET bepaald merkbaar in CS met 700fps volgens deze video.
YouTube: You don't deserve this monitor - does 360hz gaming make a difference?
Het ergste is nog dat dit
Dit is waar
juist helemaal niet waar is. Koper geleid zo'n 50% beter. Overgiens is geleidbaarheid onbelangrijk hier, de goud beplating is voor corrosiebestendigheid, wat in bepaalde situaties veel uit kan maken. Maar dan heb je het over top-end audio signalen of connectors die vaak los en overal mee naartoe worden genomen. Muizen horen daar uiteraard totaal niet bij :+
Misschien was Kuusje in de war met zilver. Dat geleidt wel (ietsje) beter dan koper. Maar goud inderdaad niet.

Met deze tabel zou ik het trouwens geen 50% noemen, maar meer iets van 30%, want nog altijd significant is.

Maar idd de geleiding is helemaal niet belangrijk. Zodra een geleider in staat is het signaal in goede orde over te brengen, is het voldoende en is een betere geleider niet nodig. En als een magische perfecte overbrenging zo belangrijk is, waarom werken de audiofielen dan niet met optische kabels?... Juist, omdat ze weten dat gouden kabels en stekkers puur bedoeld zijn om te pimpen.

[Reactie gewijzigd door _Thanatos_ op 23 juli 2024 08:23]

Nee, moet je moet 5 miljard fps hebben om te kunnen winnen, want menselijke ogen kunnen dat écht wel waarnemen. En je muis moet ook 800 miljard dpi hebben. /s

Of dat zóu ik zeggen als ik ook zo iemand was. Maar die specrace is idd klinklare onzin. Zo onzinnig dat er verouderde technologie opgefokt moest worden om aan dat getalletje te komen 8)7
Wat is dat voor een raar dingetje aan de buitenkant?
Headset-kapstok.
Dat is wel verrekte handig zeg. Dan heb je mooi je bureau vrij voor andere zaken.

[Reactie gewijzigd door Nijl op 23 juli 2024 08:23]

Mijn zus heeft een 27" 4k oled scherm van alienware, die is duidelijk een stuk beter dan mijn 24" scherm.
Maar ik vraag mij toch af. Geeft bij 24" schermformaat 1080p 540Hz een vloeiender beeld dan mijn 1440p 165Hz?? Dit is toch iets wat ik mij steeds afvraag, de pixeldichtheid zou toch wel van invloed moeten zijn lijkt me. Kan iemand mij dit uitleggen?
Hogere resolutie maakt je beeld niet vloeiender, enkel scherper.
Ja maar hoe vloeiend het is heeft wel te maken hoe klein de overgang is tussen de pixels? Hoe meer pixels hoe minder die lijnen opvallen toch.
Ik heb 1080p@144, 2160p@60 en 2160p@165 en kan je zeggen dat als ik moet kiezen tussen 1080p@144 en 2160p@60 dat ik 100% 2160p@60 kies, want de scherpheid increase is zoveel beter dan dingen die wat vloeiender wordt. Natuurlijk is 2160p@165 de ideale plek om te zijn, maar dat kost je ook wat.

Schermen zijn BenQ XL2411T (TN), LG 27UL500-W (IPS) en Cooler Master GP27U Tempest (IPS).
HDR400 is nep HDR
Nouja, het is - helaas - wel echt HDR. Het probleem met de HDR specs is dat er teveel opties zijn en het gros ervan gewoon bagger is. Hopelijk komt er met microLED een nieuwe standaard die niet HDR genoemd wordt maar wel hetzelfde principe toepast op het per-subpixel niveau en we dus niet meer te maken hebben met dimming zones en andere omwegen.

Op dit item kan niet meer gereageerd worden.