BOE demonstreert laptopscherm met refreshrate van 600Hz

De Chinese schermfabrikant BOE heeft een laptopscherm met een refreshrate van 600Hz gepresenteerd. Het is het eerste scherm met een dergelijke verversingssnelheid. Het is niet bekend wanneer BOE het paneel precies uitbrengt.

BOE presenteerde het eerste 600Hz-laptopscherm onlangs in China, schrijft ook techmedium ITHome. Het scherm werd gedemonstreerd op een laptop met Nvidia RTX-gpu. Het betreft een 16"-lcd, maar de exacte resolutie is onbekend. VideoCardz merkt wel op dat het vermoedelijk om een 16:10-beeldverhouding gaat, gelet op de hoogte van het scherm.

Dit is het eerste scherm met een refreshrate van meer dan 500Hz. BOE toonde eerder dit jaar al wel een 500Hz-monitor met een resolutie van 1920x1080 pixels. Dell introduceerde daarnaast in juli een Alienware-laptop met een 480Hz-scherm. Er is momenteel nog geen informatie over de prijzen of releasedata van laptops met het 600Hz-paneel van BOE.

BOE toonde tijdens zijn presentatie ook een nieuwe 34"-ultrawide met een miniledbacklight. Dat scherm haalt volgens de fabrikant een DisplayHDR 1000-certificering en biedt een refreshrate van 165Hz. Het bedrijf demonstreerde verder een 86"-lcd met miniledbacklight. Dat scherm zou een piekhelderheid van 1500cd/m² halen en meer dan 2000 dimbare zones voor full-array local dimming hebben.

Door Daan van Monsjou

Redacteur

01-12-2022 • 10:37

139 Linkedin

Reacties (139)

139
138
78
5
1
24
Wijzig sortering
Oprechte vraag: dat je 165 Hz verversingssnelheid zou willen kan ik snappen. Als deze echter 600 Hz is, [1] welke graka zou dat kunnen leveren en [2] wat kan het menselijke oog/onze hersenen aan qua maximale refresh rate? TL/DR: wat is het nut van een 600 Hz scherm?
Sommige mensen kunnen het verschil tussen verversingssnelheden tot 240 Hz waarnemen. Ik denk dat een scherm van 600 Hz puur headroom is. Niemand zal zulke hoge verversingssnelheden kunnen waarnemen, maar ik denk dat het gewoon een manier is om ervoor te zorgen dat er een (behoorlijke) marge is voordat mensen het niet meer kunnen merken. Hoe hoger de snelheid, hoe lager ook de latency voor het beeld verschijnt. Dat zorgt er dan voor dat je altijd de eerste bent die klikt in een game.

[Reactie gewijzigd door Sba1995 op 1 december 2022 10:50]

Men zegt dat je op 1000Hz pas niet meer met "de echte wereld" kunt onderscheiden. Daarbij heb ik met mijn collega's eens een blinde test gedaan tussen 30, 60, 144, 240 en 360 Hz en bijna iedereen kon zelfs 240 en 360 nog onderscheiden. Het is dus geen onzin als je het mij vraagt. Zelfs op 360Hz zie je als je snel met je cursor beweegt gewoon nog steeds meerdere cursors op je scherm.
Dit komt door een bekende misvatting over het oog. Elk lichtgevoelige cel in het oog heeft zijn eigen herstelperiode, dit kan geschat worden op pakweg tussen de 10 en 15 milliseconden. De gedachte is dat dus het "hele oog" niet veel meer kan zien dan 60 plaatjes per seconden. Maar uiteindelijk "ziet" het oog niet, het zien wordt gedaan door elke individuele cel. Als alle lichtgevoelige cellen in het oog totaal synchroon zouden lopen zou dat inderdaad betekenen dat je zo tussen de 66 en 100Hz kan waarnemen. Maar omdat het niet helemaal synchroon loopt (tot maximaal kleine groepjes retinale ganglioncellen die informatie van kegeltjes en staafjes samenbrengen) kan je dynamiek veel breder waarnemen, enkel niet op het detailniveau van het hele oog.

Dat kan je in de praktijk makkelijk waarnemen, objecten die snel bewegen worden wazig. Als je een wiek voor iemand plaats en en die snel laat ronddraaien wordt hetgeen steeds waziger, totdat het een soort vlek wordt tussen 50-100 rotaties per seconde. Omdat er steeds meer onzekerheid ontstaat tussen de synchronisatie van de neuronen lijkt het alsof deze de wiek op willekeurige locaties waarnemen. Een camera is een stuk anders omdat daar alle lichtgevoelige elementen zo synchroon mogelijk lopen, en daarom lijkt het daar juist of de wiek op gegeven moment stil staat als de rotatie per seconden de frame per seconden matcht. Het is mogelijk om hetzelfde effect met het oog waar te nemen, maar dit is een stuk waziger en onduidelijker door het gebrek aan synchronisatie.

Dit is exact de rede waarom je met gemak het verschil kan zien tussen een 60, 120 en zelfs 240Hz scherm. Met een hoge refresh-rate monitor is de kans dat een set lichtgevoelige cellen in het oog hetzelfde waarnemen, of juist snel verschillen waarnemen, veel hoger. Ook al kan elke individuele cel deze refresh-rate zelf niet waarnemen.

[Reactie gewijzigd door Fox op 1 december 2022 15:47]

Samenvatting van bovenstaand bericht van fox: je kan inderdaad het verschil tot 240Hz waarnemen

Graag gedaan :+
Prachtig uitgelegd. Bedankt.
Ik vind het een mooie uitleg, maar ik wil wat vragen.

is dit niet gewoon een verschil tussen refresh en framerate?

Aanname:
Aangezien beelden worden opgebouwd door op commando van code verwerkt door de CPU, door de GPU en slechts weergegeven door het scherm, met een kwaliteit beperkt door bekabeling....

Kan ik dan niet aannemen dat de muiscursor op meerdere plaatsen gewoon een beperking is van
- De verversingssnelheid van de kaart (FPS-GPU),
de capaciteit van de kabel.(maximum frequentie/ throughput in FPS),
- De capaciteit van je CPUen de rekenkracht gealloteerd aan je muiscursor instance(CPU 0, <-> USB),
- De frequentie waarop dat gebeurt, met de beperkingen van je optical USB muis in acht nemend. (Hoe vaak wordt de locatie uitgevraagd?)
- De stapgrootte die je invoert in je muissoftware, sneller bewegen grote actie, grote sprong op scherm, trager nauwkeuriger)
- Potentiële artefacting op je netvlies 'opeens komt daar dat ding in wit/contrastkleur voorbij...' (of andere Biologische beperkingen)
- Alle of bijna alle antwoorden hierboven?

Ik ben oud, bijna 50 en ja, ik vind een 240Hz instelling fijner op mijn scherm dan 120 of 60, maar meer omdat het voor mij lijkt of beelden beter vloeiend lijken , maar vaak genoeg is mijn FPS ingame lager dan 120, al staat mijn scherm op 240, als ik mijn scherm op 120 zet houd ik dezelfde FPS, maar lijkt het slechter, en volgens mij is dit toch een illusie. Een beetje als 100 rijden in een gemodificeerde Fiat Panda of een Lamborghini, terwijl in beide toch een perfect gechiptune-de v10 gebouwd is en in beide een goede bak zit en correcte sloffen ... Ik geloof dat de Lamborghini mentaal uiteindelijk wel wint door de stroomlijn en de kosten, maar capaciteiten zijn basaal hetzelfde tot dat punt. En sleepers vs supercars is lachen...maar buiten het punt van dit verhaal. zolang je GPU het aankan en je dcherm het kan weergeven zal het hetzelfde zijn, maar je maakt geen 3 tot 5 frames winst meer zoals 15-25 jaar geleden.

Ik heb eigenlijk pas 3 jaar een 240 Hz scherm, mijn beste (panel) scherm in de 20 jaar daarvoor was 75Hz. Ik ben van mening dat 600 Hz puur fysisch en absoluut kan, maar biologisch voor een mens echt niets uit maakt... iets met reactietijd 0.010s bij getrainde personen en bij een 240Hz scherm een verversing per 0.0042s en bij 600 in 0.0017s en ja dat is 3 keer sneller, maar toch...
of dit ooit praktisch nog enig nut zou hebben in een game situatie? Uiteindelijk met het scherm zit je op totaal reactietijden die triviaal zijn 0.0117 en 0.0142, als er ook maar iets van afleiding is, of je iets verder moet bewegen dan zijn tijden niet goed te maken.handoogcoordinatie en muscle memory winnen dan waarschijnlijk je confrontatie.

Maar in gewoon gebruik bij bekijken van dingen:
Bioscoop beelden en Blu ray hebben 24 FPS
Tv beelden hebben 25 FPS, wellicht 50...
Spel op 120 FPS ( okay een beetje goede moderne GPU haalt wel 400-500FPS op 1080p, maar ook dan heb je low 1% en low .1%. en dit lukt ook zeker niet op alle engines of met originele kwaliteit of supersampling.

de rest van de frames wordt dan hetzelfde beeld getoond. je kunt moeilijk niets tonen.

blu ray op 600 Hz laat gewoon 25 verversingen lang hetzelfde beeldje zien of 0.042 seconden per beeldje. De meeste mensen zien niet schokkerig bewegende beeld boven 20 plaatjes per seconde, op voorwaarde dat ze ruwweg naar dezelfde plek blijven kijken. Sommige animatiefilms gebruiken 12 FPS.... en dan wordt het brein vrijwel altijd nog voor de gek gehouden.

Bij een spel op 120FPS op 600Hz laat het scherm het beeldje 5 keer achter elkaar zien dus voor 5x0.0017s of 0.0083 seconde achter elkaar, het scherm kan waarschijnlijk wel sneller wisselen van kleuren
bij een spel op continu 00FPS op 600Hz zie je 4 frames individueel en één 2 verversingen lang, in ieder geval welke dit is is afhankelijk van FPS drops, laadmomenten, interrupts van whatever apparaat etc .

Hoe veel moeite heeft jouw GPU met jouw werk, buiten spelletjes? Als je CAD, fotos digitaal visueel (GIS, Video, whatever...) bezig bent zal het wellicht een rustiger ervaring bieden. Maar in 99.99% van de gebruiksgevallen buiten de extreemste gaming denk ik dat 600Hz en 600 FPS totaal triviaal is voor een gebruiker.... Denk ook gewoon aan de stroomrekening. 4090Ti voor je 1920x1080? of gewoon een 3050?

[Reactie gewijzigd door PaxV op 2 december 2022 12:16]

"Zelfs op 360Hz zie je als je snel met je cursor beweegt gewoon nog steeds meerdere cursors op je scherm."

Is dat iets wat puur met beeldschermen te maken heeft?

Ik bedoel, als ik naar mijn vinger kijk en ik beweeg die heel snel heen en weer dan zie ik toch ook die... Ik heb geen idee hoe je dat noemt... Dat je vinger een soort streep wordt.
Maar je vinger beweegt daadwerkelijk, je muiscursor niet, die wordt heel snel en vaak op een andere plek getekend. Als de refresh rate laag is, is de afstand tussen die redraws groot genoeg om gezien te worden als 2 plaatjes van een cursor op een andere plek.
Meer dus dat je ogen/hersenen zelf al een dermate lage refresh rate / processing snelheid hebben waardoor van nature al een soort motion blur waargenomen wordt. Hersens zijn notoir bekend om het verzinnen/invullen van dingen die ze denken gezien te hebben.
Of anders gezegd, op welk moment gaan je hersens zelf motion blur "invullen" terwijl het scherm snel genoeg is? (los van het feit dat dat punt voor iedereen zal verschillen, en in hoeverre moet je technologie maken voor die handvol mensen die 10kHz nog zien).

[Reactie gewijzigd door DropjesLover op 1 december 2022 12:19]

Wat je hersenen doen kan worden vergeleken met Intepolation.
Als je een 24Hz video interpolate om 60Hz te zijn, vult een algoritme in principe de "gaatjes" in tussen de frames die niet worden getekent.
Dit is nog niet perfect en raakt soms nog in de war.
Onze hersenen hebben dus eigenlijk gewoon een near-perfect interpolation methode.

Het verschil in refresh kan worden gezien op een monitor omdat het niet écht beweegt.
Ik kan verschil zien tussen 360Hz en 480Hz. Hoger heb ik neit geprobeerd.
Maar dat heeft puur te maken met hoeveel er wordt gerenderd.
600Hz onderscheiden van 480Hz zou nog kunnen, maar niet als in beide gevallen een constante 1000 FPS wordt gerenderd. Wanneer de Framerate (FPS) in de buurt komt van de Ververssnelheid (Van boven af dan wel), zal het verschil makkelijk te zien zijn.
Dat je vinger een soort streep wordt.
Motion blur :+

Bij elke verhoging in hz zie je wel minder cursors dus dat is dan toch niet je ogen maar het scherm die dat veroorzaakt.
Misschien zou het een goed idee zijn om de muis met motion blur te renderen. De meeste games doen dit trouwens al en wat dat betreft zie ik weinig meerwaarde in zo'n idioot hoge refreshrate.


Ik heb ook sterk het vermoeden dat het display zelf die 600 Hz niet bij gaat houden. Maar goed dan heb je wel 'gratis' motion blur natuurlijk ;-)
Motion blur en bloom is het eerste wat uitgaat
en hier ook chromatic aberration.
Als lootboxes de #1 ergenis van games zijn, dan is motion blur wel #2 puur omdat het optioneel is. Motion blur heeft nog nooit wat positiefs toegevoegd aan videogames en ik moet de eerste persoon nog tegenkomen die dat niet uitzet.
In de eerste need for speed underground (demo) was het een geweldige toevoeging om de snelheid te ervaren. Zeker in combinatie met de felle kleuren verlichting. Maar dat is een behoorlijke tijd geleden, 2003 zelfs..

Wordt nu nog over gesproken; https://twitter.com/dark1x/status/1504482947390341122 .
Ik zet het vaak juist aan. Veel beter snelheidsbeleving. Hoewel het een beetje afhangt van de situatie.

Ik zou graag zien dat games de optie voor motion blur zouden splitsen in 2 dingen: motion blur ten gevolge van snel bewegende objecten (moet m.i. altijd aan, omdat een geblurde streep er altijd mooier uitziet dan 5 diskrete frames).

Motion blur ten gevolge van de camera beweging. Voegt in racing zeker wat toe voor de snelheidsbeleving, maar is niet altijd prettig omdat je hersenen deze motion blur in de echte wereld vaak negeren, waardoor ze niet opvalt. Bovendien wordt motion blur door draaien van je hoofd meestal opgevangen door saccaden (snelle beweingen van je oog) dus motion blur door draaien van de camera komt ook vaak onnatuurlijk over.
Ik denk dat wat bedoeld wordt, dat in een "echte wereld" de cursor ook een *streep* zou moeten zijn, in plaats van meerdere losse beeldjes, net zoals jouw vinger, die je ook niet als losse vingers ziet. (Tenzij je onder pwm-gedimde verlichting zit) Met een "oneindig hoge" refreshrate wordt de muis, hoe snel je hem ook beweegt, op 'elke' pixel gerenderd en zal 'ie dus één waas/streep zijn als je 'm snel beweegt.
En leverde je grafische kaart op dat moment ook 360 beelden per seconde? Dat zou de meerdere muis pointers ook kunnen verklaren.
Dat is dus inderdaad ook de latency waar ik op doelde. Hoe hoger de verversingssnelheid, hoe sneller het nieuwe beeld ook op het scherm verschijnt.
Heb ooit eens gehoord dat getrainde straaljager piloten soms zelfs wat zien als er maar 1/1000ste van een seconde iets te zien is (een stipje op een radartje of zoiets), weet niet of het echt zo is, maar kan me er wel wat bij voorstellen, mede door de manier waarop je ogen werken, en een lichtgevend stipje nog te zien is nadat het al uit is gegaan.

[Reactie gewijzigd door Kalder op 1 december 2022 11:36]

Onzin, lees je eens in hoe radar in a straaljager werkt. Er worden geen blipjes voor 1/1000ste van een seconde getoond.
uhh, nee, ben niet van plan straaljager piloot te worden... maar het is duidelijk dat jij het menselijk oog niet begrijpt. (Kijk eens naar een lamp, zet hem uit, en je zult nog steeds iets van de lamp zien als je je ogen sluit)
signalen op een radar scherm hebben een "decay"
vandaar @sfc1971 zn opmerking.
de decay van signalen is in te stellen maar een signaal zal nooit 1/1000ste van een seconde weergegeven worden.
Ik gaf de radar ook alleen maar als voorbeeld, kan ook zijn dat het een ander soort scherm was, en heb het ook alleen maar ooit gehoord, maar als je een lichtje (neem voor het extreem een laser) 1/1000ste van een seconde aan zou zetten op je oog zou je die wel kunnen zien lijkt me (ga het niet uitproberen en heb ook geen manier om een lichtje zo snel te bedienen ;) )
Dat jij meerdere cursors ziet kan ook met andere zaken te maken hebben. Bv is de backlight getest dat deze op 100% staat en dus niet knippert. En was je opstelling ook dusdanig bv buiten zodat je geen lampen om je heen hebt die eventueel mee knipperen

Kortom, om een dergelijke test te doen moet je goed opletten hoe je omgeving eruit zoet..
Dit kan ik helemaal beamen. Als ik van 300hz terug naar 165hz ga. Dan twijfel ik soms of het nog wel op 165hz staat en niet op 60hz.

En hoeveel ik er hier al heb zien passeren die het verschil niet zien tussen 30fps en 60fps of tussen 60hz en 144hz… Je kan veel beweren, maar dan mankeer je toch iets en denk ik dat je best eens langst de oogarts passeert.

[Reactie gewijzigd door BlaDeKke op 1 december 2022 12:29]

Wat was de samplerate van de muis? Als die in de buurt van de refreshrate van het scherm komt, kan je dan geen last van aliasing krijgen?
Dat dacht men eerder ook met de stap van 30 naar 60 Hz. Optische neuronen hebben een verversingssnelheid van rond de 600 Hz, en daarbij komt ook de manier waarop je gehele retina werkt, zodat er overlap is in de te activeren neuronen en neuronen die zich in de refractaire periode bevinden. Hiermee komen we gauw boven de 1000 Hz uit qua wat wij kunnen ervaren. Dit is voornamelijk van belang voor snel bewegende objecten.
Je ogen en hersenen kunnen dit misschien wel aan, maar je neemt dit niet bewust waar.
Dat maakt ook niet uit met competitief gamen. Zolang je het maar waarneemt. Ik maak wel eens situaties mee waar ik zelf versteld sta van wat ik doe. Het is dan niet allemaal volledig bewust, maar ook op 'gevoel'.

Ik denk dat het kunnen waarnemen van een verschil in refreshrate ook erg afhankelijk is van hoe je gamed. Speel je een shooter wat rustiger of ben je zeer druk rond aan het kijken. Bij veel beweging is een hogere refreshrate fijn. Ik merk de limitaties van 240hz nog best goed. Of misschien moet ik zeggen ik denk de limitaties goed te merken. Heb het uiteraard nooit wetenschappelijk getest.
Het grote voordeel van een hogere refresh rate is dan ook dat je nieuwe beelden eerder op je scherm hebt, met een minder grote latency. Het gaat om milliseconden, maar als dat eerder is dan je tegenstanders, ben je in het voordeel.
Dat geld voor bijna alle graphics die aanwezig zijn eens je helemaal in de gameplay meegesleurd wordt.
Maar je voelt het wel, je voelt dat het soepeler is, al zie je het niet direct.
Het is wel degelijk waar te nemen bij snel bewegende objecten. Dit verklaart ook het cursor ghosting effect, het zien van meerdere instanties van de cursor als je deze snel heen en weer of in cirkels beweegt. Des te hoger de verversingssnelheid, des te meer instanties er te zien zijn per tijdseenheid bij dezelfde snelheid. Pas zodra de individuele ghost cursors niet meer te onderscheiden zijn, heeft de verversingssnelheid de limiet van het oog-brein systeem bereikt. Deze limiet ligt hoger dan 600 Hz en waarschijnlijk nog veel hoger.
Dat dacht men eerder ook met de stap van 30 naar 60 Hz.
60Hz is zo oud als de TV, dus volgens mij heb je dit zelf verzonnen.
TV heeft hier niets mee te maken. LCD schermen zijn lang op 30Hz blijven hangen alvorens 60Hz en hoger te ondersteunen. Je zal zien dat het ook bij je eigen LCD scherm nog steeds als optie beschikbaar is.
Stel, je toont op een 600 Hz scherm iedere seconde 599 witte frames en 1 zwarte. Zou je dat zwarte frame dan wel of niet opmerken? En als je hem opmerkt komt dat dan doordat jouw oog toevallig net synchroniseert met de zwarte frame of komt het omdat je eigenlijk alle frames ziet?

Het zou een mooie test kunnen zijn. Laat enkele seconden lange iedere seconde op hetzelfde frame een zwart beeld zien en veranderd na die tijd het frame waarin het zwarte beeld wordt getoond. Verdwijnt het frame dan uit je zicht of niet? :)
Je beschrijft gewoon een omgekeerde lichtflits, natuurlijk zal je dat zien :+
TL-verlichting is een continue schakeling van lichtflitsen. Dat zie je toch ook niet.
Bovendien duurt een lichtflits meestal langer dan 1/600e van een seconde. Zou je hem nog steeds zien als hij zo kort duurt?
Ja, want je ziet de verandering. Dat is hetzelfde punt wat anderen in deze thread ook al opgemerkt hebben. Je kan geen fps/framerate/hz aan onze ogen hangen, want dat is niet hoe ons brein werkt.
ik zie nog tot 300 hz het verschil, en als ik snel google zie ik dat het menselijk brein tot wel 1000 fps / hz kan zien / meer.

Ik zelf denk dat er niet echt een limiet op zit. Maar er is wat ik kan vinden geen studie gedaan op hoe snel het menselijk brein rekent.
Het lijkt me puur "omdat het kan" en om mee te showen. Zelfs al zouden er mensen zijn die het kunnen zien, waar ga je idd naar kijken, je desktop? ;)

Is er iemand die bereid zou zijn om de grafische instellingen zo laag te zetten dat je hier gebruik van kan maken? Ik bedoel, persoonlijk accepteer ik 30 fps op de hoogst mogelijke instellingen, zolang het maar niet hapert ben ik blij met 30 fps.
ja, competitieve esports spelers. De gemiddelde csgo speler speelt de game op de laagst mogelijke instellingen, vaak zelfs met een resolutie lager dan 1080p

daar zijn dit soort schermen voor
In een laptop? Het lijkt mij sowieso vrij vergezocht dat ze dit ontwikkeld hebben voor die paar extreem fanatieke csgo spelers in het achterhoofd.
Nou noem eens een andere usecase dan
Zolang jij tevreden bent is alles goed.
Ik raad je wel aan om niet uur lang te gamen op een 120hz scherm met 120fps te gamen want daarna ben je voorlopig niet meer tevreden met 30hz.
Ik kan volgens mij niet het verschil zien tussen 1080p, 1440p en 4k want mijn ogen zijn daar niet goed genoeg meer voor maar toch heb ik een 4k tv en een 4k monitor. Waarom omdat het beeld er wel mooier uitziet omdat er volgens mij wel meer technologie in monitor en tv schermen gebruikt worden die het beeld mooi maakt. Ik kan mij voorstellen dat 600hz i.c.m andere technologie je toch nog wel een verschil ziet qua hoe het eruit ziet, maar ik ben geen hardware kenner dat is dus mijn idee erbij.

[Reactie gewijzigd door Hydranet op 1 december 2022 10:58]

Het verschil tussen resoluties wel of niet kunnen zien is vrij subjectief, er zijn factoren die daar heel veel invloed op hebben... zoals je zelf al zegt hoe goed je ogen zijn, het formaat scherm, afstand tot het scherm etc. Maar refreshrate is een andere zaak, dat is in principe altijd zichtbaar en daardoor ook makkelijker objectief meetbaar of het uitmaakt... hiervoor kan je ook verschillende grafieken vinden dat er al snel een punt is waarbij de opbrengsten flink afnemen tot een punt dat het geen voordeel meer biedt... kan zo snel even geen voorbeeld vinden, maar de curve daarvan neemt al heel snel af na de 144hz en volgens mij heeft vrijwel alles boven de 240hz in de praktijk geen zin meer en beland je al heel snel in het gebied van " Zilveren HIFI-kabels gesmeed door elfen bij maanlicht"... er zullen mensen zijn die zullen zweren dat het echt beter is en dat ze het zien ondanks dat je wetenschappelijk kan aantonen dat dit niet zo is.
Je zegt nu dat boven de 240 hz geen zin meer heeft maar hoevaak hebben mensen al een limiet genoemd en werd daar later weer overschreven. Op een bepaald punt in de geschiedenis was 25fps het limiet omdat we niet beter wisten.

Ik zie Pro Gamers meer als atleten die ook grens verleggend kunnen zijn en dus echt wel voordelen kunnen gaan halen uit nog hogere refresh rates.

Of het voor huis-tuin-keuken gebruik nuttig is geen idee. Misschien dat er nog wel uit een psychologisch onderzoek zal blijken dat een 120 of 240 hz scherm meer rust bied dan 60 hz. Bij 30/25 hz is dat al bewezen dacht ik.
Dat heb ik uitgelegd, maar de limiet waar jij over spreekt is de limiet mbt filmmateriaal, dat is toch weer een andere categorie. Pro gamers halen overigens veel meer voordelen uit responsetijden van input en frames dan van een absolute framerate... uiteraard brengt een hogere framerate ook voordelen met zich mee maar de waarneming daarvan door het menselijk brein zit echt een grens aan en op een gegeven moment bereik je het punt van 'diminishing returns' waarbij de voordelen van nóg hogere framerates heel minimaal zijn en ze gepaard gaan met grotere nadelen zoals het niet meer kunnen halen van X aantal fps bij een bepaalde resolutie e.d. De voorbeelden die je daar bij aanhaalt liggen absoluut nog in het waarneembare spectrum, ik zal absoluut niet ontkennen dat 120/144hz tot 240hz zonder twijfel een meer vloeiende ervaring biedt omdat er simpelweg meer beelden per seconde worden weergegeven... maar alles boven de 240hz wordt al een ander verhaal.
Audiophile Ethernet cables met een INPUT en OUTPUT RJ45 stekker comes to mind ;)

Sucker born every minute....
Er is een topic op tweakers wat er vol mee staat... niet zeggende dat alles nonsens is, maar donders je verbaasd je er toch nog om hoe mensen (wetenschappelijk) aantoonbare zaken negeren en de fabeltjes over zaken slikken als zoete koek. Dergelijke ethernetkabels zijn een voorbeeld, maar zo nog legio andere zaken. Topic op Tweakers: forumtopic: Zilveren HIFI-kabels gesmeed door elfen bij maanlicht #6

Linus Tech Tips heeft er laatst ook nog een video over gedaan, dat was een 'audiophile' netwerkswitch, ook interessant. https://www.youtube.com/watch?v=NMFQ3YvR3Eo
LTT deed er een keertje een test over (onder de werknemers, dus wellicht zijn de resultaten voor pro's nog anders), maar als ik het me goed herinner liep de winst die je haalt uit meer Hz snel terug boven de 100 of zo. Persoonlijk heb ik doorgaans niet eens door of ik met 30 of 60 Hz speel, maar ik merk wel dat ik beter speel bij 60 dus het doet wel wat. Ik betwijfel echter of dat verschil nog steeds zo duidelijk is tussen 60 en 120 (wellicht voor comfort in VR), 120 en 240, 240 en 480.

Het nut van 600 lijkt mij hoofdzakelijk "groter getal beter"-marketing.
Het verschil tussen 30 en 60, en 60 en 120 is echt gigantisch.

Dat je dat verschil niet kan zien heeft misschien te maken met hoe je dit gecheckt hebt, maar het verschil is écht heel groot. Ik ben inmiddels zo aan 120 gewend, dat ik spellen die locked zijn op 30 fps echt niet meer kan spelen. Het is niet om aan te zien.

[Reactie gewijzigd door Sito op 1 december 2022 14:54]

Het hangt denk ik ook wel af van het spel en de grootte van het scherm. Ik speelde Hades op m'n Steam Deck en het ging niet heel denderend. In de systeeminstellingen zag ik dat ik 'm op 30 fps begrenst had, en toen ik 'm op 60 fps zette had ik niet het idee dat ik echt verschil zag, maar ik merkte wel dat ik ineens veel beter speelde. Ik kan me goed voorstellen dat als ik op een groot scherm Doom Eternal of zo aan het spelen ben, het verschil veel duidelijker te zien zou zijn.

Lijkt me overigens wel vervelend, als je hoge fps zó gewend bent dat je niet meer terug kunt. Merk je het dan ook als je naar een film kijkt? Daar heb je niet eens de optie om een hogere framerate in te stellen.
vergeet de response tijd niet, als het 5ms duurt om van zwart naar wit te gaan, dan heb je er ipc niks aan om op een 200hz+ scherm te zitten
Dit. De meeste lcd schermen met hoge hz kunnen enkel het signaal verwerken. Maar de responstijd is om te huilen vaak.
Mijn lcd paneel bijvoorbeeld heeft ook een fictieve 165hz, maar pas bij 85hz en lager is het beeld redelijk scherp te noemen. Daarboven introduceer je alleen maar meer blur. Mijn crt monitor(85hz) oled tv(60-120hz) en zelfs mijn oude plasma(60hz) geven scherper beeld.
Ik snap de meerwaarde voor esports, maar verder....
Nou, voor spellen die op hoge framerates draaien natuurlijk. Valorant, CSGO, AVA en andere esports shooters. Bij dat soort spellen worden toernooien gehouden om echt geld en geen klein beetje ook. Dan neem je ieder voordeel dat je volgens de regels van het toernooi mag nemen, ookal is het klein. Tov 144 Hz ga je er ~5,2 ms op vooruit in latency tussen frames. Daarbij doe ik natuurlijk wel de aanname dat zowel bij de 144 als de 600 de pixels minimaal zo snel als 1/f reageren.

Het gaat niet om of je het echt merkt of quality of life of iets dergelijks. Je koopt het scherm als middel voor je sport/baan. Meer is meer beter

Je hangt er gewoon een i9 13900K aan met een RTX 4090 en dan haal je die 600 fps in een esports game echt wel.

[Reactie gewijzigd door youridv1 op 1 december 2022 10:58]

En over 10 jaar 6000 Hz, zou je daar ook nog een goed argument voor kunnen verzinnen? ;)
Letterlijk hetzelfde argument, zonder wijzigingen anders dan de getalletjes. Daar zit de crux nu juist. Het maakt niet uit hoe ver in deminishing return je zit. Het gaat om competitie, daar is er niet zoiets als deminishing return. Het prijzengeld van een toernooi of league betaalt tientallen van dit soort schermen in 1 klap terug

[Reactie gewijzigd door youridv1 op 1 december 2022 11:07]

Maar 6000 Hz is meer dan onze ogen kunnen waarnemen, dus dan is het toch niet nuttig?
Je begrijpt me verkeerd. Dat boeit niet. Er is niet zoiets als deminishing return, zeg ik net. Het maakt niet uit dat je boven de snelheid van het menselijk oog zit. Bovendien werkt het menselijk ook niet in Hz. Er zijn tientallen studies over dit onderwerp geweest. "the eye cant see above xxx Hz" is een hele shaky claim. Ik weet heel zeker dat jij die niet definitief hard kunt maken.

Ga jij eens aan een formule 1 engineer uitleggen dat 0,1 gram besparen op de auto niet nuttig is, omdat de coureur dat compenseert met 1 slok water te veel nemen. Kijk even wat voor antwoord je dan krijgt. Er is budget en het kan beter, dus het zal beter

[Reactie gewijzigd door youridv1 op 1 december 2022 11:12]

Als die 0,1 gram ook gebruikt kan worden voor downforce kun jij hem er wel afschrapen, maar 3x raden wie er het eerst door de bocht is. lulkraak meer Hz blazen in onzin, verbeter latency, kleuren etc.
kromme analogie. 0,1 gram besparen op het frame, een bout, de kabelboom, een as heeft 0 invloed op downforce
jawel, want je bespaart dan 0,1 gram downforce ;)

spoilers en wings drukken je auto op de grond dus maken ze je auto een soort van zwaarder.
Deste zwaarder deste meer downforce dus.

alleen maken de vleugels je auto een soort van zwaarder als je snel gaat. Zodat je tijdens de start niet belemmerd word door je gewicht.

[Reactie gewijzigd door Milanobrotchen op 1 december 2022 14:31]

des te meer reden om hem eraf te schrapen dus? hoe minder downforce je nodig hebt, hoe beter

[Reactie gewijzigd door youridv1 op 1 december 2022 14:26]

Volgens mij doe je je eigen argument teniet, uiteraard is er zoeits als diminishing returns. Na xxx Hz gaat het echt niet beter, het kost wel meer. En bij constant prijzengeld diminished dus je return (tov je investment in meer Hz).
Zijn wel graka's die dat kunnen dat leveren, het hangt vooral af van het spel, CSGO en Fortnite halen die FPS wel als je wilt op beetje high end spul (en juiste settings).

[Reactie gewijzigd door watercoolertje op 1 december 2022 11:04]

Voor zover ik weet nemen mensen niet waar in iets als 'refresh rate', wij zien vooral verschil tussen twee situaties, oftewel verandering. Hier zijn o.a. testen mee gedaan door mensen in een volledig verduisterde kamer te zetten en vervolgens een lamp ontzettend kort te laten knipperen. Een van de resultaten was o.a.:
[...] The appearance of the pattern enabled the discrimination of flicker from steady light at frequencies that in 11 observers averaged 1.98 kHz. [...]
(bron)
Oftewel, mensen kunnen knipperende lampen waarnemen tot bijna 2000Hz (volgens dit onderzoek).

Het verschilt daarbij ook nog of je je ogen stilhoudt of beweegt. Wanneer je je focus verlegt van het ene object naar het andere (een zgn. "eye saccade") ben je in staat snellere bewegingen waar te nemen.
Daar heb ik een keer zelf een test mee gedaan met een LED en een Raspberry Pi GPIO. Het knipperen op 2 KHz was nog makkelijk te zien. Wel moest er beweging zijn anders leek het niet te veranderen. Hoger dan 2 KHz lukte nog wel maar 4 KHz was voor mij niet meer te zien.
Beetje het zelfde als de LED lampen zonder gelijkrichter + condensator die zie je pas knipperen als je beweegt. (Tenzij ze niet helemaal lekker werken.)
Ik dateer van de tijd waarbij Hz wel belangrijk was in het tijdperk van CRT monitors.
Toen was 100Hz de norm omdat CS 1.6 locked was op 101 fps.
Aldus mijn eerst ervaring met 100Hz, daarna een CRT gehad die 200Hz aankon op 640x480 resolutie en toen zag ik al die smoothness.

Dan met de huidige generatie flatscreens is was het opnieuw van 60Hz terug finetunen tot ze 100+hz aankunnen omdat de games en kaarten dit nu ook met de meeste games kunnen.

Maar ik kan nu niet meer zonder 240Hz, ookal is het verschil met 144Hz weinig. Maar er is verschil als je echt in detail gaat.
Goed dat je je TL/DR vraag er bij zet want het antwoord op je andere vragen zal dit niet beantwoorden ;)

Ten eerst zijn dit soort schermen voornamelijk nuttig voor pro gaming. Al met al gaat het er niet om of je actief een verschil kan merken tussen de verschillende framerate. Het gaat er om dat je met een hogere refresh rate de mogelijkheid kunt krijgen om sneller te reageren.

De reden dat je mogelijk sneller kan reageren zit hem er in dat dingen niet synchroon lopen. Een voorbeeld hiervan zijn je ogen in combinatie met je monitor. Laten we ruw stellen dat je ogen met 100Hz waarnemen. Als we daar een monitor tegenover zetten van 100Hz betekend dat dat je een delay kunt hebben van 0 tot 9.99... ms. Als je hier nu een monitor van 1000Hz tegenover zet heb je een delay van 0 tot 0.99.. ms.

Je kan dus stellen dat er niet zo iets is als teveel Hz. Je ziet het misschien niet maar het kan altijd zorgen voor een betere reactie tijd.

Dit geld dan ook niet alleen voor een monitor maar alles wat niet synchroon loopt binnen de ketting. Denk hierbij aan polling rate van je muis tot aan tickrate van de server. Elke minuscule vertraging kan er voor zorgen dat je verder op in de ketting een tick mist.
Het valt me op dat dit soort vragen op Tweakers telkens weer bovenaan komen te staan, ondanks dat deze informatie gewoon in iedere monitor review waarin gaming tests worden meegenomen (dus praktisch allemaal) van Tweakers voorkomt.

De LCD techniek is niet perfect, het heeft artefacten bij snel bewegende beelden: undershoot, overshoot, etc. Hoe groot die undershoot en overshoot zijn staat in grafieken in de Tweakers reviews aangegeven.

Over het algemeen geldt (al is het zeker geen lineair patroon of regel, en is het afhankelijk van diverse factoren, zoals bijv. het paneeltype zoals TN, VA of IPS paneel), dat deze artefacten minder worden naar mate de refreshrate hoger is. Dus een hoge refreshrate, zelfs al zou je het verschil in verversingsnelheid niet zien tussen 300 en 600 Hz, indien er geen artefacten waren, ga je het verschil dus wel kunnen merken doordat er artefacten zijn.

600 Hz is dus nuttig, omdat de artefacten minder worden. De stap van 300 naar 600 Hz is daarmee niet zo nuttig als van 100 naar 200 Hz. Er geldt hier simpelweg ook law of diminishing returns. Maar ik kan me voorstellen dat er nog lang LCD schermen worden uitgebracht en we nog 1000Hz en snellere schermen gaan krijgen.

Vanaf welke refreshrates deze schermen zich op alle vlakken kunnen meten met OLED panelen met lagere refreshrates (bijv. 120Hz zoals bij de LG C2 modellen), is ook weer afhankelijk van veel factoren en lastig te beantwoorden. Ongetwijfeld zullen sommige modellen van 240Hz of 360Hz op sommige vlakken al beter zijn dan een LG C2 op 120Hz, al presteert de LG C2 op veel vlakken met bewegende beelden beter, vanwege de lagere latency en zelf oplichtende pixels waardoor je veel snellere overgangen tussen kleuren (en donker en licht) hebt en dus undershoot en overshoot, waardoor je minder afhankelijk bent van hogere refreshrates om scherpe bewegende beelden weer te geven.

En zoals anderen al aangaven, als je bijv. CS:GO, PUBG, Apex Legends, FortNite, Rainbow Six: Siege (allemaal erg populaire games) heel serieus speelt met zware grafische kaarten met 300 tot 800 FPS, dan ga je hier dus ook gewoon profijt van hebben. En met de volgende generatie grafische kaarten ga je in CS:GO, het populairste spel in de Steam Charts https://steamcharts.com/top, gewoon over de 1000 FPS heen. Met lage settings gaat men dat nu misschien zelfs al met een RTX 4090.

En speelt nog mee dat je ieder klein stukje potentieel voordeel als competitive gamer wil meenemen (afhankelijk van hoe professioneel je bent / wil zijn en het budget dat je hebt), net zoals men in het wielrennen of formule 1 met marginal gains bezig is, omdat dat uiteindelijk een verschil kan maken.

Interessant (maar wel door Nvidia gesponsord) filmpje van Linus tech tips met een test: https://www.youtube.com/watch?v=OX31kZbAXsA

[Reactie gewijzigd door xtlauke op 1 december 2022 22:07]

Leveren kan natuurlijk als je een spel speelt met meer dan 600fps.
Al lijkt het mij zwaar useless.
Het doel van 600hz is niet per se dat je dat ook in FPS kan leveren (Ideaal is het natuurlijk wel).

Er komen ongeacht positieve effecten bij (latency, pixel persistence, minder ghosting, etc.)
Je zou, gecombineerd met een simpel, lichtgewicht LCD brilletje, meerdere beelden voor verschillende ogen kunnen weergeven. D.w.z. één of meerdere 3-d afbeeldingen, die rekening houden met hoe hoe eenieder voor het beeld zit.

Panasonic dacht op zo'n manier rond de eeuwwisseling o.a. verkeersleiders te gaan ondersteunen met een groot, plat liggend scherm met in 3-d het luchtruim 'erboven'.

Mijn indruk is, dat dit idee destijds vast liep op de veel te lage refresh rate van het scherm. Wie weet komt iets dergelijks nu weer ergens van stal..
Genoeg 'GPU's' die dit kunnen leveren, afhankelijk voor welke applicatie/spel dit uiteraard is. hoeveel hz jij kan zien is afhankelijk van jou, ik merkte het verschil tussen 144 en 280hz wel, maar van 280 naar 360 hz niet. Het nut... afhankelijk in welk detail het wordt afgespeeld lijkt me. het is iets voor de toekomst hederdaags kan ik het nut er nog niet van in zien.
Zelf heb ik geen 165 Hz maar 144 Hz en je kan overduidelijk een trail achter je muis zien en als je snel van links naar rechts beweegt dan kan je er iets van 10 zien :P. Hoewel het scherm al wat ouder is staat het niet bekend dat het veel last heeft van ghosting (uitvoering: LG UltraGear 34GK950F Rood, Zwart).
Ik denk dat je voor zulke dingen prima nog winst kan halen met hogere verversingssnelheden.

Dat gezegd te hebben denk ik dat ik liever een groot QD-Oled scherm wil dat rond de 144 Hz zit.
Om 120Hz resolutie te krijgen moet momenteel al alles goed zitten. Veel schermen garanderen die hoge refresh rates niet op al hun poorten. Ook heel wat kabels ondersteunen het niet. En ten slotte ondersteunen heel wat laptops/GPUs het niet op al hun poorten.

Los daarvan, wat men ook beweert, een hogere refresh rate is minder vermoeiend voor de ogen. Zeker als je 12 uur per dag naar dat knipperlicht staart.

Of je het verschil ook echt bewust kan zien? Aan de factuur van je elektriciteit.
De maximale fps die je kunt waarnemen is voor iedereen verschillend, maar 600fps is bullshit. Niemand niemand niemand ziet het verschil tussen 600 en 500, of zelfs tussen 600 en 250. Zelfs 250 vind ik al knap (en die riekt wmb al naar een placebo-effect).

Dit is hetzelfde als iemand die claimt het verschil te kunnen zien tussen een 8K en 12K monitor op 27 inch. Er is no way dat je dat kunt zien (je kunt het natuurlijk wel meten met hulpmiddelen).

[Reactie gewijzigd door _Thanatos_ op 2 december 2022 13:50]

Iemand die weet of een hogere refresh rate een ander voordeel heeft? Bijvoorbeeld rustiger voor je ogen/hersenen? Iets dat je misschien totaal niet merkt, maar waar je wel profijt van zou kunnen hebben. Geen idee of hier ooit echt onderzoek naar gedaan is.
Precies wat je zegt. Ik heb even geen research paper voor je, sorry, maar ik ken wel mensen die 120Hz+ schermen gebruiken voor kantoor omdat ze daar langer naar kunnen staren zonder hoofdpijn. Je denkt het niet te zien, maar onderbewust is het toch minder vermoeiend voor je brein
Maar dat is 120Hz (en ik veronderstel 144Hz). "Hoger is beter" geld maar tot op een bepaald punt.
Kantoorwerkers die naar een scherm staren kijken toch hoofdzakelijk naar een 'statisch' beeld, lijkt me. Dan maakt het niet uit op welke frequentie het ververst wordt, zolang de backlight maar niet knippert. Dus òf die 120Hz schermen hebben een betere (meer stabiele) backlight, òf het zit tussen de oren.
het gaat inderdaad om knipperen, niet om hoe vloeiend het beeld verandert. Maar dat is ook een verbetering die je vaak bij hogere refreshrate monitoren ziet
Bedoelde je dat monitoren die sneller verversen, tegelijk ook minder knipperen met hun lamp? Of juist sneller knipperen, waardoor je het niet ziet? Of hoe zit dat?
meestal knipperen ze sneller, wat voor minder hoofdpijn zorgt omdat het je brein minder opvalt volgensmij
O okee, goed om te weten.
Dat klopt echt niet, en het zit zeker niet tussen de oren. Het verschil tussen 60Hz en 120hz is heel goed zichtbaar. Zet gewoon een Iphone 14 en 14 pro naast elkaar en ziet het direct.

Natuurlijk mag de achtergrond niet knipperen maar zodra je de rust van 120hz voelt kan je plots inbeelden dat nog 240hz nog meer als papier aanvoelt bij het scrollen. Bij 60hz worden letters wazig als je scrolt.

Een ander voordeel is dat uw computer sneller aanvoelt, puur omdat de bewegingen vloeiender verlopen.

20 jaar geleden bestond er de discussie dat 50hz monitoren meer dan snel genoeg waren omdat het menselijke ogen maar tot 24fps zouden kunnen zien. Dat was natuurlijk toen al een grote misvatting.
Lijkt me nogal onzin dit. Geen een game ga je draaien op 600fps.
https://www.techspot.com/...800x3D-vs-core-i9-12900k/ en scroll even naar de tabel Valorant. ~650 fps average. Dit zijn de soort games waar dit soort monitoren voor worden gebruikt. Lichtgewicht shooters waar daadwerkelijke toernooien om geld voor gehouden worden

Ook rainbow six siege zit rond de 600 op moderne hardware

[Reactie gewijzigd door youridv1 op 1 december 2022 11:04]

Dat is dan ook beste van de beste hardware. 5800X3D (desktop), 3090 TI (desktop).
No way dat dit in een laptop ook op 600fps of meer gaat draaien. Tenminste, niet met de hardware die momenteel te krijgen is in laptops.
Ik mag toch aannemen dat de laptops die zo'n scherm krijgen ook de bleeding edge qua cpu en gpu krijgen. Dan haal je echt wel 500-600 fps in esports games. Veel zware game laptops gebruiken ook gewoon desktop videokaarten omgebouwd naar hun behuizing
Zeker, maar om 600fps te draaien op enkel CS:GO portal 1/2 en quake.
Het is leuk voor de marketing afdeling om te zeggen dat het scherm 600Hz is, alleen kun je in de praktijk die framerates nooit halen op een selectief aantal spellen na die 10 jaar geleden al op een aardappel playable waren.
En dat zijn nou net de spellen die degene die zo'n scherm gebruiken spelen. Hoe moeilijk is het om dat te begrijpen. Er is een use case, namelijk competitieve esports games.

Ik snap dat het niet op jou van toepassing is, maar dat is irrelevant

[Reactie gewijzigd door youridv1 op 1 december 2022 11:17]

Maar dat komt omdat er nog geen games zijn die dit adequaat ondersteunen.
Dat heeft daar niets mee te maken. Al zou het er zijn dan merk je hier helemaal niets van buiten de verhoogde energieverbruik.
Boven de 144hz wordt het vrijwel niet meer merkbaar en is het volstrekt zinloos.
Dat heeft er alles mee te maken, als een game geen 144 Hz ondersteunt ga je deze ook niet draaien op 144 Hz. Bovendien is er wel degelijk vraag naar bij hardcore shooters, waarbij zelfs 240 Hz nog een tactisch voordeel biedt en waarschijnlijk ook hogere frequenties. Waar de grens ligt durf ik niet te zeggen, maar het is duidelijk dat de "boven de zus en zo Hz zie je het niet" stelling nog geen bewijs heeft. Vroeger dacht men dat 30 Hz genoeg was. Toen kwamen 50 en 60 Hz. Toen kwam 90 Hz, 120 Hz, enzovoort.
leuk; is dat ook merkbaar? ik vond van 60hz naar 144hz bijna net zo indrukwekkend als eerste keer je OS van SSD booten :P :+ keertje op een 200+hz scherm gewerkt, dat verschil met 144hz vond ik nauwelijk merkbaar. Zo'n 600hz scherm; ga je dat 'echt' merken?
M.i. op dit moment niet, want volgens mij is er geen gpum,cpu of SoC instaat om beelden met 600 Hz naar een verbonden beeldscherm te sturen.
Geen idee of je het gaat merken. Ik denk dat het antwoord voor het gros van de gebruikers nee is.
Soms zie je geen enkel verschil tussen schermen, maar toch zijn sommige schermen rustiger aan je ogen.
Dat zie je niet echt, dat ervaar je na uren beeldschermgebruik.
Maar wat is echt merken dan? Dat je ziet dat het anders is? Dat je ervaart dat het anders is? Dat je aan het einde van een potje call of duty minder hebt gescholden hebt en je eindigd met betere scores?
Merken als in visueel merk je het. Je ziet dat bewegingen erg vloeibaar zijn op 144hz en op een 200hz merkte ik ook dat de stap tussen de twee een stuk minder indrukwekkend was.
Ik zou mijn 4 vragen alle 4 met ja beantwoorden ;)

Als iemand een 50hz TL niet ziet knipperen kan die er alsnog koppijn van krijgen, dus visueel merkt die persoon het niet maar in het resultaat merkt ie het wel, daar gaat het dus om.

Dat is nou net mijn punt, dat je iets wel of niet ziet is maar de helft van het verhaal, sowieso is wat jij ziet niet wat je ogen daadwerkelijk zien maar hoe je hersenen dat aan jou presenteren.
Zanikpuntje: je bedoelt "vloeiend", niet "vloeibaar".

Zou het relatieve verschil nog iets uitmaken? Van 60 naar 144 is bijna 2,5 keer zo veel, maar 144 naar 200 is niet eens 1,5. Zou 144 naar 360 wel een even duidelijk verschil maken?
Zanikpuntje: je bedoelt "vloeiend", niet "vloeibaar".
LCD staat toch voor Liquid Crystal Display :Y)

[Reactie gewijzigd door watercoolertje op 1 december 2022 11:21]

Eeeeeeeeeeey daar heb je me! :D
Het is zeker merkbaar. Voor statische en traag bewegende objecten niet zozeer, maar wel voor snellere objecten.

Dit is zeer eenvoudig te testen met het cursor ghosting effect. Als je zeer snel je muis in cirkels beweegt, ervaar je verscheidene instanties van de cursor. Dit is een combinatie van de verversingssnelheid van het display, dat van je ogen en het combineren van beelden door je hersenen. Des te hoger het aantal Hz van het display, des te meer ghost cursors je opmerkt en des te moeilijker het wordt om individuele ghost cursors te onderscheiden.
Nee, dat is de traagheid van LCD. Je kunt de kristallen wel 600 of 144 of 60 keer per seconden proberen opnieuw te richten, dat betekent niet dat ze zich ook daadwerkelijk zo snel richten. Probeer het maar eens op een OLED-televisie of beeldbuis: het zal je niet lukken om meerdere muispijltjes te zien.
Dit heeft niets met tekortkomingen van het beeldscherm zelf te maken en is al veelvuldig onderzocht met hogesnelheidscamera's die bewijzen dat er geen (of minimale) hardware ghosting is. Het verklaart ook niet waarom bij een verdubbeling van de framerate het aantal instanties verhoogt, of bij een verlaging op hetzelfde scherm het aantal instanties verlaagt met dezelfde factor. Bij traagheid zou je tegen een limiet aanstuiten.

Overigens heeft ander onderzoek aangetoond dat ons optisch systeem in staat is om instanties van 3 miljoenste van een seconde waar te nemen en te herkennen. https://www.panshin.com/critics/Renshaw/renshaw.htm Het is wellicht een ander soort waarneming dan van bewegende beelden met meer informatie, maar het ondersteunt wel het feit dat we verschillen in verversingssnelheid kunnen waarnemen.
Ja, dag Jan! Zie het verschil met eigen ogen, 120Hz OLED versus een 360Hz LCD:

https://www.youtube.com/watch?v=x9n8Hz_RLqw&t=251s

Het heeft alles met tekortkomingen te maken, de reactietijden van de LCD zijn gewoon op te zoeken in de specificaties van het scherm. Dit is bijna altijd een grijs-grijs-overgang met overdrive erbij om het sneller te maken, maar dan nog zijn de reactietijden hoger dan de tijd van een frame. En als de reactietijd groter is dan een frame, dan heeft het niet zoveel zin om de framerate te verhogen.
Zeker niet, want ze zeggen niets over de reactietijd van de LCD, als je je LCD-kristallen niet snel genoeg kan richten heb je niets aan refreshrate.
Tenzij dit een technologisch wonder is qua scherm, verwacht ik dat dit scherm te sloom is qua response tijden. Maar als het 600hz zonder ghosting en overshoot is, ga je dat zeker merken met snelle bewegingen.
Het verschil van 60fps naar 144fps is voor mij hetzelfde als tussen booten van een SATA SSD en een NVMe SSD. Het verschil is alleen meetbaar, maar niet merkbaar.

Ik heb het echt geprobeerd. Ik heb zelfs moeite gedaan om te merken of 144fps soepeler aanvoelt dan 60fps, en het voelt volledig identiek voor mij.

(en ja, ik zeg fps ipv Hz, omdat we niet meer met glazen beeldbuisbakken werken ;) Je scherm doet nml gewoon 0fps bij een stilstaand beeld. Hij gaat dan echt niet 144 keer per seconde lopen hertekenen. Dat hoeft niet, en dat zou je accu levend opvreten bij desktopgebruik.)
Lijkt me een leuke om een accutest op uit te voeren
Ergens heb ik begrepen dat lcd-schermen niet van beeld naar beeld gaan maar in de regel beeld-blank-beeld-blank doen, of zelfs in 3 of 4 stappen het nieuwe beeld neerzetten. Iets met het forceren van de pixels of zo iets. Dan vraag ik mij af of die 600 Hz van stap naar stap is of van beeld naar beeld en vermoed ik dus van stap naar stap.

Aan de andere kant snap ik beeld-frequenties met een veelvoud van 60Hz en een veelvoud van 50Hz wel: Het kunstlicht is tegenwoordig ook allemaal in dergelijke frequenties, dus om flikkeren of andere licht/beeld effecten tegen te gaan is het gebruik van een veelvoud van die frequenties wel het voorkomen van vreemde interferenties.

In ieder geval heeft het knipperen/flikkeren van het beeld met 600 Hz volgens mij niets te maken met een beeld opbouw van 600 keer een ander beeld. Maar meer met het perfectioneren van de zicht ervaring.
verversingsfrequentie is per definitie van beeld naar beeld. Wat jij bedoelt is black frame / white frame insertion. Dat staat hier volledig los van
Voor écht 600 fps weergeven heb je ook een beest van een videokaart nodig. Bijna in de richting van RTX4090. Meeste gamers doen op 120/144 fps. 240 fps is eigenlijk luxe want ruimte in winst is gewoon zeer klein. Als je ook maar even je oog knippert tijdens schieten maakt het niks uit met 144 of 240 fps. Want dat is je persoonlijke "lag".

600 fps is leuk demonstratie maar in praktijk nutteloos én zeker duur. Je wint zeker geen goud mee.
600 fps is leuk demonstratie maar in praktijk nutteloos én zeker duur. Je wint zeker geen goud mee.
Juist wel, met veel esport games kom je zeker wel richting de 600FPS.

[Reactie gewijzigd door watercoolertje op 1 december 2022 11:09]

FPS en Latency zijn 2 verschillende dingen. Coil whine doesn't win matches :)
Wat was ook weer de conclusie van die LTT-test en frame rates tijdens gaming? Dit is denk ik echt knap gemaakt, maar ook zwaaare overkill.

Ah, hier het fimpje:https://www.youtube.com/watch?v=OX31kZbAXsA

Verschil tussen 144Hz en 300Hzvalt dus kennelijk al in de foutmarge. 600Hz... tja.

[Reactie gewijzigd door steveman op 1 december 2022 10:48]

Er zijn helemaal geen mobile GPU's die 600 fps kunnen draaien op games van de laatste 5 jaar...
Ik denk dat de CPU het ook niet aan kan. Meestal op hogere fps merk je dat je meer tegen het maximale van je CPU begint aan te lopen. GPU lukt je wel, als je de resolutie maar lager zet.
En daarom laten ze ook League of Legends of iets wat er op lijkt zien op het scherm, dit is ook niet voor de doelgroep gamers die er de laatste Call of Duty op willen spelen.
Ik snap de hype omtrent een hogere refreshrate dan 144hz niet. Wat zorgt ervoor dat deze panelen gemaakt gaan worden, er tijd, research en geld in gestoken gaat worden wanneer er toch maar een miniem gedeelte van het publiek 1) geld tegenaan gaat smijten 2) het verschil écht ziet en niet denkt "leuke gimmick". Want dat is het imo, een leuke gimmick.

Nu kan ik mij wel voorstellen dat er mensen gevoelig zijn voor schermen en hoofdpijn van lage refreshrates kunnen krijgen (mij incluis) maar dat lijkt niet het publiek. Meer de gamesindustrie...

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee