ASRock introduceert 27”-lcd-gamingmonitoren met 400Hz- en 520Hz-refreshrate

ASRock zal twee nieuwe 27”-lcd-gamingmonitoren aankondigen. De PG27QFW2A heeft een verversingssnelheid van 400Hz en een resolutie van 2560x1440 pixels. De PG27FFX2A komt met een verversingssnelheid van 520Hz. Het is niet duidelijk wat de resolutie van deze monitor is.

Volgens de redacties van VideoCardz en van Pcgamer.com zou de PG27FFX2A over een resolutie van 1080p beschikken. Dit is echter nog niet bevestigd door ASRock. Het bedrijf heeft een persbericht gepubliceerd, maar dat is op moment van schrijven niet leesbaar via de ASRock-website. Het is niet duidelijk wanneer ASRock de monitoren precies op de markt zal brengen en hoeveel de toestellen moeten kosten.

ASRock zou ook twee oledschermen aankondigen. Volgens de redactie van Pcgamer.com betreft het een 27”- en een 34”-oledpaneel. De PGO27QFS2A zou een 27”-monitor zijn met een verversingssnelheid van 240Hz en een resolutie van 2560x1440 pixels. De PGO34QRT2A zou een 32”-scherm zijn en zou ook een 240Hz-refreshrate meekrijgen. De resolutie van deze monitor zou 3440x1440 pixels bedragen. Het is niet duidelijk wanneer deze schermen op de markt zullen verschijnen en wat de kostprijs zal zijn.

Update, 07/01 om 09.35 uur: Het artikel bevatte informatie die verkeerd was overgenomen. ASRock zou namelijk twee lcd-schermen aankondigen, waarvan een met een verversingssnelheid van 400Hz en een andere met een refreshrate van 500Hz. Voorheen stond er dat het om oledmonitoren ging, maar dat was fout. Het gaat volgens Pcgamer.com om lcd-monitoren. In de tweede alinea is er meer gebruikgemaakt van de voorwaardelijke wijs. Met dank aan Jeroenneman.

Illustratiebeeld ASRock Phantom Gaming Series
Illustratiebeeld ASRock Phantom Gaming Series

Door Jay Stout

Redacteur

06-01-2024 • 12:59

124

Reacties (124)

124
123
36
1
0
76
Wijzig sortering
Volgens mij is dit meer een gimmick dan functionaliteit. Qua marketing oogpunt begrijp ik het, maar het realtime verschil tussen een 165hz en een 240hz paneel is al te verwaarlozen. Derhalve kun je stellen dat de stap van 144hz naar 240hz te zien is en de stap van 240hz naar 400hz dus ook.

Praktisch gezien denk ik dat de prijs (want dit geintje zal wel wat kosten) niet opweegt tegen de voordelen t.o.v. een 165hz of 240hz paneel. Daarbij speelt het gros nu met een 144hz / 165hz paneel en die zijn al woest snel.
Dit soort reacties als de jouwe komen steeds bij dit soort panelen en die stoelen op een aantal hardnekkige misvattingen over het nut van hogere refreshrates.

Het realtime verschil tussen 144hz en 250 hz is in gaming termen een relevant verschil, namelijk 3ms. Op een reactietijd van 200ms is dat meer dan een procent verbetering, relatief. Bij een topgamer zelfs 1,5 a 2 procent.

Bij games zoals shooters waarbij allerlei interacties op de millisecondes leunen dan maakt dat zeker wel uit.

voor de goede orde: het gaat hier om latencies, niet zozeer wat je wel of niet bewust ziet. 144hz is al behoorlijk smooth, daarvoor is dit niet zo’n enorme must.
Het gaat hier echter over 400/520hz
144hz is 7ms
250hz is 4ms
400hz is 2.5ms
520hz is 1.9ms

Pro gamers gaan eerder rond de 150ms zitten doorsnee 200-250ms.
En let op dat is als al de rest perfect meeschaalt en zelfs dan heeft een doorsnee gamer er niks aan, 207ms reactietijd of 202ms is een verwaarloosbaar verschil.

Op zijn best heb je dus als doorsnee gamer er amper/niks aan.
Dat is geen verwaarloosbaar verschil. Wat een ontzettende misvatting.

[Reactie gewijzigd door PjotterP op 23 juli 2024 10:47]

Dat is het wel. Ik speel al ik weet niet hoeveel jaar esports games. 2-3ms gaat helemaal nergens over. Dat gaat niet over “of je de angle wint of verliest” in counterstrike of siege, of valorant etc.

Voor een pro op een toernooi? Ja, ik snap het. Je gaat niet voor geld spelen en dan niet de aller beste toegestane spullen gebruiken. Dat is gewoon niet logisch.

Voor de rest van de gamers? Complete bullshit. Noem een game waarvan de tickrate uberhaupt op een kwart van 520Hz zit.

De reactietijd van een echt heel snel persoon zit rond de 150ms. Dat zeg je zelf ook. Dan maakt die 3 ms echt geen reet uit. “ja maar dat is 2%”

En dat is als je alleen maar hoeft te klikken en verder niks. Er zitten in 90% van de situaties ook nog eens tientallen milliseconden bij voor richten

ofwel, er zit 50 keer zo veel lag in jou als persoon als er in de refreshrate zit. Daar komt ook nog eens max 16ms tickrate delay bij en ook nog eens een ping van een ms of 20-30, ook nog 1-2 ms uit je muis.
Je netwerk delay fluctueert gemiddeld meer dan de totale besparing in monitor delay

Maar nee, als je ipv op 183ms op 180ms totale reactietijd had gezeten, dan had je die gunfight gewonnen. Blijf jezelf dat vertellen.
Met een 520Hz monitor verlies je net zo hard als met je 144hz display

[Reactie gewijzigd door youridv1 op 23 juli 2024 10:47]

Je bent echt niet de enige hier die al jaren fanatiek fps speelt, en al je technische argumenten zijn niet nieuws, en je slaat met je slotopmerking precies de plank mis.

Ik denk dat jij de interactie met serverside tickrates niet goed snapt, want het feit dat de server op lagere tickrate draait maakt het alleen maar relevanter, client-side hit reconcilliation nog niet eens meegenomen.
3 ms is dan juist wel veel. Het is geen bewust merkbaar verschil, maar dat is helemaal niet waar het om gaat. bij gelijke omstandigheden (skill etc) zal degene die 3ms sneller iets ziet een betere performance neer kunnen zetten.
Gegeven dat alles gelijk is tussen 2 spelers, maar dan ook alles, kan 3 ms de doorslag geven omdat het objectief een bestaand verschil is ja.

En waar denk jij dat terug te gaan zien in je performance als fps speler? Hoeveel gunfights ga jij daarmee winnen vanachter je bureau met fluctuerende netwerk delay?

Wat gaan de extra kosten van een gloednieuw 520Hz paneel je concreet opleveren onderaan de streep over een betaalbaar 240Hz paneel?
Dat weet je zelf ook heel goed.

Mensen die een 520Hz paneel kopen voor de rust aan hun ogen hebben een nog sterker argument dan mensen die geen geld verdienen met hun favoriete fps game

[Reactie gewijzigd door youridv1 op 23 juli 2024 10:47]

Als dit relevant zou zijn 3ms dan zou je in fps'en continu situaties hebben dat de ander jou al aankijkt en je wel al klikt om die neer te schieten, maar toch af bent omdat die ander net al 3ms eerder had geklikt, en daardoor precies nog de tick rate haalde op de server één tick eerder dan jijzelf. Want die click van jouw muis en die andere muis hebben een veelvoud van 3ms nodig om de server te bereiken en verwerkt te worden. Dus je bent niet al dood voordat jijzelf hebt kunnen clicken.

Als je nou niet continu dat specifieke probleem hebt, probeer dan vooral eens op dat niveau te komen, voordat je die 3ms de schuld gaat geven ;)

[Reactie gewijzigd door OruBLMsFrl op 23 juli 2024 10:47]

ik moet zeggen dat ik die situatie toch best wel vaak heb. Ik denk minimaal 2 keer per game avond. Primair met awpen in CS omdat het daar echt op die ene klik aan komt.
Ik hoor dan vaak de soundcue van de AWP en vraag, als ik dood ga, of mijn vrienden die spectaten hem in spectate ook hadden. Minimaal 2-3 keer zeggen er dan meer dan 1 persoon nee en dat ze de schiet animatie of het bijbehorende geluid niet hadden.
Stomweg missen komt natuurlijk vaker voor dan dit probleem.

Ik geef daar alleen niet die 3ms de schuld van want ik ben niet delusional. Als je dan roept met een 520Hz scherm had ik hem gehad, dan heb je echt de verkeerde mentaliteit

[Reactie gewijzigd door youridv1 op 23 juli 2024 10:47]

Je snijdt belangrijke punten aan, al moet ik wel zeggen dat die pro gamers in toernooien vaak spelen in een LAN. Dus wat wij doen op een CS GO servertje met een tickrate van 64 in matchmaking en 128 tick in valorant in matchmaking staat in schraal contrast. Wij kunnen langer na niet de schoten of acties maken die zij flikken. Het lijkt allemaal het erg leuk, maar zoals je zelf zegt is het echt verwaarloosbaar. Die gasten hebben totaal ander materiaal tot hun beschikking.

Het lijkt me wel leuk om te zien als je die gasten straks met 400hz schermen tegenover elkaar zet. Een keer kom je op een breaking point dat het uiteindelijk niets meer toevoegt en ben bang dat we daar dichtbij zitten.
Dat is het wel, nogmaals "ideaal" betekend alles inclusief server ticks die in zowat alle games veel en veel lager is dan dit waardoor je dus in de meeste gevallen praktisch geen verschil gaat merken(zelfs voor "pro" gamers).
Bewegingsscherpte is het voornaamste bij hoge Hz. Niet 2 ms minder latency.

Ik kijk er iig naar uit m'n 240Hz OLED to upgraden naar 480Hz voor bv Overwatch (en de nieuwe RWGB stripe).
Ha! Ik ben ook fervent Overwatch speler en ben me aan het verdiepen in een nieuw scherm. Momenteel 240hz VA/1ms en ik wil in ieder geval upgraden naar een nieuwe generatie wOLED. Die worden derde kwartaal van 2024 verwacht als ik het goed heb begrepen.

Ik verwacht dat de betere pixel response times zichtbaar gaan zijn wat smearing/tearing betreft en ben dan ook benieuwd waarom jij van een (current gen) 240hz OLED naar een (new gen) 480hz model wilt gaan?
Met m'n huidige OLED idd 0 smearing of ghosting waardoor het een heel prettige gaming monitor is, maar de bewegingsscherpte is niet beter dan m'n voorgaande 240Hz LCD met strobing (zelfs slechter in de blurbuster UFO). Die had dan wel weer ghosting dus ik zou het een kleine win voor de OLED noemen (met de andere voordelen van OLED) maar niet echt fantastisch puur op bewegingsscherpte bekeken.

Met 480Hz verwacht ik dat er een significante verbetering wat beweging betreft zal zijn, nog beter dan de huidige 360 en 540Hz LCDs en die laatste schijnt al echt heel goed te zijn daarvoor. Maar ik wil niet meer weg van zwart=zwart en 0 ghosting + goede HDR als 'bonus'.
"Maar ik wil niet meer weg van zwart=zwart en 0 ghosting"

Bovenstaande is wat ik vermoedde en waarom ik deze upgrade wil maken. Bedankt voor de bevestiging en voor je heldere uitleg! Wordt voor mij denk ik iets van next gen wOLED 240hz+ dan. Ben benieuwd naar de aankondigingen deze dagen. En hopelijk zijn ze een beetje snel beschikbaar =). Cheers!
die bewegingsscherpte hangt daar mee samen, maar inderdaad dat is ook relevant.
Maar dan heb je toch nog steeds te maken met server ticks? Ik kan het mis hebben, maar ik denk dat daardoor van 240 naar 480 Hz geen verschil gaat merken. Misschien maakt het alleen verschil als je singleplayer speelt?

[Reactie gewijzigd door Noedell op 23 juli 2024 10:47]

Bewegingsscherpte (motion blur) heeft niks met server ticks te maken.
Ik zie dat ik een reactie heb geplaats op de verkeerde post. Ik bedoelde het als ractie op Fontini
Dit hele verhaal is in de loop der jaren zo uitvoerig getest en in de praktijk kunnen zelfs de pro e-sports spelers het verschil niet meer merken boven ongeveer 240hz. 400, laat staan 520, is compleet nutteloos. Niemand gaat dat verschil zien of merken behalve je videokaart.
De vraag is niet wat je bewust kan merken. Dat is helemaal de test niet. Die LTT test sloeg de plank compleet mis.

[Reactie gewijzigd door PjotterP op 23 juli 2024 10:47]

Noem maar een bron dan. LTT en optimum tech hebben bv al video's over de 500 Hz monitor en hoeveel beter die voor bv tracking in shooters, wat je verhaal sowieso al ontkracht.
LTT heeft letterlijk jaren geleden een video gemaakt die precies het tegenovergestelde beweert, dus dan kun je je afvragen hoeveel bullshit ze enerzijds of anderszijds verkondigen.
Bron? En de blinde test die ze deden met 60/144/240Hz waar er wel degelijk beter gescoord werd, zelfs door een non-pro gamer? Ook onzin zeker?

[Reactie gewijzigd door Termy op 23 juli 2024 10:47]

LTT moet je ook niet serieus nemen. Die lult wel vaker wat.
Het verschil wordt steeds kleiner, maar in theorie zal een sneller scherm altijd beter zijn. Of het verschil groot is en de moeite waard is, dat is een tweede vraag.

Een raceauto die 1km per uur sneller gaat dan de andere auto's in de race, zal je niet zo snel merken, echter is en blijft hij sneller. Er zijn echter zoveel andere variabelen die meetellen (goed slapen, gezond leven, reactie vermogen trainen etc) waardoor een ander het wellicht beter doet in een "langzamere" auto.

Dus merk je het enorm? Vast niet. Helpt het je net dat beetje extra als je al een topdag hebt? Uiteraard (hoe klein het ook zou zijn)

Daarnaast denk ik dat wij als mens overal aan wennen. Kijk naar resolutie. Eerst vond ik full HD echt mega scherp. Nu is het voor mij echt niet meer om aan te zien (dichtbij op een gaming monitor)
Goed punt en zeker waar. Ben ervan overtuigd dat als je 2 vrijwel identieke fps spelers tegen elkaar zet . De een 75hz monitor geeft en de ander een 144hz dat diegene met het 144hz paneel het gaat winnen. Je ziet iemand gewoon sneller, tuurlijk is er een factor reactietijd en ping, maar als je die op een LAN weg neemt heb je frame op frame response.

Het verschil tussen laag en hoog refreshrate is een verschil van dag en nacht.
Ik zie dit meer als wat je bij veel amateur fotograven ziet, een redelijke groep van die fotograven kopen hele dure lenzen en camera's waar mee ze denken dat ze daar mee weer betere fotograven worden.
Maar op de foto club zie ik vaak ook fotograven die met goedkopere apparatuur de mooiste foto's nemen, en anderen met een kit van letterlijk van €5 tot wel over de €10K mehhh foto's nemen.

En daar misleiden fabrikanten, maar wat graag kopers mee, zelf heb ik een upgrade gedaan van 3x 144Hz 27'' monitoren naar 3x 32'' Odyssey 240Hz tweedehands, is er een verschil, ja vast, maar ik merk er iig weinig van, ben namelijk net als de meeste gamers geen pro of iig zo goed dat ik het merk.

Ja, er zal vast meetbaar/statistisch verschil zijn, met misschien zelfs wel een plus van 5% van die echt moeilijke CS2 shots me nu wel lukt, maar ik gemiddeld misschien op zijn best 1% beter ben ge worden, maar is dat 3 keer de prijs waard, voor iets wat je praktisch niet merkt?

Ik merk iig niets van in mijn spel plezier (en frustratie levels ;-), als ik aan het spelen ben, en het is me zeker niet waard om daar 3x meer voor te betalen, voor mij was de upgrade puur voor meer immersive sim racing plezier.

Maar als je kijkt naar hoeveel spelers vals spellen, is het niet verwonderlijk dat er ook vele zijn die denken dat ze met betere ''P2W'' monitoren, beter resultaten zullen halen, imho zal dat helaas voornamelijk alleen voor de fabrikanten tot betere kwartaal resultaten lijden. :+

De laatste keer dat P2W voor mij werkte, was toen ik Quake 2 op 1200 gulden kostende SLI Voodoo2 kaarten speelde, en ik iedereen slachte, omdat op extreem hoge framerate en 1024x768 speelde met een lage ping van 5~10ms (op de XS4ALL servers) met ISDN (dure voorloper van ADSL) had, en nagenoeg iedereen nog 640x480 en 150ms dial-up connecties had.
Happy times, en ik nog de illusie had, dat ik echt goed was. ^_^

[Reactie gewijzigd door player-x op 23 juli 2024 10:47]

Tja.. Toen ik bij het spelen van Quakeworld en Quake 3 overstapte naar een dure 200hz platte Trinitron CRT bij 800x600 werd ik toch echt stukken beter. Eigenlijk zie je dat pas bij deze nieuwe oled 250hz + LCDs dat het qua performance in de buurt begint te komen van wat ik toen had, namelijk een 200hz scherm met zero input lag.
Niet van toepassing voor de gemiddelde gamer, dus de reactie van reforce01 is juist.
Een gimmick is iets onzinnigs. Dat is dit niet. Het is een soort zuur calvinisme dat dit soort schermen blijkbaar bij bepaalde mensen oproept ofzo.
Is een gimmick. Je moet je zin niet zo door drijven.
Zeker waar, maar dit is ook alleen maar relevant voor de 1% echte top gamers. Voor de meeste thuis gamers is dit gewoon compleet onnodig en niet merkbaar.
Hierbij wil ik toevoegen dat het scherm 1 onderdeel is in de keten. De totale latency van beeld tot klik tot geregistreerd schot is belangrijk. Een snellere PC en een snellere muis in combinatie met een snellere monitor maakt een nog groter verschil. Ook netwerk latency maakt uit. Alle beetjes helpen.

[Reactie gewijzigd door bewerkers op 23 juli 2024 10:47]

Tja de meningen verschillen hier en om eerlijk te zijn blijft die discussie losbarsten.

De een ziet nou eenmaal een verschil terwijl de ander weet niet eens waar die naar moet kijken. Hetzelfde geld voor input delay e.d. Sommige mensen merken het verschil niet op tussen 1 en 50ms, de ander merkt al verschil in een paar milliseconden. Het is maar net waar je op getraind hebt en hoe gevoelig/kritisch je hier voor bent.

Heb ooit iemand gekend die liep te pronken met een 165hz scherm, waarna bij nadere inspectie dit scherm altijd op 60hz heeft gestaan. Deze persoon in kwestie is behoorlijk hooggeschoold dus daar kan je verder niks uit afleiden. Hij wist gewoon totaal niet waar hij/zij naar moest kijken of wat het concept inhield.

Blijkbaar wist hij ook niet wat hij nou precies had gekocht.

Sommige mensen claimen dat 10 of 5ms geen verschil maakt, toch is het duidelijk merkbaar op een 120hz scherm als je bv. je polling rate van je muis van 1000hz naar 125hz zet. (1ms vs 8ms)

Op de input lag na zie je bv. ook de muiscursor opeens jerky/stotterend bewegen als je probeert mooie cirkeltjes te maken.

Ik vind die discussies op tweakers onderhand wel een beetje doelloos worden. Sowiezo lijkt het me toch prima als we allemaal rond het jaar 2040 met schermen zitten op 1000hz en een resolutie hoog genoeg waar je geen pixels meer kan onderscheiden, en geen anti aliasing of andere post-fx effecten moet gebruiken om geen harde lijnen etc meer te zien (voor een redelijke prijs)?

Mocht er iemand al bezwaar op hebben mbt. de energie rekening, er zijn genoeg technieken om adaptieve refresh rates te bewerkstelligen. Intel gebruikt dit al lang in hun iGPU's in samenwerking met mobiele CPU's met de C10 c-state bv.

[Reactie gewijzigd door Marctraider op 23 juli 2024 10:47]

Het was niet mijn intentie de discussie opnieuw aan te wakkeren waarvoor excuus. Het gaat me vooral om het punt waarom we continu beter willen als het op het moment al zo bizar goed is. Tuurlijk de wereld moet draaien en bedrijven willen verkopen. Als de ontwikkeling stil staat is dit ook niet goed voor de prijs en marktverwachting. Immers hoe meer ontwikkeling, des te beter de optimalisatie van het bestaande productie proces en kwaliteit van producten. Die R&D afdelingen draaien op volle toeren. Het is natuurlijk continu de tweestrijd tussen vraag en aanbod, maar ik vraag me oprecht af hoe groot de club is die op 400hz schermen zitten te wachten.

Daarbij hebben we als consument een keus, we hoeven het niet te kopen als we tevreden zijn met het huidige.

Wel mooi om te lezen dat voorbeeld van de persoon in kwestie, 165hz scherm op 60hz laten werken.
Zoveel mensen zoveel wensen, zo zien we maar weer dat het allemaal niet zo vanzelfsprekend is.
Ik vond het juist het omgekeerde verhaal. Ik vond juist dat deze trend heel lang op zich heeft laten wachten.
Bij een CRT leek de refreshrate belangrijk als metriek, dat was minder belangrijk bij een LCD paneel. Bij LCD zag je toen heel lang 60Hz, en nu gaan we naar 500Hz. Ik had verwacht dat ze veel vlotter naar hoge refreshrates zouden gaan, omdat dit bij CRT ook zo was. Mijn antieke HMD (Head Mountable Display, zou je nu VR-bril noemen) had namelijk al 100Hz LCD panelen erin.
Sowiezo lijkt het me toch prima als we allemaal rond het jaar 2040 met schermen zitten op 1000hz en een resolutie hoog genoeg waar je geen pixels meer kan onderscheiden, en geen anti aliasing of andere post-fx effecten moet gebruiken om geen harde lijnen etc meer te zien (voor een redelijke prijs)?
Als je kijkt naar hoe cpu's gpu's en standaarden zoals voor harde schijven zich ontwikkeld hebben de laatste 20, 30 jaar, valt op dat de techniek qua monitoren bij lange na niet zo snel gaat. Het is ook maar helemaal de vraag of monitoren ooit zo snel en goedkoop worden, zeker nu pc's toch wat minder verkocht worden.

Ik kocht bijvoorbeeld al in 2014 een 40", 4K Philips BDM4065UC monitor en die was met € 800 voor dat formaat en die tijd heel redelijk geprijsd.

Maar tien jaar later is de gemiddelde monitor is nog steeds bij lange na niet 4K. En ook een 30 of 40 inch is nog steeds aanzienlijk duurder. Ook heb je voor 800 euro nu geen totaal nieuwere, superieure techniek 40" OLED scherm.

[Reactie gewijzigd door laptopleon op 23 juli 2024 10:47]

Waarom zou je een monitor verkopen met max 144hz als alle interne componenten een veel hogere refresh rate aan kunnen? Het staat niet alleen leuker op de doos (marketing), en er is wel degelijk een klein verschil....

Zelfs de pixels van een oledpaneel kunnen het (in veel gevallen) aan om sneller en dan de verversing te reageren.

Niet zo zeuren, het verhaaltje wordt oud ondertussen...

[Reactie gewijzigd door TiezZ_BE op 23 juli 2024 10:47]

Het begint inderdaad een beetje oud te worden, ik heb get gevoel dat veel mensen dit zeggen omdat ze zelf op 144hz/165 hz spelen en zichzelf willen overtuigen dat hogere hz geen nut heeft.
Het type dat 'bang' is van 'fomo gevoelens' is er helaas een deel van :+

Het extra voordeel tov 60 naar 120/144 is m.i. veel kleiner maar idd daarom niet onmerkbaar en zeker niet onbestaand. Voor mij zal de max hz zeker niet de leidende draad worden bij het kiezen van een nieuwe (OLED) monitor.
Gaan we nu bij elke aankondiging van een nieuwe monitor met een hoge refresh rate dit zelfde verhaal vertellen? Toen 240hz monitoren werden aangekondigd zagen we ook continu dezelfde soort reacties.

Niet persoonlijk bedoeld maar het voegt gewoon niets toe, we weten het, voor veel mensen zal 400hz niet logisch wezen, en voor mensen die esport games waar ze makkelijk boven de 500 fps blijven heeft het wel nut, want dan kan elke frame die jou hardware genereert op je scherm worden weergeven, toch wel zo fijn, anders had je net zo goed een 2x goedkopere pc kunnen kopen die topt rond de 240 fps.
en voor mensen die esport games waar ze makkelijk boven de 500 fps blijven heeft het wel nut
Zelfs daar niet, en die discussie is dus niet waardeloos anders gaan er veel die onzin geloven.
Het heeft wel nut, dat het voor jou geen nut heeft betekend niet dat voor iedereen zo is, er zijn gewoon genoeg mensen die games spelen met 500+ fps, dus ze hebben er wat aan.
Minieme minderheid van gamers en dat zal geen verschil uitmaken.
Er is toch echt een markt waarbij pro gamers blijven aangeven dat ze nog veel hoger willen zitten dan de huidige monitors aankunnen. In de enthousiast forums en social media die ik bleef nalezen is deze vraag er toch consistent en echt. Deze groep is er erg stand vast in dat je juist veel nut hebt aan refresh rates idealiter tot de 1000Hz en dat elke milliseconde uitmaakt in de speelprestaties.

Maar in de praktijk maakt het voor de gewone speler ook niet uit he. Als erg hoge refresh rates zometeen betaalbaar zijn en niet moeilijk zijn om als specificatie uit te voeren op het paneel, dan ben jij altijd in je VRR range zonder dat je ooit een frame limiter of V-Sync hoeft aan te zetten om zo onder je maximum refresh rate te blijven.

En dan nog even verder, idealiter is de maximum refresh rate op een scherm als norm zo hoog dat er bij de gebruiker niet eens een perceptie meer hoeft te zijn van een maximum refresh rate. Net zoals dat jij op je Samsung telefoon 120GB aan opslag in gebruik hebt, maar dat deze telefoons veel meer kunnen opslaan zonder dat je ooit in de buurt van de maximum komt. Dat is een prima gevoel, en ik denk dat we met sommige monitors en TVs langzamerhand vaker daarheen gaan.
Dan moet je me toch eens uitleggen waarom 1000hz belangrijk zou zijn?
bedoel met de pixel lag zelf, reactie van de gamers, muis, netwerk, game engine, server tick rate,... maakt die 1-3ms echt niks uit.
OLED doet makkelijk pixel transities binnen 1 ms.
Idd echter is dat maar 1 van de vele factoren die je totale lag bepalen.

1000hz is zinloos.
Gaat het ook niet om. Hardcore spelers willen erg zwart op wit gezegd de beste apparatuur hebben. Heeft hun huidige scherm 1.5ms meer lag dan want ASRock zometeen gaat aanbieden? Dan gaan ze die kopen. Die gaan niet eerst kijken of het in theorie wel of niet uitmaakt.

Mocht je willen leren waarom hardcore gebruikers toch graag naar de 500-1000Hz toe willen, dan wijs ik je naar r/monitors van Reddit of Monitor Enthusiasts server op Discord die zulke marktbewegingen graag aanzien en deze monitors ook zullen kopen.

[Reactie gewijzigd door RCFProd op 23 juli 2024 10:47]

dat ze het verschil toch heel goed merken op de 480Hz en dat ze liever nog hoger zouden willen hebben.
Als ze dat zelf raporten: compleet onbetrouwbaar.
Ik ken geen blinde test waarin iemand dit effectief test in games zelf dat ze dit merken, laat staan dat dit effectief iets van voordeel zou opleveren.
Hier kan je de ufo test zien tussen 30Hz etc tot 540Hz. Je ziet dat bij 540Hz de ufo veel scherper is dan bijv. 240Hz. Ik kan het voordeel vaan 1000Hz voor een competitieve fps wel inbeelden eigenlijk.
Gaat ook om motion clarity (dus de motion blur tegen te gaan van bewegende dingen ). En hiermee bedoel ik niet response tijden (want die zijn extreem laag bij een oled ). Meer hoe je ogen werken met het waarnemen van beweging.

Lees aub even de pagina van blurbusters over waarom oleds nog steeds morionblur hebben, en wat het nut van hogere framerates is bij sample and hold schermen.

Het komt er op neer dat of de framerate overste 500 heen moet (misschien wel 1000) of er moeten betere strobing technieken komen (maar goed , niet iedereen kan even goed tegen flikkering ) om een beeld te krijgen in beweging zoals dat in de LCD tijd was.

Blurbusters / testufo hebben zelfs een paar testjes (optische illusies) om te laten zien hoe je ogen werken. Bijvoorbeeld : je hebt een statisch object op een gestreepte achtergrond. Maar die achtergrond scrollt horizontaal. Als je focust op het object , zie je de bewegende achtergrond haarscherp voorbij scrollen (depending on the response times of your screen ). Maar zodra je focust op een object er onder (OP DEZELFDE PAGINA) dat horizontaal meescrollt met de achtergrond, zal je zien dat die haarscherpe gestreepte achtergrond opeens 1 grote wazige grijze troep is . Zelfs op 240hz oled schermen. Dit effect wordt minder en minder als de framerates omhoog gaan.

Dit is ook waarom framegen in gaming stiekem heel belangrijk en leuk is. Qua latency en response ben ik al lang blij met +/- 120fps. Heel blij zelfs. Maar diezelfde 120fps gamecontent _zou_ er stukken scherper uit zien in beweging als het geëxtrapoleerd zou zijn richting de 1000fps (en je hebt een monitor die dat zou kunnen :)).

Meer fps op scherm is beter met sample-and-hold. Ook als het allang geen merkbare verbetering in latency geeft.
Ja goed , als je een huisdier hebt zoals een hond of een kat , dan kunnen ze nu ook meekijken ;)
144hz is het punt waar mn kat altijd aandachtig naar de diertjes op het scherm begon te kijken :+
Ik heb reeds 4 jaar een 300hz scherm in men laptop steken. Dat is toch van een heel andere orde dan 165hz. Soms controleer ik of men 165hz scherm nog wel op 165 staat ipv 60hz. Steeds verbaast dat het op 165hz staat na ik van men 300hz scherm kom.

Sowieso een interessantere ontwikkeling dan hogere resoluties.

[Reactie gewijzigd door BlaDeKke op 23 juli 2024 10:47]

zelf zag ik het verschil tussen mijn 170hz en een maat van mij 244hz heel erg goed. Hoger dan dit heb ik nooit gezien dus daar kan ik ook geen mening over geven. Maar 244hz zie ik dus wel.

Misschien dat het verschil die je kan zien vanaf 244 steeds minder word.
Haal je dat überhaupt qua fps? Of moet je dan op potato mode spelen?
Leuk als je die FPS nummers haalt met deze schermen, maar ook hebben high refresh schermen nog steeds nut ook dropt je FPS onder de refreshrate waarde.
Sorry hoor, maar dit soort refreshrates heeft echt geen voordeel meer op je spelen, dat zit echt tussen de oortjes. 120/240 kan ik me nog misschien iets bij indenken, maar 240+ is echt kul.
Maar stel dat het werkelijk zo is, is het dan niet gewoon cheaten? Net zoals iemand die zijn/haar controller bv aanpast met rapidfire (vroeger in ieder geval).
Ik zou verwachten dat als je speelt in een tournament, dat er eisen aan de hardware worden gesteld. Dat is met console games ook zo.
Zou ik nog niet per direct zeggen, misschien op visueel vlak grotendeels wel, maar oude spellen zoals Call of Duty 2 op de Quake 3 engine speelde op 333fps toch wel fijner dan 125fps, ondanks 60Hz scherm (en toen zelfs een 400DPI PS/2 muis).

Dat zou dus betekenen dat een 240Hz scherm de limiterende factor zou zijn als deze het zou cappen (en dus input latency toevoegd, tenzij je tearing wilt) terwijl muizen standaard wel vaak gewoon 1000Hz pollen (en er zijn zelfs 8000Hz muizen, maar of dat helpt is weer wat anders)

Dan kan ik mij in zo'n geval de use case wel voorstellen voor deze schermen, vooral voor shooters, persoonlijk zie ik makkelijk het verschil tussen 120/144 en 165Hz op de ROG PG279Q, inmiddels ouder scherm maar toch.

[Reactie gewijzigd door CriticalHit_NL op 23 juli 2024 10:47]

Noem je ook een voorbeeld, door met fps te spelen kun je in call of duty de meest ziekelijke jumps maken. Dat zie ik in Valorant in CS niet zo snel gebeuren. Tuurlijk kun je in Quake beter rocket jumpen en je rails beter raken met 144 tot 240 hz, dat is ook mijn punt niet. Het gaat me erom dat iets wat al goed is, je niet perse nog beter hoeft te maken (diminishing returns). Voor de doorsnee high competitieve speler zie ik vooralsnog geen directe meerwaarde voor een 400hz of zelfs een 520hz scherm.

Ik heb op zolder nog een oude IIyama Vision Master 454 CRT staan, ik heb er een tijdje 2 gehad, ook zijn grotere broer de 514 alleen deze heb ik zeer recentelijk verkocht vanwege ruimte gebrek. Ik heb op de laatste een tijdje valorant gespeeld en toen ik daarna mijn oude 75hz LED monitor weer van stal haalde was ik verpest. op een 22 inch CRT met 85hz is alles zo bloedsnel dat mijn 75hz LED scherm gewoon in het niets verdween. Dat was het moment dat ik mijn 165hz in bestelling heb gezet om het enigszins te compenseren, gamen op 75hz was op dat moment voor mij geen optie meer.

Het beperkt zich echter niet alleen tot FPS games, ook heb ik meerdere rondes gereden in F1 op banen als australie, oostenrijk en italie. De response tijd en de snelheid waarmee CRT's rekenen is zo vloeiend dat je ook op een totaal andere manier de apex aansnijd en je bochten gaat pakken.

Geloof me ik zal de laatste zijn die zou zeggen dat fps, responsetijd en aantal hz geen verschil maken. Maar ik kan me nogmaals niet voorstellen dat het verschil tussen 240hz en 420hz dermate veel betekenis gaat geven in je games. 240hz met 0,8ms is voor een LED paneel al bizar snel.

[Reactie gewijzigd door reforce01 op 23 juli 2024 10:47]

Mensen 'zien' tot een 600-1000hz. Het menselijk zicht werkt heel anders, maar we beginnen nu pas digitaal in de buurt te komen van ons menselijk zicht.
Ik merk anders direct het verschil tussen 144 en 240 mhz. Als je nog nooit op high level competitief spellen heb gespeeld heb je ook geen besef dat zoiets wel degelijk uitmaakt in dit soort competitieve matches.

Veel mensen baseren hun mening over framerates terwijl ze nog nooit op hoog niveau hebben gespeeld. Net als dat professionele/serieuze schaatsers baat hebben bij een hoog kwalitatief pak en paar schaatsen, hebben gamers op hogere niveaus behoefte aan een zo veel mogelijk frames.

Zal dit uitmaken voor 90% van de gamers die op lagere niveaus spelen? Nee op lagere niveaus maakt het geen zak uit. Net als dat amateurschaatsers geen baat hebben bij een paar schaatsen van Olympische kwaliteit.

Maar dat is uiteindelijk ook prima. Verschillende consumenten hebben verschillende eisen ;)
Je merkt alleen een minimaal verschil als de rest van je apparatuur, je Internet of LAN verbinding en de game server het aankunnen.

Voor 99,99 procent van de gamers geldt dat de randvoorwaarden er niet zijn. Zij zullen nauwelijks voordeel halen uit 400 of 500 Hz refresh artes.
Ik heb lange tijd op hoog niveau gesport. Wanneer je in de top 6 van een land zit ga je iedere variabele of optie benutten. Die 100 Hz extra maakt misschien voor 99.99% van de mensen weinig uit maar voor die enkeling kan dat misschien wel uitmaken. Zelfs al is het bijna onmogelijk, wil jij die ene frag missen vanwege dat je hardware dat niet kan? Op dit niveau betaal je waarschijnlijk toch niet meer voor een scherm.
Je hoeft geen 400fps te halen om iets te hebben aan een 400hz scherm. Het is ook bijvoorbeeld om zo snel mogelijk een nieuw frame in beeld te krijgen, mocht elke ms voor jou uitmaken.
Volgens mij is er nog wel meer voordeel uit te halen in combinatie met software e.d. het mooie van OLED zijn de zwart waarden, als de pixel niet gebruikt word hoeft hier immers ook geen rekenkracht voor plaats te vinden. Aangezien sommigen nog steeds fanatiek 4:3 blackbars spelen op 16:9 schermen zie ik hier wel voordelen.
Volgens mij is er nog wel meer voordeel uit te halen in combinatie met software e.d. het mooie van OLED zijn de zwart waarden, als de pixel niet gebruikt word hoeft hier immers ook geen rekenkracht voor plaats te vinden.
Of een pixel wel of niet zwart is moet eerst berekend worden en dat kost dus wel rekenkracht.
Het enig wat niet wordt gebruikt voor een zwarte pixel is elektrische energie om die aan te zetten.
De pixel moet nog steeds 400 keer per seconde door krijgen dat hij zwart moet blijven. Of het scherm moet native 4:3 ondersteunen waarbij de pixels volledig uit gaan en dus ook geen info hoeven te krijgen.
Wat je beschrijft is volgens mij de pixel response time, niet de maximum fps van het paneel.
Nee, ik bedoel de tijd tussen het moment dat de gpu de volgende frame heeft berekend en de tijd dat het scherm een nieuw beeld gaat verversen.

In een worst case scenario, waarbij de gpu de volgende frame elke keer een fractie na het verversen van het scherm klaar zet is deze tijd bij een 60hz scherm ~16ms, bij 144hz ~8ms, bij 240hz ~4ms en bij 400hz ~2,5ms. Dit is natuurlijk te voorkomen door een soort van adaptive sync aan te zetten, maar ik weet niet of de "pro gamers" ook met sync aan spelen.

De pixel response time is dan pas aan de beurt om ervoor te zorgen dat het beeld zo snel mogelijk veranderen kan.
1 ligt aan de game 2 je ziet het verschil sowiezo of de fps nou matcht of niet
Ja, voornamelijk esports titels zoals Valorant, CS, Overwatch, Fortnite en der.
Als je met een moderne high-end videokaart op de steamdeck settings speelt dan zou dat zeker kunnen lukken!
CS2 met high textures op 1080p 500 fps met een ryzen 5600 en 6600xt, Overwatch 2 ook 500 fps.
Die games draaien met die settings toch ook op een steam deck of niet?
De meeste CS en Valorant (semi) pro's spelen gewoon bilinair, met alle settings op low. Ik ben nog niemand tegen gekomen die op dat niveau anders speelt. Die games van tegenwoordig hebben veel te veel eye candy en fidelity. Als je op low speelt verdwijnt vaak ook het gras, iets wat soms wel grappig is omdat mensen denken dat als ze in het gras gaan liggen jij ze niet ziet, maar ze realiseren zich op dat moment niet dat de ander het gras helemaal niet ziet en ze dus in een open veld liggen.
Haal je dat überhaupt qua fps? Of moet je dan op potato mode spelen?
Dlss + Settings tweaken en je komt een heel eind.

[Reactie gewijzigd door Verwijderd op 23 juli 2024 10:47]

Nog geen eens dlss nodig, games als CS2 en Overwatch 2 draaien die fps makkelijk met een midrange game pc.
Mijn mid range gaming pc haalt dit al makkelijk in games als CS2 en Overwatch, en nog niet eens op potato settings. Ryzen 5600 en 6600XT. CS2 rond de 450 fps en Overwatch 2 rond de 500 fps.
Hangt heel erg van de titel af.

Maar ongeacht dat, vaak zijn dat soort schermen 8 bit of zelfs 6 bit FRC. Dat doe ik niet meer. Ik heb een paneel dat 165Hz maar dan met 8 bit, op 144Hz is alles 10 bit dus laat 165Hz dan maar zitten.

Veel verhalen over beeldkwaliteit en van alles, maar kleurdiepte laten ze mooi hangen.
Zelfs met browsen is nog hogere refresh rates lekker.
Uiteindelijk gebruiken deze nog steeds dezelfde panelen die in zoveel andere schermen al zitten waarbij – mits ik het goed herinner – de opstelling van subpixels/leds of dergelijke zorgt voor blurry text. Ik snap dat dit gemarketed wordt als een gaming scherm, maar alsnog is het iets dat mij weerhoudt om meeste OLED monitoren niet eens te overwegen.
Ik denk dat jij de Samsung panelen bedoeld met quantum dots, waar ze de layout in driehoekvorm hebben geplaatst. Maar er zijn nog ander OLED panelen, waar dit zich niet voordoet. Er wordt niet gemeld over welk type panelen er gebruikt wordt. Heb je al eens 1 van de panelen met qd-oled geprobeerd? De meeste mensen ondervinden hier geen last van.
Volgens mij hebben deze panelen wel een afwijkende sub pixel layout waarvoor de font aliasing (bijv in windows) niet voor geoptimaliseerd is. Het is niet uitgesloten dat dat nog komt, en dan is dat dus ook geen nadeel meer. Maar tot die tijd is het echt wel een minpunt

[Reactie gewijzigd door PjotterP op 23 juli 2024 10:47]

Precies dat ja. Het probleem lijkt me wel dat applicaties die niet gebruik maken van de Windows font rendering pipeline/APIs nog steeds blurry zullen zijn, zoals bij games of eigenlijk wel alles wat custom draait via OpenGL.
iig in Linux (met FreeType Harmony) lijkt dat geen issue te zijn, zeg ik maar even.
Ik ben in mijn 1.5 jaar met een LG B9 op Windows 10 ook nog niet zoiets tegengekomen. Evenals de fringing waar men het over heeft.

Volgens mij maken mensen zich druk over vanalles zonder dat dit nodig is.
Ik had enkel last, de eerste maal ik een qd-oled gebruikte. 1 maal ik de USB ook aansloot, werd er een scherm driver geïnstalleerd en had ik eigenlijk geen last meer van verkleuringen/blurring aan de letters.
Eerste waar ik aan dacht was chroma subsampling maar dat is hier dus niet aan de hand? Zou aan de andere kant ook wel vreemd zijn voor een monitor.
Gelukkig voor jou heeft Tweakers de bron foutief overgenomen.

ASRock introduceert twee OLED schermen, én twee schermen met een snelheid van 400 en 520Hz (waarschijnlijk hetzelfde paneel als Asus al in een TN monitor heeft zitten).

Nergens wordt de link gelegd tussen de OLED monitors en de genoemde refresh rates.
"maar alsnog is het iets dat mij weerhoudt om meeste OLED monitoren niet eens te overwegen." Oh, dus je overweegt ze wel?
Uiteraard zou ik graag een OLED monitor willen kopen vanwege de diepere kleur- en contrast weergave. Voor mij zijn die subpixel layout (die volgens mij beide Samsung en LG panelen last van hebben) en prijs de terughoudende factoren. Aangaande prijs: twee 27" panelen óf als één super-ultrawide met pbp-mode voor onder 1300-1400 euro zou ik acceptabel vinden.
Heb een QD oled en tekst ziet er prima uit
Ik zie de vaak nieuwsberichten van bekende merken die uitpakken met hoge cijfers in hardware die ze niet zelf maken.
Waarom brengen die hardware makende fabrikanten niet zelf deze hardware uit?
Eerste OLED monitor (Alienware), eerste 500hz monitor (Asus), ....
2 verschillende takken

Samsung display die schermen maakt VS Samsung elektronics die de complete monior/TV verkoopt
kan dus zomaar zijn dat Alienware/ASUS eerder bij Samsung display waren dan Samsung elektronics bij hun kwam

NB weet niet of deze schermen door samsung worden gemaakt gaat om het idee
Omdat ze daar niet zelf in gespecialiseerd zijn.
Dat gebeurt op heel veel niveaus. Autofabrikanten zijn assemblagefabrieken, waar weinig vanaf de bron wordt gemaakt, maar alles ingekocht wordt elders. Smartphonemakers maken zelf nauwelijks de chips, essentiële onderdelen van een smartphone. AMD produceert zelf helemaal niks.
Ik ben blij dat ik als 40 plusser voldoende heb aan 60hz. Kan ik in ieder geval een groot 4k scherm kopen zonder m'n hypotheek te verhogen :)

Maar ben altijd wel blij met dit soort ontwikkelingen.
Het is immers onmisbaar voor de ontwikkeling op andere fronten.
Door op 500hz in te zetten wordt 144hz weer 'normaler', wat weer nodig is voor degelijke VR.
4k 120hz werdt ook ooit als complete onzin gezien.

Iedere doorontwikkeling is nuttig. Ookal is het (voor mij) niet direct.
Ik ben ondertussen ook een 40 plusser (is hard om luidop te zeggen :+ ), maar merk dat ik op 60Hz pijn boven mijn ogen krijg na een tijdje gamen. Ik heb nu een 144Hz monitor en merk dat die pijn weg is.
Ik ben wel van 4K afgestapt en naar 1440p gegaan (maar dan met HDR).
Ik vind dat HDR meer kwaliteit oplevert dan de stap van 1440p naar 4K en het heeft een mindere impact op de FPS.
Nu ja ik ben dan een ruime 50 plusser en ga al langzaam maar zeker richting de 60 plus, ahum.... Maar in die zin deel ik wel met je dat ook ik meer als voldoende aan 60 Hz heb. Althans voor gewoon wat Office werk en surfen op het web kan ik de voordelen niet zien van een hogere refreshrate.
nvt

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 10:47]

Ja lijkt me toch logisch ? 24 inch is wel heel klein.
nvt

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 10:47]

Niet voor een laptop, wel voor een losstaand scherm, gelijk hoe je draait of keert 24" verkoopt amper niemand gaat daarin investeren.
nvt

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 10:47]

Neen men "moet" niet groter maar de markt wil grotere schermen en dus volgen producten de markt.
nvt

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 10:47]

Niet consumenten wat jij bent.
High end kleinere en duurdere schermen zijn er enkel voor pro's/bedrijven.
Waarom zou je 1000 euro uitgeven voor een 24 inch 4k oled als een 27-34-40-48 evenveel kost?

Zo goed als niemand doet dat en dus is de markt te klein voor producenten om daar producten voor uit te brengen.
nvt

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 10:47]

Als je heel ver van een scherm af gaat zitten dan kan je het in principe zo klein maken als je wilt. Ikzelf heb jaren op een 55 inch monitor gewerkt maar ik zat er 2 meter van af waardoor het was alsof er een 27 inch scherm op het bureau stond. Veel rustiger voor je ogen
nvt

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 10:47]

Ben ik wel met je eens, OLED op 24 inch met pure zwart waarden, goede refresh rate, hogere PPI en daardoor alleen maar voordelen ten opzichte van een LED paneel. Ik zou het ook wel weten in dat opzicht.
24” is onbruikbaar klein. Ik werk hier met een 34” ultrawide en een 27” 4k scherm en kom nog vaak ruimte tekort.

Voor gamen is 24” ook bij lange na niet voldoende, tenzij je heel dicht op je scherm zit en da’s dan weer niet goed voor je ogen.
Natuurlijk is voor gamen 24" voldoende. Sterker nog: vroeger hadden gamers (ook e-sports) nog kleinere beeldschermen, omdat je alles in focus wil hebben op je scherm. Bij een te groot scherm heb je vooral perifeer wat extra, maar in snelle games heb je daar juist weinig aan.
Allemaal mooi pracht en praal maar hoeveel watt trekt zo'n monitor uit de muur ?
Het zal niet gering zijn vermoed ik ...
Dat is wel een nadeel van OLED het is niet bepaald zuinig.
Leuk die hoge refresh rates op de hardware, maar kunnen de pixels van de LCD panelen zelf wel volledig schakelen van grijs naar grijs, of vol zwart naar wit.
Zie bij veel hoge refresh rate panelen toch echt iets van een lichte smear, bij extreme contrast verschillen tussen de frames.
Waarbij de pixel refresh beetje achter de monitor input lijkt aan te lopen.

Als in we sturen 240 fps/hz aan, maar volledige schakeling van het paneel is eigenlijk niet sneller als +/- 150 fps.

[Reactie gewijzigd door Aerophobia1 op 23 juli 2024 10:47]

En wat doet dit met het stroomverbruik?
Allemaal hartstikke leuk maar ben van 240hz OLED naar 120hz OLED gegaan en merk er helemaal niks van in mijn games waar ook online shooters bij zitten. Het lijkt heel klein beetje vloeiender wellicht maar zelfs dat is echt niet een verschil zoals 60 naar 120 was bijvoorbeeld.

Boven de 120 vind ik het allemaal wat “marketing” priet praat en ja ik ken de metingen etc maar of een normaal mens die niet de hele dag aan de redbull zit dat merkt?

Zag laatst mijn neefje Fortniten maar die nieuwe generatie gamers zijn een beetje koek koek als je het mij vraagt. Ik noem ze ook wel coke snuivers haha maar wellicht word ik gewoon oud :+ :+

Op dit item kan niet meer gereageerd worden.