Al die reacties waarbij mensen zeggen dat het verschil tussen 360hz en 500hz niet te merken valt, terwijl er ook genoeg reviews te vinden zijn die aangeven dat bepaalde OLED schermen nog een stuk fijner gamen voor competitief gebruik dan een 360hz scherm. Natuurlijk spelen daar andere dingen, een flink andere schermtechnologie, waarbij allerlei factoren zoals smearing, undershoot, overshoot, etc. een heel ander niveau van rol spelen of nagenoeg teniet worden gedaan.
Ik zeg niet dat hogere refreshrate automatisch betekent dat die problemen daarmee ook altijd worden opgelost. Het kan voorkomen dat schermen op die factoren zelfs slechter scoren ondanks dat refreshrate omhoog gaat, maar wat je over het algemeen ziet is dat zaken zoals smearing, undershoot, oversheet, etc. ook minder worden naar mate de refreshrate toeneemt.
En die problemen zijn echt nog wel merkbaar in een FPS game, ondanks dat de schermen van tegenwoordig al zoveel beter zijn (eerlijk gezegd waren de LCD schermen tot grofweg 2010 best wel slecht en was je vaak nog beter af met een goede CRT voor competitief gaming). Vandaar ook dat mensen verrast zijn wanneer ze een goed OLED paneel gebruiken voor een FPS.
Dat de casual gamer dat niet belangrijkt vindt of niet echt merkt, prima. We zijn er dus nog lang niet. 600, 800, 1000hz, 2000hz, ik kan me voorstellen dat het allemaal nog bijdraagt. Maar ik verwacht ook dat OLED panelen het stokje op een gegeven moment helemaal overnemen van LCD panelen, omdat een aantal grote problemen beduidend minder aanwezig zijn bij OLED, en je dat niet helemaal kan oplossen door de refreshrate maar op te schroeven. Ik ben in ieder geval bang voor een hoop commentaar dat het allemaal niet nodig is van Tweakers bij dit soort artikelen de komende jaren.
En ja, het is zeker jammer dat het energieverbruik hoger is naar mate de refreshrate hoger is, al is dit effect verre van lineair heb ik in mijn eigen tests gemerkt en kun je ook online vinden (al zijn er niet veel goede tests), bijv. hier
https://linustechtips.com...power-electricity-bills/: "In the the video about building a very power efficent computer Anthony states that going from 4k 60hz to 4k 144hz increases the power draw about 5 watts. (And the monitor uses between 60 and 160 Watts depending on what you are doing so it's a 3-8% increase)". Dat soort verschillen van 5 tot 10 watt is ook hetgeen dat ik heb uitgelezen bij tussen 60hz en 120hz op een 34" scherm, bij een totaal energieverbruik van de monitor van rond 50 watt op normale brightness settings. Het is bijv. het backlight dat veel meer energie verbruikt.
Voor die gamers die zonder Vsync en Gsync/FreeSync spelen (omdat dit mouselag kan veroorzaken, dit was althans vroeger de reden om het niet te gebruiken), maakt het dus niet zoveel uit, want zo'n GPU draait dan toch maximaal. Hoe het precies tegenwoordig staat met deze technologie en hoeveel gamers dit aan of uit hebben staan weet ik niet. Ik weet dat er veel verbeterd is omtrent FPS cap settings, Vsync en Gsync/FreeSync settings en dat het gunstiger kan zijn om met FPS cap en Vsync aan te spelen. En er zijn nog ontwikkelingen zoals die wat Nvidia de laatste jaren promoot voor competitive gaming. In dat geval, met dergelijke settings enabled, maakt het natuurlijk wel uit of je videokaart stopt bij de 360 FPS of meer probeert te produceren. Dat is zeker een nadeel voor het energieverbruik. Maar dat gaat een hoop mensen voor wie competitive gaming echt een passie of op een andere manier belangrijk is echt niet weerhouden. Kun je zeuren wat je wil. Net zoals bij een hoop (andere) sporten waarbij mensen, teams, management, sponsoren etc. ver willen gaan.