Dell brengt 500Hz-monitor uit in Europa

Dell brengt volgende maand als eerste een 500Hz-beeldscherm uit in Europa: de Alienware AW2524HF. De specs zijn grotendeels gelijk aan die van de AW2524H van begin dit jaar, die niet in Europa uitkwam. Het HF-model heeft echter AMD FreeSync Premium in plaats van Nvidia G-SYNC.

Evenals de Alienware AW2524H heeft de nieuwe AW2524HF een Fast IPS-paneel van 24,5" met full-hd-resolutie. Dell claimt een gtg-responstijd van 0,5ms. De native verversingssnelheid bedraagt 480Hz, maar met een overclock wordt 500Hz mogelijk. Hoewel ASUS eerder een 540Hz-monitor aankondigde en de Alienware AW2524H al langer in de VS te koop was, heeft het snelste in Europa verkrijgbare scherm een refreshrate van 390Hz.

Alienware AW2524HF
Alienware AW2524HFAlienware AW2524HFAlienware AW2524HF

De AW2524HF beschikt over AMD FreeSync Premium en is VESA AdaptiveSync-gecertificeerd, maar de monitor heeft geen Nvidia G-SYNC, in tegenstelling tot de AW2524H. Het HF-model beschikt ook niet over Nvidia's Reflex Latency Analyzer. De specsheet bevat zo nog meer kleine wijzigingen, meestal in het nadeel van de AW2524HF. Hoewel de nieuwe monitor geschikt is voor HDR10-weergave, heeft Dell niet geïnvesteerd in een VESA DisplayHDR400-certificering, die de AW2524H wel heeft. Beide schermen zouden 99 procent van de sRGB-kleurruimte kunnen weergeven, het contrast bedraagt 1000:1 en de fabrikant belooft dezelfde maximale helderheid van 400cd/m². Of de AW2524HF in de praktijk veel slechtere hdr-prestaties biedt, valt dus te bezien; op grond van de specificaties zijn beide schermen niet echt geschikt voor hdr-weergave.

De AW2524HF heeft ongeveer hetzelfde design als de AW2524H, met hoogteverstelling, maar zonder rgb-verlichting. Dell heeft ook de audiovoorzieningen wegbezuinigd, maar niet de vierpoorts-USB 3.2-hub. Waar de AW2524H beschikt over twee HDMI-poorten en een DisplayPort, heeft de AW2524HF tweemaal DisplayPort en eenmaal HDMI. Dell levert een USB-C-naar-DisplayPort-kabel mee voor laptopbezitters. Alleen via DisplayPort (versie 1.4) kan de maximale 500Hz-refreshrate worden bereikt. Hoewel Dell spreekt van HDMI 2.1 op de AW2524HF, ondersteunt de poort volgens het specificatieblad alleen het oudere TMDS-protocol, waarmee de bandbreedte effectief gelijk is aan die van een HDMI 2.0-poort. Via deze aansluiting is 255Hz zodoende het hoogst haalbare.

Vanaf 12 september moet de Alienware AW2524HF wereldwijd in de winkels liggen. Dell heeft nog geen Europrijs bekendgemaakt, maar het scherm zou USD 649 gaan kosten. Dat is een USD 170 lagere adviesprijs dan de AW2524H heeft.

Alienware AW2524HF Alienware AW2524H
Paneel 24,5", ips, 1920x1080 24,5", ips, 1920x1080
Refreshrate 500Hz (OC) / 480Hz (native) 500Hz (OC) / 480Hz (native)
Responstijd 0,5ms gtg 0,5ms gtg
Helderheid 400cd/m² 400cd/m²
Kleurbereik 99% sRGB 99% sRGB
Contrastratio 1000:1 1000:1
Adaptive sync AMD FreeSync Premium Nvidia G-SYNC
Nvidia Reflex Analyzer
Hdr HDR10 HDR10
Rgb-verlichting - Ja
Aansluitingen 2x DisplayPort 1.4
1x HDMI 2.1
4x USB3.2 Gen1
1x DisplayPort 1.4
2x HDMI 2.1
4x USB3.2 Gen1
3.5mm line-out + koptelefoonpoort

Door Friso Weijers

Redacteur

24-08-2023 • 06:01

148

Reacties (148)

148
146
61
2
0
53
Wijzig sortering
500Hz. Zozo. Knap dat het technisch kan, maar totale overkill. Bepaalde gamers zullen zeggen dat ze absoluut niet zonder kunnen. Vraag me af wat dit doet met het stroomverbruik. Temeer voor de 500HZ een overklok is toegepast.
Dit kom ik tegen op de site van Dell over het stroom verbruik van de AW2524H:
Input Voltage: AC 100-240 V (50/60 Hz)
Power Consumption (On mode): 24 W
Power Consumption (Typical): 86 W
Power Consumption Stand by: 0,4 W
Power Consumption (Off Mode): 0,3 W
Nog steeds stroomverbruik als hij uit staat? Apart.
Welk apparaat heeft tegenwoordig dan nog een echte klikschakelaar voor aan en uit?
Het is tegenwoordig apart als het echt uitgaat.
Alle apparaten die klik zeggen als je ze uit zet... Televisies en receivers meestal wel, tenminste degene die ik de laatste decennia gekocht heb. De voeding van mijn PC ook trouwens. Het is eigenlijk vreemd dat dit niet gewoon verplicht is, zeker voor apparaten als monitors.

Vaak is er nog wel een paar milliwatt stroomverbruik voor de IR/RF om het apparaat weer aan te zetten natuurlijk, maar dat mag geen naam hebben.
Wat @johnbetonschaar bedoeld is een echte fysieke schakelaar om het systeem geheel spanningsvrij te maken, maar deze zie je bijna nooit meer. Sommige PC voedingen hebben deze nog, maar TVs en receivers hebben deze vrijwel nooit meer.

De 'klik' die je hoort in TVs of receivers (in ieder geval alles gebouwd in de laatste 30 jaar) is vaak een relais wat de hoofd voeding inschakelt. Echter zal het apparaat in 'uit' stand nog steeds een verbruik hebben, er is immers energie nodig om het relais om te schakelen. Er is vaak een klein embedded systeem wat de knoppen en de infrarood ontvanger monitored. Dit is voor de meeste apparaten meestal minder dan 1 watt, maar er zijn uitzonderingen.
De 'klik' die je hoort in TVs of receivers (in ieder geval alles gebouwd in de laatste 30 jaar) is vaak een relais wat de hoofd voeding inschakelt. Echter zal het apparaat in 'uit' stand nog steeds een verbruik hebben, er is immers energie nodig om het relais om te schakelen
Dat snap ik, maar het is een beetje spijkers op laag water zoeken om te claimen dat een apparaat met zo'n relais niet daadwerkelijk 'uit' staat. Als het relais open staat is het apparaat wel degelijk helemaal uit alsof je een fysieke aan/uit schakelaar omgezet heeft. Om nou te zeggen dat het apparaat niet volledig uit staat omdat er nog een apart mini circuitje is om naar de IR te luisteren en het relais te schakelen lijkt me een beetje een semantische discussie, op die manier zou je ook kunnen zeggen dat een apparaat niet uit is als het in een stekkerblok met een knop zit en die knop is niet afgezet. Semantische discussie, zeker omdat je het letterlijk over milliwatts hebt, en niet een honderd keer zoveel als een monitor die 0.3W gebruikt als hij 'uit' staat (wat nog steeds vrij weinig is overigens).
Nee, staan niet 100% uit, maar standby. Zeker de moderne tv`s etc. Ja verbruik is miniem, maar het is niet ouderwets uit. Zie mijn Nvidia shield, die kan ik zelfs nog via app op de mobiel weer "aan" zetten. Die houd dus zelfs verbinding met mijn router. Ook mijn tv`s etc zie ik gewoon in mijn router als die "uit" staan.

Jij vind het spijkers op laag water zoeken, ik vind het recht lullen wat krom is. Maar het is niet hetzelfde als dat je er een schakelbare verdeeldoos tussen zet. Pas dat gaat al dat spul echt uit.

Of het veel oplevert is wat anders, al kan het best wat schelen. Vooral met wat oudere apparatuur.

[Reactie gewijzigd door arbraxas op 24 juli 2024 20:46]

Voorbeelden: Lamp (met analoge schakelaar), stofzuiger, broodrooster, waterkoker, mixer. Deze zijn bij uit ook echt uit.

Als het elektronisch is en op afstand geactiveerd kan worden gebruikt het altijd een klein beetje energie.
Ik weet niet of ik je iets heel verrassends vertel, maar de meeste apparaten die uit staan maar aan het stopcontact zitten verbruiken stroom.
Er moet nog steeds iets van een circuit draaiende blijven, om aan te gaan als je die kleine powerbutton indrukt. Anders zou dat met een ouderwetse schakelaar (240v) moeten gaan.
Ja, maar dat zou met veel minder dan 0,3W moeten kunnen.
Eerder 0,0003W of zelfs minder moet lukken.
0.3 watt is al best wel weinig. Om een deel van de voeding draaiende te houden zodat de infrarood detector werkt en een ledje te laten branden.
Vampierstroom, its a thing.

Die oude TV boxen waren hier altijd vreselijk slecht mee, echt gewoon 30w+ trekken terwijl je TV uit staat, dag en nacht.
Valt goed mee, maar ik vermoed dat het extra stroomverbruik zal zitten in het extra verbruik van je GPU.
Ik heb enige tijd op Europees niveau aan een bepaalde sport meegedaan. Dan wordt je flink gesponserd door allerlei partijen. Op dat niveau probeer je iedere marginale verbetering als je score daar ook maar iets mee vooruit misschien gaat. We gooiden letterlijk duizenden euro's per kwartaal er tegenaan waarvan het verschil al dan niet aanwezig is.

Je hebt geen ongelijk die 500 Hz zal voor 99,99% van de bevolking geen verschil meer uitmaken maar als je daardoor misschien een extra kill krijgt, net dat hele kleine beetje extra, zou je het dan niet doen? Zelfs al is dat niet eens zeker daar, je weet zeker als je dit scherm niet hebt, dat je dat "beetje extra" zeker niet hebt.
Voor zo'n niche is toch geen markt? Waarom zou 'n bedrijf als Dell voor zo'n kleine doelgroep een monitor op de markt brengen? Ik vermoed dat 't gewoon past in 't marketingrijtje "meer is beter" waar veel consumenten met open ogen intrappen.
Dat is de doelgroep die er misschien voordeel kan uithalen.
Dell brengt dit scherm op de markt voor doelgroep "500 is hoger dan 390!", die is veel groter dan de doelgroep die er mogelijk voordeel kan uit halen.
Ja, dat zeg ik dus in mijn laatste zin.
Er is zeker markt voor niche. Dit is zo'n scherm wat Dell op een esport tournament gaat neerzetten.
Met flinke marketing en sponsoring.

[Reactie gewijzigd door Xfade op 24 juli 2024 20:46]

Ach je ziet dat toch overal. Kijk maar naar voetbal schoenen. De top modellen zullen alleen een zeer klein percentage echt baat bij hebben. Maar er zijn zat mensen die alleen wekelijks in een vrienden team spelen op een knollenveld die dan honderd euro meer neer leggen voor zulke schoenen.
Marketing en mensen die het beste van het beste willen.
Hetzelfde als een 130 kilo zware vent op een carbon racefiets van 10.000 euro. Er is altijd wel een markt voor.
En natuurlijk zonder fietsbel, want dat is onnodig gewicht
8)7 :D
Wat dat betreft is de analogie met topsporters wederom een goede. Veel 'baat het niet dan schaadt het niet' (wat natuurlijk niet op gaat omdat het onbekend is) en bijgeloof.
Toch maar naar ieder doelpunt god bedanken en mijn oranje boxershort aan, want wie weet wat er gebeurd als ik dat niet doe. :+)
Inderdaad! Na 144 of 165 Hz is het niet echt meer rendabel voor de gemiddelde consument qua kosten. Ik heb een 165 Hz en het is fijn en net niet te duur. Ik heb echt een grens van 400 tot 500 euro voor een monitor.

[Reactie gewijzigd door Remzi1993 op 24 juli 2024 20:46]

Dat heb jij, maar anderen niet. Nee, dit zal geen mainstream model worden, maar over het algemeen weten fabrikanten echt wel of er een markt voor is.
Er is inderdaad altijd een markt voor mensen die de producten met de hoogste specs willen. :+
Wachten is dan op de 600 hz monitor :D
Het is wachten tot de verversingssnelheid in KHz uitgedrukt gaat worden. 4,2KHz met een overclock naar 4,8KHz. :D
Waarbij we dan allen roepen dat je het verschil tussen 1kHz en 2kHz nog perfect kan zien, maar dat we het nut van 4kHz niet zien :)

Ik zie het verschil tussen 60Hz en 120Hz, maar heb mij nog nooit gestoord aan 60Hz, ook niet aan 30Hz. Het zullen mijn oude ogen zijn…
Ik kan me nog herinneren dat ik The Hobbit in de bioscoop heb gezien en dat 3D de frame rate halveerde naar een fantastische 24Hz, en dat ik toch echt het idee had dat de actie-scene's in powerpoint waren gemaakt.

Nee, 500Hz is doorgaans vrij zinloos maar 24Hz met snelle beelden is echt wel merkbaar ruk.

Overigens zegt de frequentie alleen niks. 24Hz op een CRT ziet er anders uit dan 24Hz op een LCD, en 24FPS in een game ziet er anders uit dan 24Hz in een film. Films zijn bijvoorbeeld met motion blur opgenomen wat rustiger oogt. Dus geen idee waarom ze de hobbit zo verneukt hebben. :+

[Reactie gewijzigd door bwerg op 24 juli 2024 20:46]

Ik heb een tijdje geleden een 2e scherm bijgekocht, en gebruik die nu om te gamen. De vorige was 144Hz, de nieuwe is 240Hz. Van 60 naar 144hz is een leuk verschil, maar van 144Hz naar 240Hz merk ik zo goed als niks van (in valorant)
Inderdaad, het verschil is niet zo groot. Maar van 60 naar minimaal 144hz is het verschil dag en nacht. Alles is lekker soepel maar hoger dan 165hz is geldverspilling. Misschien in de verre toekomst wanneer schermen tot 600hz goedkoop zijn.
Dit lijkt mij vooral op e-sports gericht. En ik denk wel zeker dat sommigen een verschil zullen zien tov 144/165Hz, maar dan in shooters, en niet in je gemiddelde Assassins Creed spel ofzo…
En dan is er nog de markt die dit gewoon wil. Sommigen hebben er dit soort geld voor over, de ene koopt een exotisch 4k scherm, de andere wil per se het snelste scherm. M
Toegeven, voor mij is het althans te duur en overkill.

[Reactie gewijzigd door DenHond op 24 juli 2024 20:46]

Nou, het kan technisch feitelijk niet: LCD-kristallen kunnen simpelweg niet zo snel gericht worden. Wat je kan doen is ze op hele hoge snelheid van richting te proberen te veranderen en dat is wat er in dit soort snelle LCD-schermen gebeurt. Wat het scherm werkelijk weergeeft zijn niet de indivuduele frames maar de frames door elkaar heen, wat als gevolg heeft dat beweging wazig is op een LCD.

OLED-schermen zijn wel snel genoeg om de invididuele frames te tonen, gaan vooralsnog nog lang niet tot 500Hz, maar desondanks veruit te prefereren op dit punt.
Ja overkill, ergens is grens dat ook 16 jarige e-sporter geen meer waarde op leverd als dat rond de bijvoorbeeld rond de 250fps is is 300 zat.
Ben je ouder en ook wordt de esporter ouder dan gaat die grens zakken. Die grens stijgt nog als noob nog naar je maximum potentie gaan.
Met mijn 50+ Cod gamer is 120hz optimaal. Alleen om dat insane voordeel op te vangen is beste voor de oudere en casual gamer om op console recreatief dit soort competive games te spelen daar is de max 120hz. Trekt het veld gelijk. Vs externe spenders . Zo ook massaal cheaten te mijden op PC.
Misschien dat grens hoger ligt voor pro esport en dat 360 zeer klein subtiel voordeel heeft dan 400 voor maximum voordeel hoe klein ook te verantwoorden en doet prijs er minder toe maar kan zijn dat 500 geld verspilling is en meer energie en warmte genereerd voor die arme gpu. Rocksteady 500fps is ook lastig voor veel games.
Ik heb echt geen flauw idee wat je hier nu allemaal zegt.
Uit het eerste stuk maak ik op dat het aantal FPS en Hz dat wij met onze ogen en hersenen maximaal kunnen registreren leeftijdsafhankelijk is. Een 16-jarige esporter kan maximaal 250Hz verwerken, dus een bovengrens van 300Hz voor een monitor zou genoeg moeten zijn. 500Hz zou dan overkill zijn. Hoe ouder je wordt, hoe lager het aantal FPS en Hz dat je ogen en hersenen goed kunnen verwerken.

Vervolgens pleit hij voor een maximum van 120Hz, omdat dat een framerate oplevert waarmee de oudere of meer causal gamer ook goed uit te voeten kan en het dus louter op talent aankomt in plaats van het duurste of beste materiaal en het cheaten tegen zou moeten gaan [eigen toevoeging: Vergelijk het met de Formule 1, waar iedereen zijn eigen auto ontwerpt, met een juniorklasse waarin iedereen gelijk materiaal heeft en het louter van het talent van de deelnemers af zou moeten hangen]
Daarna geeft hij toe dat een hogere framerate/Hz voor een professionele esporter alsnog een klein voordeel kan opleveren, met als voorstel dat op 400 te cappen.
Als laatste haalt hij aan dat 500Hz moeilijk te verantwoorden is omdat hij het als geldverspilling/energieverspilling ziet en denkt dat een stabiele 500fps ook lastig te behalen is.

N.b. Ik ben geen optometrist of iets dergelijks dus ik kan de inhoud van zijn reactie niet beamen of ontkrachten, ik probeer enkel het verhaal duidelijk te krijgen
144Hz of 165Hz is echt wel het beste. 120Hz is net aan en als je iets eronder gaat dan zie je het. Met 144Hz heb je dus een goede buffer en als een frame 120 FPS dan zie je dat niet echt.
Met 165Hz schermen zit je (met DP) op 8bit kleur, met 144Hz op 10 bit kleur, tenminste bij het gros van de schermen die ik heb gezien (en de mijne).

Ik heb veel liever die 10 bit eerlijk gezegd. Volgens mij is die betere kleurruimte nooit een ding bij monitoren met hoge verversingssnelheid.
Inderdaad, ik had even naar de specs gekeken van mijn monitor (LG UltraGear 27GP850-B).
Ik wist niet dat er een verschil was. De volgende keer zal ik daar rekening mee houden.
Bedankt, duidelijk. Interessant idee om een maximum aan te houden om het eerlijker te maken.
Maar ik verwacht dat dit niet realistisch is en ook niet zo veel toevoegd.
Ik dacht dat 't aan mij lag :X
Het gaat ook niet meteen om die maximale FPS. Maar meer om de extreem kleine vertraging tussen de beelden en wat je doet. Hoe hoger de FPS, hoe lager die vertraging.
Maar veel monitoren die heel hoge refresh waardes claimen kan het scherm die snelle aansturing nauwelijks volgen, met blurring en smearing als gevolg.
Ik ben benieuwd naar de psychologische effecten van dit scherm. Heeft iemand ooit onderzocht wat effect het heeft op de hersenen? Gezien het hoge epileptische gevallen van een scherm? Lijkt me dat onze hersenen zo'n frequentie toch op zijn minst als hinderlijk ervaren? :?
Heb je meer of minder last sinds de TL lamp niet meer op 50 Hz flikkert maar op 10-20 KHz (HF TL) ?

https://en.m.wikipedia.org/wiki/Flicker_fusion_threshold
Van de kip en het ei moet toch één de eerste zijn.
Wat is toch dat rare "overclock" gedoe met schermen tegenwoordig? Hij kan dus 500 Hz, dan kun je het ook zo noemen. Of moeten gamers naast RGB-LEDs persé ook overclock-features hebben?
is het zo dat bij een overclock de garantie niet meer binnen de gestelde 2 jaar is?

[Reactie gewijzigd door Arnoudius op 24 juli 2024 20:46]

Als Dell het an fabriek aflevert met 500Hz, dan moet daar de garantie op zijn.

Anders moeten ze het maar uitbrengen met de 480Hz native.
Alienware zegt zelf dat de garantie ook met overclock geldt.
500Hz refresh rate is achievable with 500Hz capable games. 500Hz overclocked / 480Hz native.
Based on third party analysis, June 2022.
Dus het lijkt me ook dat Dell belooft dat de overclock bereikt wordt, ik zie geen beperking à la "your results may vary".
Dat is niet tegenwoordig, dat was tien jaar geleden ook al zo. Maar het idee is dat je, als je dat wil, je scherm nog sneller kunt maken. Maar dat gaat dan wel te koste van de beeldkwaliteit: overshoot en ghosting nemen dan fors toe. Op deze manier geeft de fabrikant je dus een keuze: maximale snelheid waarbij je goed beeld hebt, of nog sneller met minder goed beeld.
Wellicht om binnen een bepaalde spec (energie gebruik?) te blijven?
Of om mensen het 'hacker' gevoel te geven: "ik heb mijn opgevoerd" (dus is ie nu beter dan alle anderen, ik kan de jouwe ook opvoeren als je wilt...).
Dat idee, net zoals met brommers, scooters en electrische fietsen en CPU's natuurlijk.

[Reactie gewijzigd door djwice op 24 juli 2024 20:46]

Mijn ervaringen met (eerdere) 144Hz monitoren van een ander gaming merk zijn echter niet zo positief. Die panelen lijken ook gewoon overgeklokt te zijn van bvb 120Hz. Het kan na verloop van tijd verticale strepen opleveren die met beetje geluk na opwarming wegtrekken. De OC zit dan erg op een grensgeval wat het paneel (eerst) wel aan kan, maar na verloop van tijd niet meer. Deze ervaring heb ik gehad bij 2 identieke monitoren op dezelfde datum aangekocht. Op 120Hz doen ze het weer prima.
Helaas werkt de interne OSD (boot logo, enz.) wel op 144Hz, dus elke keer als de monitor inschakelt kan ik mij eventjes aan de strepen ergeren.

Die 20Hz op 480Hz lijkt dus niet zoveel, maar wellicht houden ze met 480Hz zich aan de opgave van de LCD fabrikant o.i.d., en dat is wat garantie afhandeling betreft gunstig. Als 500Hz een OC extraatje is (mooi rond nummer), dan zou ik dat puur als marketing zien.

[Reactie gewijzigd door Hans1990 op 24 juli 2024 20:46]

Wow 500Hz, is het niet zo dat je dan ook 500fps moet halen in game om het er vloeiend uit te laten zien?(vsync)
Standaard is 480Hz. De overclock is 500Hz.

Stel dat je deze monitor hebt, dan kun je gewoon op 60FPS/60Hz gamen met vSync, omdat 480 perfect deelt door 60. De uitkomst is een geheel getal, namelijk 8. Dus eigenlijk game je met een 480Hz monitor met 480FPS, met 8x zoveel FPS als op 60Hz/60FP monitor. Je moet dus je framerate cap instellen op op de juiste FPS (dus 60FPS of 120FPS, 240FPS, etc.) met vSync, anders krijg je screen tearing.

De vraag is dan: waarom heb je deze 480Hz monitor wanneer je maar op 60FPS gamed? In weze is deze monitor dan je reinste overkill.

Maar om je vraag concreet te beantwoorden: wil je de maximale potentie uit deze monitor halen, dan moet je inderdaad op 500Hz/500FPS gamen.
de monitor is natuurlijk voor competitive games zoals valorant of csgo. daarbij zit je ergens tussen de 400-600fps ligt er een beetje aan wat er op je scherm gebeurd.

je kan dus voor deze games zo goed als de volledige monitor benutten. echter heb je dan wel een 4090 nodig :+

voordeel van freesync of tegenhanger gsync is de dynamische refreshrate en hoef je dus niet zelf te kloten met vsync en fps caps :)

al weet ik niet of er een maximum aan de dynamische refreshrate zit van AMD FreeSync Premium. Al verwacht ik dat dat hoog genoeg is anders zal het een rare combinatie zijn voor de monitor en is het enkel marketing :P
En is de reden dat je in dat soort games 500FPS wil dat je ook echt 500 beelden per seconde wil en kan verwerken, of is dat omdat je de latencies zo laag mogelijk wil hebben? Frame times dragen bij aan latency, nog bovenop de responsetijd van je scherm. Als je videokaart beelden uitpoept met 60FPS uitpoept betekent dat 16,7 ms latency vanwege je videokaart, terwijl je bij 500FPS 2ms latency krijgt. Wat dat betreft wil ik best geloven dat die 14ms latency verschil maken in competetieve games.

Er bestaan vast randgevallen waarin je ook het verschil tussen 240Hz en 480Hz kan waarnemen (de vraag hoeveel beelden per seconden je kan waarnemen is niet simpel), maar ik betwijfel dat er veel realistische scenario's zijn waarin 240Hz of 480Hz echt merkbaar is.
Er is een verschil tussen het waarnemen en kunnen verwerken. Er is onderzoek dat laat zien dat mensen meetbaar beter gamen, ook als diezelfde gamers niet kunnen aangeven of ze nou 144/240+hz gebruiken.
Ik merk het verschil wel hoor, maar na 120+ Hz niet echt meer. Alles gaat veel vloeiender en responsiever vooral in shooters.

Speeel jij maar eens Quake met 60 fps/hertz vs 120+😋
Ik heb nooit 60 gezegd? Het is vrij duidelijk dat de meeste mensen kunnen aanwijzen welke 60/120 is etc. Maar hoger dan dat kunnen mensen het niet meer goed aanwijzen.

Echter kan je bij diezelfde mensen nog steeds meten dat ze beter gamen met meer Hz.
Dat beantwoord niet de vraag of dat komt vanwege de hoeveelheid beelden per seconde of vanwege de lagere latency.

Aan de andere kant: hoe dan ook heb je dat voordeel bij een 500Hz monitor.

[Reactie gewijzigd door bwerg op 24 juli 2024 20:46]

Hoe ik me dit altijd voorstel.is dat het vooral uitmaakt bij het met je ogen tracken van snelle bewegende dingen over je scherm. Als iets bijvoorbeeld in 1 seconde van links naar rechts over je scherm gaat ziet die beging er vloeiender uit als die beweging in 500 stapjes is opgedeeld dan in 120 stapjes. De vraag is alleen of we niet al redelijk de maximale vloeiendheid hebben bereikt voor een 24 Inch scherm met deze resolutie...
Ik zou me nog kunnen voorstellen dat het misschien helpt op enorme schermen, net als dat 8K voor 24" overkill is maar voor 120" al wat meer nut heeft. Maar verder zie ik totaal het nut van 500 Hz niet in.
Als iets snel beweegt, zeg in 0.5 seconde van links naar rechts, dan betekent dat dat je bij een 30 inch scherm met 60Hz het object op 30 plekken ziet verschijnen, dus met intervallen van 1 inch, oftewel 3,5 cm. Het gaat dan niet zozeer over hoe snel je ogen 'verversen' of iets dergelijks (want dat doen je ogen niet, want die werken niet in verversingen) maar de hapering die je dan waarneemt komt omdat je gewoon die gaten van 3,5 cm ziet.

Wat dat betreft kan je bij zeer snel bewegende beelden waarschijnlijk al snel meer dan 120Hz waarnemen. Maar dat zijn dus wel randgevallen: als je rustig ronddraait in een RPG-game zie je daar niks van.
alles gaat om reactie vermogen, als jij meer frames hebt zie je het spel vloeiender en is de kans ook groter dat jij eerder de frame ziet dan iemand die 60fps heeft, net wanneer hij dus om het hoekje komt / jij om het hoekje gaat. meer frames is dus eigenlijk minder "vertraging". op dat soort momenten kunnen heel erg in je voordeel werken als je dus een hogere refreshrate monitor hebt dan je tegenstanders.

daarnaast heeft nvidia de technologie low latency, die dat nog drastischer verlaagd. doordat je je muis in de monitor steekt en hierdoor waarschijnlijk samenwerking met hun videokaarten de verwerking sneller kunnen laten lopen.

kun je het bewust waarnemen? Daar heb ik geen antwoord op, al denk ik wel dat als je 120hz met 960hz gaat vergelijken dat je verschil dan wel gaat zien maar 120 met 240/480 betwijfel ik, al zal je het onbewust wel merken.
Precies, het gaat dus om lage latency van input tot output. Dat is iets anders dan dat het vloeiend is.
daarnaast heeft nvidia de technologie low latency, die dat nog drastischer verlaagd. doordat je je muis in de monitor steekt en hierdoor waarschijnlijk samenwerking met hun videokaarten de verwerking sneller kunnen laten lopen.
Nee, zo werkt het niet. De pipeline van voorkant tot achterkant is toch echt eerst de input (muis, toetsenbord), dan naar de CPU, die stuurt de render pipeline aan, die wordt verwerkt door de GPU, die stuurt de video-output aan, die wordt weer verwerkt door het scherm. Gewoon een paar stappen in die pipeline overslaan kan simpelweg niet omdat er gewoon afhankelijkheden zijn van voor tot achter.

Low latency mode optimaliseert gewoon een stukje van die pipeline, specifiek in DX9 en DX11. Dat is gewoon een stukje software-optimalisatie, dat kan een game-bakker ook zelf als die maar low-level genoeg bezig is (bijvoorbeeld met DX12 of vulkan). En het heeft ook performance-nadelen, anders zou het wel standaard ingebakken zijn in elke pipeline.
Zou het niet mogelijk zijn om gewoon elke frame direct te laten zien? Dus geen refreshrate nodig maar 'pushen' i.p.v. pollen? Als het scherm zo snel is dat deze nooit langzamer is dan de bron (en dus zo snel is dat we geen flikkering zien) dan kan dat. En als de bron dan hoe dan ook minimaal 60 frames per seconden aanlevert... :9
Welkom bij GSync/Freesync. ;)
Tja dan is het je PC die de vertraging veroorzaakt, of je connectie, of je de tickrate van de server.
Ik denk dat je dan meer hebt aan VRR, zodat de hz aangepast wordt aan de fps, inplaats van de fps vast te zetten op een perfect deelbaar of vermenigvuldigbaar getal
Ja, dat kan. Maar die is - voor zover ik weet - vaak begrensd in een gebied tussen de - pak 'em beet - 40Hz en hoger. Dat kan dus vervelende gevolgen hebben voor de input lag. Je kunt zo van 25ms inputlag naar - bijvoorbeeld - 8ms vliegen. Of wanneer je onder de 40Hz duikt heb je zelfs geen VRR. Het kan een gevalletje zijn van je avatar springt over het ravijn of hij ligt erin. Dus VRR is ook niet de perfecte oplossing.

Ik game zelf het liefste met een ROCK SOLID, 30, 40, 60, 120, ... FPS met de daarbij passende vSync waarden. Dan weet je waar je aan toe bent.
Is het niet veel mooier met Freesync / G-sync ipv vsync? Of zeg ik nu iets geks?
Vsync moet weer uit staan in games als je freesync (of gsync) gebruikt, en sinds ik zelf Freesync gebruik op een 165Hz monitor wil ik echt niet meer anders. Games waar ik minder dan de 165 fps haal (denk aan een Call of Duty) zijn alsnog super smooth daarmee.
Vsync aan met gsync maakt toch niet veel uit?
Zover ik gelezen en gezien heb is het het beste om vSync uit te hebben als Free/Gsync aanstaat. In ieder geval, dat is hoe ik het geïnterpreteerd heb toen ik 2 jaar geleden problemen had met m'n Freesync monitor en ik wat info opgezocht heb over hoe ik zaken moest instellen en wat dan vervolgens ingame de beste instellingen zouden zijn.

Ik heb in Nvidia controlpanel voor defaults vsync uitgezet en in game zet ik het ook altijd uit. Ik haal meestal de 165 FPS toch niet in de games die ik speel.

Mijn ervaring was met freesync en vsync tegelijk aan dat ik screentearing kreeg. Maar misschien had ik andere settings ook niet goed staan, geen idee, ik hou sindsdien vSync gewoon uit als ik Freesync aan heb staan en het bevalt me erg goed.
Tearing en een onregelmatige verversing is niet hetzelfde. Ik vind de vraag van @Odder thing wel interessant en heb daar eigenlijk nog nooit iets over gezien qua experimenten: met GSync/FreeSync heb je nooit tearing, want het is altijd een enkel en volledig beeld dat wordt doorgestuurd naar de monitor. Echter, als de framerate onregelmatig is dan staan sommige beelden langer op de monitor dan andere, dat zou een ervaring van stottering kunnen geven.

Iemand die een link heeft naar onderzoek van de subjectieve ervaring van een dergelijk effect?
Dat is natuurlijk raar, want zaken die stilstaan versus bewegen is een natuurlijk verschijnsel. Het is zelfs zo dat je buiten het centrum van je focus beweging (en contrast!) beter kan waarnemen dan in je centrum.

Stottering die storend is krijg je zodra je onregelmatige framerate te laag wordt waardoor beeld verspringt en onnatuurlijk voelt. Tenzij alles kan teleporten.

Qua onderzoek over ervaring van kijken met verschillende framerates is er vooral veel te vinden over de magische '24 FPS' (spoiler: zo magisch is het niet).
Ja in het echt kunnen dingen niet teleporten, hooguit kun je die ervaring hebben als een object ten op zichte van jou beweegt en er bijvoorbeeld een raster voor staat. Volgens mij tast dat de voorspelbaarheid van de beweging heel erg aan.

Daarom is het in Nederland niet toegestaan je fietslicht op knipperstand te gebruiken (of preciezer: het is niet verboden, maar dan telt het niet als geldige verlichting). De redenering die daarachter zit gaat niet over dat je het niet continu ziet, maar dat je de snelheid van de fietser dan slechter kunt inschatten. Ik vermoed dat dit wel op onderzoek gebaseerd is, maar ik ben niet bekend met welk onderzoek dat zou zijn.
Met freesync premium (en pro) heb je minimaal 120fps nodig om van de techniek gebruik te kunnen maken, zit je daaronder, past de AMD software low frame rate compensation (LFC) toe. Hier gaan ze je dezelfde beelden met een bepaalde factor een aantal keer achtereen tonen zodat je boven deze 120fps cap komt. Dit zal toch een andere ervaring bieden dan native 120+ fps.
Als je pc andere games dan je competitief spel niet met 120fps kan weergeven is het dus niet aangeraden om dit scherm te kopen (indien je nog andere games speelt).
De vraag is dan: waarom heb je deze 480Hz monitor wanneer je maar op 60FPS gamed? In weze is deze monitor dan je reinste overkill.
Maar als je niet gamed dan beweegt de muis lekker vloeiend over je buereaublad :))

Maar ja die 480 FPS zul je niet bij alle games halen. maar misschien bij CSGO of Factorio, wat minder zware games wel. en natuurlijk in windows zelf, je webbrowser etc.
Ah dank voor de duidelijke uitleg.
Nee hoor, 400fps op 500hz mag je ook vloeiend noemen. Eigenlijk elke FPS die jij vloeiend vindt (onder of gelijk aan 500fps) is op deze monitor vloeiend.

[Reactie gewijzigd door watercoolertje op 24 juli 2024 20:46]

Nee hoor, 400fps op 500hz mag je ook bloeiend nemen. Eigenlijk elke FPS die jij vloeiend vindt (onder of gelijk aan 500fps) is op deze monitor vloeiend.
Ik denk ook dat de meeste mensen het verschil met het blote oog ook niet eens meer kunnen waarnemen.
Misschien, maar maakt niet uit, was niet de discussie of je dat kan zien.
Uiteraard. Dat wordt ofwel een 4090 ofwel heel wat slidertjes omlaag gooien in de steeings :)
Klopt, Dus voor games als CSGO, Valorant is dit wel een leuke upgrade wellicht. Echter is het de vraag of je het als speler nog heel erg gaat merken na 240hz.
500Hz maar wel amper 1080p. Vreemd.
1080P niet nodig. Esports games op 640 × 480 draaien want FPS
Denk dat 720P wel de limiet is.
6480x480 is een 4:3 verhouding en loopt niet lekker op een 16:9 scherm, met zwarte balken wordt het scherm wel heel klein.

[Reactie gewijzigd door mr_evil08 op 24 juli 2024 20:46]

Deze schermen zijn gericht op 'competitieve' shooters zoals valorant en counterstrike. In deze games zijn de vijanden erg zichtbaar, en is refresh rate belangrijker dan resolutie.
Bij games zoals Apex Legends kan een hogere resolutie wel een voordeel zijn, omdat je daar mee meer zichtbaarheid/ precisie op grote ingame afstanden krijgt.
Toen ik van 60Hz naar 120Hz over ging wist ik niet wat ik meemaakte, zit nu op 144Hz en t.o.v. van 120 kan ik het verschil niet zien. Wellicht dat je het verschil tussen 144 / 250 nog wel merkt, zelf nog niet met mijn eigen ogen gezien omdat ik niet meer op 1080p speel en dus lagere framerates haal. Maar kan je nog echt verschil zien tussen 250 en 500 Hz? Of geeft het je aantoonbaar voordeel? Ik betwijfel het sterk.
Er is absoluut een groot verschil tussen 250 en 500 Hz, vooral als het gaat over bewegingsonscherpte die specifiek wordt veroorzaakt door de 'sample-and-hold'-weergave van huidige LCD/OLED-schermen. Sterker nog, de onscherpte wordt gehalveerd. Plasma- of zelfs de oude CRT-beeldbuizen (ongeacht hoeveel Hz ze zijn) zijn vele malen beter in het scherp weergeven van bewegende beelden, omdat zij slechts een gedeelte van de tijd tussen de refreshes de pixels oplichten en de rest van de tijd uit staan. Wanneer iets door het beeld beweegt en iemand deze probeert de volgen met de ogen, ziet het er echt een stuk scherper uit. Daarom zou men het liefst zelfs richting de 1000 Hz moeten gaan om deze bewegingsonscherpte te elimineren. Hierbij geldt echt dat meer beter is en uiteraard geldt de wet van vertragende voorsprong, maar de huidige schermen zijn allemaal nog lang niet optimaal, zelfs niet de 360 of 480 Hz-schermen. Zie ook: https://blurbusters.com/w...ple-and-hold-displays.png

Hier is duidelijk te zien dat een CRT-scherm superieure bewegingsscherpte weergeeft; het is belangrijk om de beweging met de ogen te volgen om het verschil te zien in onscherpte veroorzaakt door een gebrek aan weergavekwaliteit van het scherm; vandaar dat de camera op een gegeven moment ook wordt meebewogen om de volgbeweging te simuleren. Heel veel reviewers van monitoren doen dit overigens fout en filmen of fotograferen de bekende UFO zonder mee te bewegen, waardoor er het plaatje dubbele blur vertoont (motion blur én sample-and-hold-induced blur) en de resultaten niks waard zijn. Te zien in dit filmpje is dat een ouderwetse beeldbuismonitor alle huidige 'gaming'-monitoren compleet wegvaagt en ik ben blij als dit soort hoge verversingsnelheden mainstream worden over een aantal jaar. https://youtu.be/z4xgLUdQhKA?si=jPtcUSU0eYs8tR9f

Hopelijk kappen mensen de mythe te verspreiden dat een hoge verversingssnelheid geen voordeel meer biedt vanaf 144, 240, of hoeveel dan ook Hertz, want ook de casual gamer haalt hier zeker voordeel uit.

[Reactie gewijzigd door CaptainPanda op 24 juli 2024 20:46]

Nou ja, als het simpelweg een kwestie is van kort genoeg de pixels laten oplichten, dan is het veeeeeeeel goedkoper om lagere refresh te doen met hogere helderheid en dan achtergrondverlichting bij LCD laten meeknipperen. Want 1000Hz scherm lukt vast wel. Je game op 1000Hz renderen is volslagen onmogelijk bij veruit de meeste spellen, ook niet met een 4090.

En natuurlijk bestaat dat ook in verschillende versies zoals BFI, want het helpt zeker. Tegelijk als ik in mijn 90Hz VR headset snel zwaai met mijn lichtzwaarden (Beatsaber), waar ook pixels maar kort aan staan om bewegingsonscherpte te voorkomen, dan zie ik inderdaad nul bewegingsonscherpte. Maar ik zie wel 10 discrete lichtzwaarden net na elkaar. Eigenlijk zou daar waarschijnlijk weer wel wat te zeggen voor bewegingsonscherpte, zolang je hem niet volgt met je ogen natuurlijk. Volg je het wel met je ogen, dan krijg je zonder het knipperen van de pixels inderdaad een onscherp beeld, en met knipperen van de pixels een perfect scherp beeld, wat jittered rond de plaats waar hij moet zijn.
Kleine toevoeging is dat het best gevarieerd kan zijn wat de grafische artefacten zijn die je ziet bij lage verversingssnelheid. Wat je bij een LCD met lagere verversingssnelheid krijgt is temporal alisasing, het effect dat een snel bewegend object maar op een klein aantal plekken gerenderd wordt. Je ogen zien dat de beweging van het object geen vloeiende lijn is maar een stippellijn van losse plekjes. Als je je ogen meebeweegt met dat object zie je dat juist als motion blur, dat is wat je typisch zal doen in een film waarin een object over het scherm beweegt. Bij gamen (zoals in FPS) zal je eerder naar het midden van het scherm blijven kijken en zal je juist met je muis je hele beeld bewegen, dan zie je het bewegende beeld niet met motion blur. Dan ziet de temporal aliasing er meer uit als screen tearing. Dat gaat een CRT niet voorkomen.

[Reactie gewijzigd door bwerg op 24 juli 2024 20:46]

Er is absoluut een groot verschil tussen 250 en 500 Hz
Eeh, voor een heel kleine definitie van 'groot'. :)
Je kan onmogelijk het effect van bewegende graphics beoordelen middels een stilstaand plaatje.
De dubbele beelden van de 60Hz versie op de LCD monitor komen grotendeels doordat de camera uit sync gaat met het beeld. Dat is waardoor je ziet dat er uberhaupt 2 beelden tegelijk op het scherm staan.
De CRT lijkt dat effect niet te hebben ondanks dat ik het op een LCD bekijk. Met andere woorden, die CRT zou in principe geemuleerd kunnen worden en op een LCD kunnen worden getoond voor hetzelfde effect.
Een aantal van dergelijke technologische 'vooruitgangen' voelen aan als excuses om meer nieuwe (dure) hardware te blijven verkopen, zaken als 8k, 500Hz, etc. Erg mooi dat het kan, maar op een gegeven moment kan ik de 'kosten' niet langer verantwoorden. Niet eens qua prijs, maar ik kijk nu eerder naar verbruik. Waarbij een high end 32" 4k monitor van 120Hz al significant meer verbruikt dan een high end 32" 4k monitor van 60Hz...

Echter de Liquid Retina XDR display in de iPad Pro 12.9" (2022) is rond uit prachtig en draait wel op 120Hz, gezien hoe weinig deze hele package gebruikt (<4.5W browsing, <3.5W film streaming), kunnen sommigen wel degelijk energie zuinige monitoren produceren. Alleen schaalt het allemaal vrij ruk op naar groter leert de ervaring...

Ik heb er geen issue mee om meer te betalen voor kwaliteit en een hogere refreshrate (van 60Hz naar bv. 120Hz) kan ik het voordeel van inzien, maar ik ben niet bereid om weer een kachel in huis te nemen. Niet alleen het device zelf maar ook de hardware die het zou moeten aandrijven...

Ook hier zie je "Power Consumption (Typical): 86 Watt" voor een 24" monitor... Hell no!

Bron:
https://www.dell.com/en-u...ssories#techspecs_section
Zat zuinige grote monitoren, alleen niet deze want deze blinkt uit in Hz wat al die zuinige monitoren niet doen. Snap daarom ook niet wat je daarmee wilt zeggen eigenlijk.

[Reactie gewijzigd door watercoolertje op 24 juli 2024 20:46]

Snap daarom ook niet wat je daarmee wilt zeggen eigenlijk.
High quality, high specs, low power consumption. Choose two. Dat is wat ik ermee probeer te zeggen. Een 120Hz scherm van dezelfde kwaliteit, formaat, resolutie, etc. Verbruikt significant meer stroom dan een 60Hz scherm. Datzelfde zie je bij 120Hz => 240Hz => 480Hz, steeds significant meer stroomverbruik. Daarmee stel ik dat hogere refreshrate in het huidige landschap zorgt voor significant meer stroomverbruik en dat mij het niet waard is. 500Hz betekend (in dit geval) ~5x verbruik (typical)...

Ik zie het als een auto, ik zie nog het voordeel tussen 60km/uur en 120km/uur, maar zeer zeker niet het voordeel van 500km/uur... Zeker niet als deze vervolgens 4km/liter rijd...
Ik kriijg een nogal 'audiophile'-gevoel bij dit soort hardware. Zou wel eens argumenten willen zien die prestatieverhoging in shooters onderbouwen. Zelfs als je het verschil zou kunnen zien met 144Hz, dan lijkt me dat je er specifiek op moet letten. En dan nog, het is niet echt nodig om een doel te kunnen raken. Daarvoor heb je gewoon goed contrast nodig zodat een bewegend profiel opvalt. Vloeiend bewegende details zijn daarvoor niet eens nodig.

Voor alle andere toepassingen lijkt het me ook overkill. Dit is gewoon een excuus om een nieuw product in de markt te zetten. Beetje zoals 'gamer' chairs.
Ben ik de enige, of komt het misschien door de Sony Trinitron TV die we vroeger in huis hadden? Ik heb een sweet spot voor 100Hz, het is niet dat ik het verschil niet kan zien met meer, maar 100fps is gewoon lekker :P Daarnaast vind ik het ook wel fijn om games te limiteren tot die 100fps en daarmee gewoon klaar te zijn, het verbruikt net even wat minder stroom en het is zo'n mooi rond getal.
Ik kan het niet goed verklaren, laatst ook weer Quake2 op mijn OLED tv aan het spelen in 4K 120Hz op een RX6600, draait super geen schokje, geen tearing, nix. En toen ging ik nog even met wat video settings klooien want ben AMD niet meer zo gewend omdat al mijn andere pc's nVidia kaarten hebben dus ik zocht naar een framerate limiter zonder gebruik te maken van MSI afterburner of iets dergelijks en bleek dat je dat nu ook met de AMD software kan instellen (net als nVidia overigens, moest alleen ff zoeken hoe), maar resultaat met 100FPS limit en VRR aan is toch weer echt fenomenaal, die frequentie doet iets met me, echt apart. Anyway, ben ik nou de enige?

Ben benieuwd hoe lang het duurt voordat we 1KHz schermen krijgen, ik vind dit alleen wel echt weer een gevalletje van 'hoe hoger, hoe beter' marketing bullshit. Het is net als van die 1000watt PMPO luidsprekers die we rond het milennium overal zagen.

[Reactie gewijzigd door BruT@LysT op 24 juli 2024 20:46]

Dit zou een prima scherm zijn voor 3D brillen als NVidia 3D Vision, maar helaas wordt die niet meer ondersteund. Zou een veel rustiger beeld opleveren.
Wie ziet serieus meer dan 60fps?

Voor mij ziet dat er precies hetzelfde uit als 165fps. En ja, ik heb een "165Hz" monitor en ook erop ingesteld. Zonde. Games zet ik altijd op 60fps capped als die optie er is. Scheelt een hoop stroom, en ziet er exact even goed uit voor mij.

Hebben jullie allemaal een soort adelaarsogen ofzo? Ik snap echt niet hoe je zoveel fps zou moeten zien met mensenogen. Of ik wordt gewoon oud 🤷🏻‍♂️
Het verschil tussen 60 en 144 fps is erg merkbaar, vooral als je in een shooter met de camera van links naar rechts draait, bewegingen zien er veel soepeler uit. Als ik op 60fps speel 'voel' ik het schokkerige zeker.
Films zijn meestal 25-30fps, heb je daar dan niet enorm last van?
Films gebruiken motion blur, waardoor de fps minder opvalt.
Ja ook bij films is het soms enorm schokkerig als ze de camera horizontaal 'pannen'
Niet beledigend bedoelt, maar als je het verschil tussen 60Hz en alles wat daarboven zit niet ziet, dan is er wel wat mis met je beeldverwerking of ogen ja. :+

Ikzelf heb een telefoon met een 120Hz scherm, en een 144Hz monitor. Mijn laptop en andere beeldscherm zijn nog wel 60Hz, maar ik vind het persoonlijk onaangenaam om mee te werken; het voelt enorm schokkerig en traag. Ik zou zelfs durven te stellen dat het pijn aan m'n ogen doet. Maar zoals domiges al zegt: je moet je afvragen waar de grens ligt. Ikzelf heb nog niet echt een vergelijking gemaakt tussen 120/144Hz en hoger, maar 240Hz en hoger lijken mij voornamelijk waanzin. Misschien voor de hardcore CS:GO competitive players...
Als er iets mis is met mijn beeldverwerking, dan accepteer ik dat wel. We zijn immers niet allemaal perfect :) Ik zie het dan maar als voordeel. Ik voel me immers niet benadeeld als iets "slechts" 60fps is. Gek genoeg zie ik wel een heel duidelijk verschil in 1080p en 2160p, zelfs op een 15" laptopscherm. Dat vinden sommige mensen ook weer krankzinnig. En zo hebben we allemaal wel wat raars :+

Toch voelt het wel een beetje als de megapixelrace. Daar ook, boven een bepaald aantal MP heeft een goeie lens veel meer effect dan meer megapixels ertegenaan flikkeren. Gigahertzen bij CPU's ook vergelijkbaar: op een gegeven moment helpt het niet meer, en kun je beter de microarchitectuur verbeteren (en dat is ook gebeurd).
Ik moet zeggen dat ik wel een verschil merk bij het swipen/scrollen op mijn iPhone 13 mini (60hz max.) en de iPhone 13 Pro van een vriend van me (120hz max.) Dat ding voelt daardoor een stuk sneller en responsiever aan (niet dat ik te klagen heb over mijn eigen toestel, hoor).

De vraag is echter of er niet een punt komt waar het verschil slechts op papier merkbaar is. De stap tussen een 480p- en 1080p-monitor is veel merkbaarder dan het verschil tussen 4k en 8k (al is, in absolute pixels en hardwarebenodigdheden, die laatste een véél grotere stap!), dat lijkt mij tussen 240 en 500hz ook het geval.
Ik denk het is niet meer dat je het ziet, maar je merkt het wel!

Eeuwige discussie die wij makkelijk kunnen beindigen door het gewoon te accepteren dat sommige mensen het niet merken en de ander wel en klaar...

Er moet toch niet altijd een discussie zijn over zoiets..

Accepteer het gewoon en deal with it..

Op dit item kan niet meer gereageerd worden.