LG toont eerste 480Hz-oledpaneel met resolutie van 2560x1440 pixels

LG heeft een 27"-oledpaneel met een verversingssnelheid van 480Hz en een resolutie van 2560x1440 beeldpunten getoond. Dit is het eerste quad-hd-oledpaneel met een dergelijke refreshrate.

Het scherm, dat volgende week wordt getoond op de CES 2024-beurs en bedoeld is voor gaming, krijgt een responstijd van 0,03ms en maakt gebruikt van de META-technologie, schrijft LG. Dat laatste houdt in dat het paneel voorzien is van micro-lens array, een extra laag waarmee interne verstrooiing van licht binnen het substraat van het paneel tegengegaan wordt en een groter deel van het licht daadwerkelijk richting de kijker wordt uitgestraald. Dat betekent bij gelijke elektrische input meer lichtopbrengst, terwijl de kijkhoek van het scherm er niet onder te lijden heeft.

De fabrikant beweert daarnaast dat het oledscherm de 'minste hoeveelheid blauw licht uitstraalt in de hele branche' en ongeveer half zoveel als 'premium-lcd's'. Verdere specificaties worden niet genoemd. LG schrijft het paneel in de eerste helft van het jaar beschikbaar te willen stellen aan klanten. Die kunnen het scherm vervolgens in hun monitors integreren. Het is nog niet duidelijk wanneer de eerste monitors met dit paneel beschikbaar komen.

In december kwam LG al met een oledmonitor met een verversingssnelheid van 480Hz, al was de resolutie daarbij 'slechts' 1080p. Samsung introduceerde diezelfde maand een 360Hz-27"-monitor met een resolutie van 2560x1440 pixels.

LG-oledpaneel van 27" met 480-refreshrate en 1440p-resolutie

Door Kevin Krikhaar

Redacteur

04-01-2024 • 13:37

163

Reacties (163)

163
163
47
3
0
94
Wijzig sortering
Ik moet eerlijk zeggen dat ik niet heel goed thuis ben in verversingssnelheden. Kan iemand mij kort uitleggen wat de meerwaarde van 480Hz is ten opzichte van 240Hz? Is dat überhaupt nog waarneembaar voor het menselijk oog?
Voor bewegende tekst is het echt heel lekker nog om boven die 240 uit te gaan, echt significant makkelijker om het goed te kunnen blijven lezen in bewegende beelden. In spellen is het voornamelijk rustiger voor je ogen maar ik ben daar zelf heel gevoelig voor dus wellicht dat dat laatste niet veel boeit voor de meesten.

Overigens heb ik zelf liever 4K @ 240Hz dan 2K 1440p@ 480Hz, maar smaken verschillen uiteraard.

[Reactie gewijzigd door Seditiar op 22 juli 2024 19:39]

Dan wel weer jammer dat OLED nog steeds in het nadeel is met het weergeven van tekst.
Dat ligt niet aan OLED zelf, maar aan de pixel layout. Daar is bij dit scherm nog niks over bekend.
Maar is die bepaalde layout niet de standaard bij OLED schermen?
Ik moet de eerste LED scherm nog tegenkomen met dit issue..
Niet per definitie. Het komt door de toevoeging van een witte LED in veel OLED panelen waardoor je geen RGB pixels hebt, maar WRGB (met dus een totaal andere subpixel layout). In principe hoeft dat de weergave van tekst niet slecht te maken, maar Windows heeft nog altijd geen ondersteuning voor deze "nieuwe" layout zoals ze dat wel hebben voor de verschillende RGB layouts van traditionele LCD schermen. In Linux is het wel mogelijk om text goed leesbaar te krijgen op WRGB panelen, dus het is wachten op een update van Windows/ClearType.

[Reactie gewijzigd door roelst1 op 22 juli 2024 19:39]

Enig idee of dit beter is onder MacType(.net)? Dat probeert om windows font rendering te doen op de manier hoe Macs het doen.
Wellicht dat dit ook beter werkt voor sommige afwijkende pixel layouts (ik ben totaal geen Apple fan maar die hun font rendering ziet er stukken beter uit)
Zonder reverse engineering van hoe de subpixels aangestuurd worden is het niet mogelijk om subpixel anti aliasing te doen op WRGB-panelen.
Heb toen Mactype geprobeerd op een OLED maar kreeg er niet veel verbetering in.
Lg heeft de layout veranderd naar rgwb
Dus dat is bijna normaal rgb
Waar het eerst rwbg was wat voor rare alia sing zorgt, en samsungs was pentile wat ook problemen veroorzaakt.

Anyways iig lg’d niewe 4k scherm zou tekst grwoon netjes moeten renderen.
Neem aan dat dit de zelfde geupdate layout krijgt
Sterker nog, het ligt aan Microsoft, die bieden geen cleartype mogelijkheid voor rgwb schermen.
Er is een alternatief voor cleartype tegenwoorden: mactype, die precies doet wat Microsoft niet belangrijk genoeg vindt.

Het is in ontwikkeling (open source) en niet perfect, sommige gebruikers melden problemen met het starten van sommige programma's of het goed geïnstalleerd krijgen. Gebruiken op eigen risico dus.

[Reactie gewijzigd door GromuhlDjun op 22 juli 2024 19:39]

Ik heb een G8 OLED, ik wou eerst niet overstappen op OLED omdat ik las dat teksten niet goed leesbaar waren enzo. Maar na het instellen van Windows Clear Text is er helemaal niks aan de hand en is er niks waar ik mij aan stoor.
Zal per persoon wel verschillen dan. Ik merkte meteen dat het lezen van tekst op de monitoren op m'n werk veel fijner was en dacht gelijk "Dit is niet de bedoeling van zo'n duur scherm"

Heb verschillende combies geprobeerd van Clear text icm met Mactype maar kreeg het niet zoals ik wou.
Ik heb exact dezelfde ervaring, duur Asus OLED scherm ging heel snel retour, omdat tekst gewoon echt niet te doen was, ik werd er duizelig van en kreeg hoofdpijn. Met mijn premium LCD IPS scherm (270hz 1ms) geen last van.
Dit had ik zelf kunnen schrijven haha!
Toevallig ook de ASUS ROG Swift OLED PG27AQDM Zwart? :P
Kreeg dr inderdaad ook koppijn van, tekst zag er een beetje uit als je bijziend zonder lenzen/bril keek. Snel terug naar een goede IPS.
Yup! Dat scherm inderdaad :) Precies dat haha.
Haha dacht het al :D
Toevallig ook last gehad van Vertical Banding?
Voor de rest wel een prachtig ding om naar te kijken qua design. Deed wel ff zeer toen die weer retour moest..
Wat Vertical banding betreft, is mij niet opgevallen, dus denk het niet. Maar wel zonde dat een scherm voor die prijs (momenteel nog steeds rond 900-1000) dat soort kuren heeft. Simpelweg tekst niet goed kunnen weergeven voor die prijs is in mijn ogen (letterlijk en figuurlijk) onacceptabel. Verder zeker een mooi scherm, en absoluut zonde dat hij retour ging, had gehoopt dat het scherm de verwachtingen waar zou maken :')

[Reactie gewijzigd door Th3Abel op 22 juli 2024 19:39]

Wat is nadelig?
Ik vind het juist prettig om text op oled te lezen.

Burn in maatregelen kun je wel nemen.
Burn in was ook ik niet zo bang voor. Maatregelen zijn een beetje een peace of mind dingetje maar niet persee nodig. Voor de tekst, lees/google ook "oled text fringing"
thx, met de Oled smartphone en Oled TV nooit opgevallen mbt text(scherm als monitor gebruiken), zal er eens opletten, af en toe wel Pixel shifting.

[Reactie gewijzigd door mr_evil08 op 22 juli 2024 19:39]

Hoe dicht je op het scherm zit speelt inderdaad ook mee TV's staan over het algemeen wat verder weg dan monitoren. Smartphones, naast een hogere pixeldichtheid, hebben lettertype-renderers geoptimaliseerd voor de subpixel-indelingen, terwijl Windows dat in hoge mate... niet doet.
In de realiteit heb ik echter geen verschil gemerkt. Dus ook al is het op papier in het nadeel, maakt dat voor het eindresultaat volgens mij weinig uit.
Dat het voor jou subjectief geen nadeel is, wil niet zeggen dat het er niet is. Oled text fringing is gewoon een bekend issue. Rtings heeft hier wel een leuk stukje over. Daar zie je overigens dat OLED's hier gewoon heel matig in scoren.
Dit is geen samsung qd oled paneel dus die heb dat probleem niet
Ehm jawel. qd of niet, text fringing is inherent aan OLED.
4K is vier keer zo zwaar als 2K. Zelfs voor de 4090 is 4K 240fps wel haalbaar maar 4K 240fps vrijwel onmogelijk in triple A's met hoge settings.

[Reactie gewijzigd door Osiummaster op 22 juli 2024 19:39]

2k = 1440p, dus 2560x1440 = 3.686.400
4k = 3840x2160 = 8.294.400
8.294.400 / 3.686.400 = 2.25.

4k240 is inderdaad vrijwel onmogelijk in een hoop spellen, daar zal je een 5090 voor moeten aanschaffen ooit. Een 7800X3D voldoet over het algemeen ook niet in de nieuwere en zwaardere spellen.
Oeps ik dacht dat 2K alleen 1080p was maar blijkbaar wisselt het gebruik van de term tussen 1440p en 1080p. En sinds deze monitor 1440p is heb je helemaal gelijk.
Nee 2K is een verschrikkelijk term welke mensen en bedrijven sinds de opkomst van '4K' als term om 3840x2160 aan te duiden voor zowel 1080P als 1440P door elkaar zijn gaan gebruiken waarbij niemand vaak van elkaar weet wat er nu specifiek bedoeld wordt en je keer op keer dit soort verwarrende discussies krijgt :+

Maar als je hem dan toch zo zou willen gebruiken dan is 1080P correcter als zijnde resolutie met ongeveer 2K pixels in de breedte. 1440P zou dan 2.5K zijn :P

@krentebol
Helaas, 'UHD/Ultra-HD' label mag tegenwoordig ook gebruikt worden om 1920x1080 + HDR aan te duiden :Y)
Wat ik zelf nog altijd doe is gewoon het aantal verticale beeldpunten (1080P, 1440P, 2160P(al gebruik ik voor die laatste ook wel eens 4K omdat die vrij duidelijk is)), en bij een afwijkend aspectratio dan 16:9 typ ik het wel even helemaal uit :P

[Reactie gewijzigd door !mark op 22 juli 2024 19:39]

Ikzelf gebruik altijd Full-HD, Quad-HD of Ultra-HD om de resoluties te beduiden. Dit lijkt mij toch de makkelijkste manier
Ik gebruik resoluties om resoluties aan de duiden, geen twijfel/discussie mogelijk. :Y)
Ik snap ook niet helemaal waarom 2K gebruikt wordt, ik gebruik zelf ook eigenlijk altijd 1440p maar teveel op Twitch rondgehangen recent :+
2K is een mega verwarrende term die je eigenlijk maar zelden buiten nederlandse fora ziet. Ik weet ook nooit wat iemand ermee bedoelt. Kan 1080p of 1440p zijn idd.
Toen ik het voor het eerst zag vond ik het ook vaag ja, op zich nog steeds een beetje dus ik snap de verwarring wel.
Ik dacht altijd dat ze met 4K bedoelden dat de het aantal pixels 4x zo hoog is als een 1080p scherm (2x breedte 2x hoogte). Een 1080p scherm zou dan 1K zijn en een 1440p scherm ~2K.

Neemt niet weg dat het een onzinterm is die niemand zou moeten gebruiken.
4K is het aantal pixels naast elkaar, en 1080P is het aantal pixels boven elkaar.

1080P is meestal 1920x1080, waarbij de 1920 nagenoeg 2K is. 4K (UHD), is dan 3840*2160.
van Full HD naar 4K/UHD is daadwerkelijk 4x zoveel pixels.

1440P is QHD, Quad HD, en dat is 4x HD ready.

@Seditiar heeft het dus, aldus wikipedia, fout met het 2K noemen van 1440p, gezien het artikel het heeft over een scherm met een resolutie van 2560x1440. Als het 1920x1440 ofzo zou zijn, zou je het wel 2K mogen noemen én 1440p, maar dat is hier niet aan de orde.
Nee. Het is K van kilo. ofwel 4000.

Dat 4Keer hoor ik heel veel vaker van mensen, maar dat slaat als je iets dieper nadenkt nergens op aangezien het geen nederlandse term is. Maar goed, niet iedereen denkt daarbij na.

4K is ook een flutterm die we te danken hebben aan de marketing afdeling. We hebben al HD, Full HD, Quad HD en Ultra HD voor 720 1080 1440 2160. Waarom iemand met een arbitraire andere naam moest komen geen idee

[Reactie gewijzigd door youridv1 op 22 juli 2024 19:39]

2k kan nooit 1080 zijn, waar komt die aanname vandaan?
4K heet 4K omdat het 4000 pixels in de breedte zijn. 3840 precies of 4096 voor cinema. 1080p is doorgaand 1920, ofwel de helft -> 2K.

Nederlanders lijken nog wel eens te denken dat het voor 4Keer staat, maar dat werkt natuurlijk niet in bijna alle andere talen op deze planeet en is ook niet waar het vandaan komt. De K is voor kilo

2K zou 1080p moeten zijn maar eigenlijk moet je het gewoon niet gebruiken
1440p is op zijn best 2.5K of 2.6K, geen 2. Waar zou de 2 op moeten slaan?
Noem het gewoon 1440 of QHD. Dat is tenminste duidelijk

En zo krijg je dus verwarring want sommigen nemen wel aan dat 2K 1440p is en daarom moet niemand die zelfverzonnen term gebruiken want er is geen enigheid

[Reactie gewijzigd door youridv1 op 22 juli 2024 19:39]

Thanks voor t uitleggen, dit verhelderd het een boel.
Terwijl eigenlijk 2160p nog dichter bij 2K zit. Kan je 1K, 1.4K en 2K gebruiken als termen, veel makkelijker.
En dan kloppen de verhoudingen ook ongeveer, tussen 1K, 1.4K en 2K. Je kan ze dan gewoon kwadrateren. 1.4x1.4 ~ 2 2x2 = 4. 2 keer zoveel pixels, 4 keer zoveel pixels.

Maar goed, logica is niet besteed aan marketing mensen. Daarom hebben we in de mobiele internetwereld ook al zoveel Gs.
FHD = 1080p.
HD = 720p.
:)
Hij heeft het over bewegende tekst, geen AAA games ;)
Met dat soort hoge refresh rates is frame generation ook een uitkomst, net zoals dat upscaling dat voor 1440p en 4k is.
Ik vraag me wel af wat de wijsheid is in het optimaliseren van een situatie die weinig voor zal komen zoals het lezen van scrollende tekst. De schakeltijd van pixels wordt op een bepaald moment de bottleneck, sneller dan dat aansturen heeft niet zoveel zin.
Eens, vind ik zelf ook niet heel boeiend vandaar dat ik liever de resolutie omhoog doe dan nog eens een verdubbeling in refreshrate te doen vanaf 240.
Dan is ook nog maar de vraag voor welke games je dit kan gebruiken.

Enkel oude games en een zeer goede CPU/GPU kan je 240+ fps bereiken.
Tja, leuk dat het kan maar een dergelijke refreshrate lijkt mij een beetje stroomverspilling...

Weet niet of dit ook voor 480 Hz geldt, maar de stappen van 144->240->360 zijn voor de meeste mensen moeilijk waar te nemen. Professionele counterstrike spelers menen dat het iets responsiever en vloeiender aanvoelt.
In hoeverre kosten meer fps ook daadwerkelijk meer stroom? Is dat significant tov een en ander scherm met dezelfde resolutie, afmetingen en helderheid?

Begrijp me niet verkeerd, ik zie de huidige fps race net als de megapixel race: technisch indrukwekkend maar compleet nutteloos voor de gemiddelde consument (met andere woorden marketing), maar is energieverbruik en valide argument?

En als het al zo is, hoe verhoudt zich dat dan tot het verbruik van de gpu die alle frames moet berekenen? Ik bedoel, weer hebben het dan over een 4080 of 90?
Maar ook hier op het forum zie je dat mensen vallen voor de reclamekreten. Er zitten er altijd wel een paar tussen die claimen dat hun zicht zo goed is dat ze het allemaal kunnen waarnemen. Een A-B test zou wel eens leuk zijn om te doen. Idee voor de redactie om dat een keer te organiseren?
zeker goed idee Frame164! er ligt vast nog wel een draaiboek van de vorige A-B test van 60 vs 120Hz. Dit is namelijk al eens gedaan 10 jaar geleden. https://www.youtube.com/watch?v=GCnXAEdPDSo
En als ik de diverse youtubers zie met hun ervaringen over hogere frequenties wordt echt wel positief gereageerd

Ik geef toe, ik val op zijn tijd wel eens reclamekreten. En toegeven dat een upgrade mijn geld niet waard was blijft toch vervelend om te doen.
als ik de diverse youtubers zie met hun ervaringen over hogere frequenties wordt echt wel positief gereageerd
De meeste krijgen die spullen gewoon kado of minstens gratis in bruikleen mits ze het spul genoeg hypen. Ik ben al lang geleden gestopt met youtubers te zien als objectieve partijen ;)
480 FPS op zelfs "maar" 1440p wil je echt wel een 4090 hebben. 4K @ 240Hz trekt mijn 4090 vrijwel leeg zelfs in relatief simpele spellen als Counterstrike 2. 4K heeft 2.25x zoveel pixels als 1440p, dus 480 @ 1440p is net iets lichter, maar een 4080 is significant minder snel dan een 4090, dus dat laatste lijkt mij wel een vereiste.

Valorant draait nog wel een stuk makkelijker, dus wellicht dat je daar wel met een 4080 of een 7900XTX genoeg rekenkracht hebt.
Ja, de stappen worden marginaal klein bij zo'n 1000hz. volgens de persoon achter blurbusters.com

Makkelijkste om waar te nemen is leesbaarheid van tekst. Zoals je een folder voor je ogen beweegt blijft de tekst altijd scherp. Met 120 /240 hz is dat nog steeds heel onscherp in videogames.

Bij games zie je dat ook, want als jij beweegt of er beweegt iets kleins in de verte wil je dat eigenlijk zo snel zo scherp mogelijk zien. (de zogenaamde letters) Bij shooters is dit belangrijk omdat dat het verschil kan zijn tussen winnen en verliezen.

[Reactie gewijzigd door Torched op 22 juli 2024 19:39]

Geen, misschien uitzonderlijk voor pro gamers, maar zelfs daar betwijfel ik.
Het gaat er niet per se om of het waarneembaar is met het oog, maar of de input (muis, toetsenboard) met dezelfde refreshrates verwerkt wordt. Als dat op een andere frequentie is, krijg je dus dat het niet helemaal synchroon is, niet iedereen vindt dat even lekker spelen.
De verversingssnelheden van je muis en toetsenbord hebben niks met die van je scherm te maken. De meeste gaming muizen hebben al een verversingssnelheid van boven de 1000hz trouwens. Terwijl er geen 1000hz schermen bestaan.

Zowieso zou een muis nooit synchroon kunnen lopen met je scherm, er zit altijd verwerkingstijd van de muis actie door de computer tussen. Je muis beweging moet immers wat "doen" in het spel.
Sommige spelers willen een zo minimaal verschil hebben tussen de verversingssnelheden van beeld en de input.
Volgens mij is het eerder dat ze denken dat ze dit willen. Maar het eigenlijk helemaal niet nodig hebben of het verschil merken. Zelfs bij Pro-Gamers is het verschil tussen 144 en 240 HZ nauwelijks te zien volgens dit niet echt wetenschappelijk onderzoek:

LTT, Does more FPS make you a better gamer?
Het gaat niet allern om wat je bewust ziet, maar om de feitelijke latency.
Maar die link van mij geeft dus weer dat deze verschillen zo klein zijn dat het zelfs voor een pro gamer geen verschil maakt.

Nu is die test niet echt wetenschappelijk te noemen, maar de resultaten liggen wel in de lijn der verwachtingen: De "muis naar scherm latency" is al ongeveer 15ms doordat de PC ook nog wat met de input moet doen. En dit is bij een E-sport game dat hiervoor geoptimaliseerd is! Maar nog erger, de reactietijd van een mens op visuele stimulatie is al meer dan 200ms: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4456887/

2ms meer of minder voor een scherm dat mogelijk een paar honderd euro meer gaat kosten is dus eigenlijk vooral voor de marketing en niet voor daadwerkelijke game performance.

Perceptie van vloeiendheid en scherpte bij beweging zijn misschien relevantere redenen voor een scherm boven de 240hz.
Een gemiddelde mens is 200 -250ms, maar bij sommige topsporters en sommige gamers kom je op getallen daaronder. Ik zit zelf op 180ms maar ken ook een paar freaks die nog wel een stuk sneller waren.

Het feit dat je muis 15ms toevoegt aan de algehele latency keten betekent niet dat het niet zin heeft om een paar ms winst te halen doordat je scherm eerder laat zien wat je moet zien. Sneller is altijd beter. Je hebt het bij 2ms sneller nog steeds over 1 of 2 procent winst relatief aan de totale mechanische plus menselijke latency. Ik ben het wel eens dat nog sneller wel echt steeds marginaler wordt. Die 15ms latency van je muis is dan een relevanter verbeterpunt.

[Reactie gewijzigd door PjotterP op 22 juli 2024 19:39]

Ik denk dat er maar heeeeeeeel weinig mensen zijn bij wie die 1 tot 2% snellere weergave ooit een verandering in game prestaties gaat opbrengen. Dan moet je echt top 1% CS speler zijn ofzo.

Als je dat bent, top! Zo niet, dan is het belangrijk dat deze mensen weten dat ze dit niet nodig hebben en dus geen geld aan verspillen.
Ik denk dat de groep wel iets groter is. Iedereen die een beetje fanatiek is gebaat bij minder latencies in de hele keten van server, netwerk, client, scherm en eigen reactietijd.

Dat er nog tal van andere factoren zijn in je prestaties buiten je eigen reactietijd en systeemmechanische latencies is helemaal waar uiteraard. Maar dat maakt bovenstaande geen onzin.

Bovendien zijn ultra high refreshrates visueel erg prettig (al is daar ook sprake van een verminderde meeropbrengst hoe hoger je gaat uiteraard, tot een punt dat het niet bewust zichtbaar meer is. Als je het voor de smoothness doet (ie wat je bewust ziet) en niet voor de latencies doet (waar ook wat je zelf niet bewust altijd merkt lagere latencies alsnog nuttig zijn) dan is meer dan 250hz niet heel zinvol. Maar van de groep spelers die een bepaalde competetieve shooter speelt, is de fanatieke groep (die geeft om latencies)echt wel meer dan 1 procent.

[Reactie gewijzigd door PjotterP op 22 juli 2024 19:39]

En daarbij is het verschil tussen 0,0041666... en 0,00208333... niet echt op te merken.
Toch zeker niet als je een ping hebt van 0,01 seconden
Zucht. Het gaat om de optelling van alle latencies. Dus 2 ms afschaven is wel nuttig, ook al merk je het niet bewust. Ik ben het wel eens dat zodra je onder de 1ms ‘winsten’ komt het nut zeer discutabel wordt. Maar 1 of 2 ms zit je toch nog in percentuele winsten afgezet tegen je eigen reactietijd. Dat is het mij wel waard.

[Reactie gewijzigd door PjotterP op 22 juli 2024 19:39]

meerwaarde is meer fps.
Dan kan mijn videokaart eindelijk op marktplaats :+

Ik heb het idee dat de Hz hype hetzelfde is als bij de processoren, "meer is beter".
Tijdens het gamen heeft het daadwerkelijk nut, het beeld is veel vloeiender bij snelle games (die deze FPS halen) en dus kun je daar je voordeel uit halen. Nou zal het voor de huis tuin en keuken gamer niet veel uitmaken of het nou 240 of 480hz is, maar zodra je in de top klasses gaat spelen kan het zeker in je voordeel werken.
Welke GPU heb je dan dat je WQHD op 480Hz haalt? Of is het minesweeper wat je speelt?
Counter Strike 2 kan je prima op 400+ FPS draaien, zelfde geldt voor Valorant R6 Siege etc.
Klopt, ik speel cs2 met een rtx 4090 en heb bijna alles op max staan (4xmsaa) 2560x1440p en haal rond de 400 als standaard met uitschieters naar 6 & 700.
Ik zit ook rond de 300 FPS op een 4k scherm (settings wel omlaag) icm een 6950XT en 7600 (non-x)
Valorant, CS2 zijn enkele voorbeelden die dat wel halen, ook met een lagere GPU dan een 4090.
Leuk scherm voor die 0,0001% van de spelers in de top klasse.
Ik denk inderdaad dat het op een gegeven moment ook een placebo effect wordt waarbij zo genaamd top gamers alleen nog maar denken dat het beter is. Ik geloof niet dat iemand nog het verschil ziet tussen 240 of 480 hz
Misschien naast elkaar een opstelling.
Gewoon rondjes maken met je muis, daar zie ik het altijd aan. Maar dat is 60 vs 144.
(nondeju.. stond op 60hz)
Het gaat ook niet echt meer om wat je ziet. Het gaat meer om de inputlag (muis druk tot photon uit scherm). Dit gaat sneller als je scherm de FPS die gerenderd worden ook daadwerkelijk kan weergeven.
Als je 480 fps hebt en geen synchronisatie hebt (g-synch freesynch v-synch etc) dan is de input sneller maar je ziet het niet veranderen op het beeld, en je krijgt screen tears.

Nu is het verschil tussen 144hz en 480hz niet zo groot verschil als 30 en 120hz met het oog op input lag. Maar de beeldjes zijn wel veel helderder/scherper, geen tearing, en zeer korte input lag.

Een youtuber die heel goed is in twitch shooters en ook een passie voor hardware heeft doet een boekje open over hoe het is om op 540Hz te spelen, en deelt zijn ervaring: https://www.youtube.com/watch?v=nqa7QVwfu7s
geloof dat oa shroud een test heeft gedaan met mhz en effect daarvan op zijn gameplay. ik krijg de exacte film niet zo snel gevonden. deze lijkt er bij in de buurt te zitten; https://www.youtube.com/watch?v=_i5kwV8S1hU
Die gasten worden natuurlijk zwaar gesponsord door de monitorfabrikanten waardoor ze meer verkopen aan wannabe pro gamers die bij lange na de skills of het reactievermogen niet hebben om daar iets aan te hebben.

Beetje hetzelfde als wel de instrumenten van je favoriete popster kopen maar niet het talent hebben om ze net zo te bespelen ;)
Zeker mee eens, daarom geef ik ook aan dat de huis tuin en keuken gamer er vrijwel geen profijt van heeft, maar dat je dat pas gaat merken als je echt richting de top / pro gaat.
https://youtu.be/OX31kZbAXsA

Deze toevallig? Stond mij bij dat het een test van Linus was maar Shroud staat er (ook) bij...

[Reactie gewijzigd door watercoolertje op 22 juli 2024 19:39]

yup - verkeerd onthouden dus; ging over fps, niet direct over hz
Voornamelijk een lagere inputlag. Of je het verschil ziet tussen 120fps of 480fps vraag ik me af, maar er is een meetbaar lagere inputlag naarmate de refreshrate en het aantal fps stijgt. Sommige mensen denken daadwerkelijk baat te hebben bij die ene paar milliseconden dat ze sneller kunnen zijn met deze hardware. Dat terwijl het reactievermogen van de mens dat niet eens bij kan benen. Ik durf wel te stellen dat een mens geen baat heeft bij 480hz.
Sommige mensen denken daadwerkelijk baat te hebben bij die ene paar milliseconden dat ze sneller kunnen zijn met deze hardware.
Of het genoeg verschil is valt over te discussiëren maar niet of er een verschil is, dat is er namelijk wel!

Als je scherm normaal veranderd in 16ms en jou reactievermogen is 200ms (prima haalbaar), dan heb je dus 216ms na het zien van beweging een reactie (van jezelf) daarop. Als het nu maar 10ms duurt ipv 16ms, kom je op 210ms en dat is gewoon sneller dan 216ms natuurlijk :)

Als jij iets eerder ziet reageer je ook eerder, ongeacht hoe goed je eigen reactievermogen is...

[Reactie gewijzigd door watercoolertje op 22 juli 2024 19:39]

Uiteraard is er meetbaar verschil, dat is gewoon een feit. Online lees ik dat de snelste reactie op een visuele response door een professionele gamer tussen de 100-120ms ligt. Dit soort verversingssnelheden gaat de menselijke reactievermogen volledig boven de pet. 210ms of 216ms, of whatever is natuurlijk niet waarneembaar door een mens.
Waar komt die illusie vandaan dat je het zelf waar moet kunnen waarnemen om nut te hebben?

De computer ziet pietje 6ms eerder schieten (want hij heeft 6ms voorsprong) op jantje en daardoor is jantje ingame dood en pietje leeft nog...

Dat is niet iets wat je merkt in de zin dat je weet dat het specifiek daardoor komt, maar het wel nut heeft, want uiteindelijk heb je meer kans dat je die kill pakt die je anders misschien niet had gepakt.

[Reactie gewijzigd door watercoolertje op 22 juli 2024 19:39]

Maar Jantje heeft niet geïnvesteerd in een dure Oled met 480Hz refresh rate.

Jantje gaf het uit aan betere netwerk apparatuur waardoor zijn ping met 10ms daalde.

Is het toch Jantje die als eerste schoot.

Zo blijf je dus bezig. Minimale verbeteringen tegen hoge kosten. Is het gewoon niet waard.
Meh het verschil is blijkbaar zo klein, dat zelfs pro-gamers nauwelijks baat hebben bij 240 vs 144 HZ. Het verschil tussen 60 en 144 is dan weer wel te zien.

Niet heel wetenschappelijke "studie" echter:
Does High FPS make you a better gamer? Ft. Shroud - FINAL ANSWER

[Reactie gewijzigd door Taipan op 22 juli 2024 19:39]

Optimum heeft een mooie video op Youtube. https://www.youtube.com/watch?v=nqa7QVwfu7s
Hierin vergelijkt hij 240, 360 en 540Hz met elkaar. Oké, het is geen 480Hz die hij vergelijkt, maar het geeft wel een goed beeld wat een veel hogere refresh rate dan 240Hz doet met het beeld, paar dit samen met de pixel reponse time van 0,1ms van OLED panelen zal dit voor sommigen zeker een mooi esports monitor zijn.
Dit soort dingen zijn zeker waarneembaar. Ik heb zelf competitief FPS gespeeld (nooit heel goed geweest hoor, maar aan toernooien meegedaan), en het verschil is duidelijk merkbaar. Het maakt echt heel veel uit voor de interpreteerbaarheid van je beeld of je tijdens een snelle flick 4 frames te zien krijgt of 20. Bij die laatste krijg je veel meer informatie mee over waar dingen zijn en hoe ze bewegen, bij de eerste lijkt het wel of je tijdelijk blind bent want alles verspringt veel te snel. Zichtbaar is het dus zeker. Of je daar gebruik van kan maken hangt af van je skill level, als gewone sterveling zal het geen verschil maken, maar in sommige echte pro matches zijn de marges miniem en wil je alles op alles zetten wat dat betreft.
Je vergelijkt nu 4 frames tov 20 frames. Daar gaat het hier niet over.

480 frames per seconde klinkt wow maar hoeveel informatie kan het menselijk oog/brein per seconde verwerken?

Boven een bepaalde framerate doet het er nauwelijks nog toe.
Laat ik het zo zeggen: ik heb een 360 Hz scherm en dat verschil zie je. Ik weet niet wat 480 nog verder doet maar ik zie niet in waarom het bij 360 zou stoppen.
Je loopt tegen de menselijke beperkingen aan. Hoeveel informatie kunnen je ogen per seconde verwerken? Ergens zit een grens waar je simpelweg geen verschil meer kan zien.
Het verschil van 60Hz naar 240Hz is groot en merkbaar voor iedereen, maar ik denk dat als je nog hoger gaat het verschil steeds kleiner wordt en voor steeds minder mensen merkbaar.. 240Hz is meer dan genoeg voorlopig, in de meeste nieuwe games ga je dat soort fps sowieso voorlopig toch nooit halen.. 480Hz etc klinkt leuk maar is voorlopig puur marketing en placebo denk ik..
Paar jaar geleden eens naar aanleiding van een discussie hier op Tweakers het één en ander opgezocht.

De gemiddelde mens kan het toenemende aantal hz tot aan een +/-600hz merken. Het is dan primair bij afwisselende hoge contrasten.

Sommige mensen (lijken) tot een 800-1000hz te kunnen merken dat het niet helemaal 100% soepel is.

In de praktijk merken de meeste mensen vanaf een 200-300hz niet meer het toenemende aantal hz.
Je beeld oogt soepeler, minder haperig, en al wordt dat verschil steeds minder hoe hoger je gaat in HZ, het blijft soepeler worden ook na 240 hz.

In een video die ik heb gezien over dit onderwerp hadden ze het erover dat ongeveer 1000hz overeen komt met ''real life'' qua hoe soepel je ogen de wereld zien als je je hoofd heen en weer beweegt,
Het komt ook omdat hardware steeds sneller wordt, een beetje mid end gaming pc kan in de meeste titels wel stabiel 500 fps draaien, dan gaan ze voor die doelgroep monitors maken met 500hz.

Denk dat we ook nog wel 1000hz monitors gaan krijgen, ook al is de input lag winst zo minimaal, duurt niet lang meer en een beetje gaming pc doet 1000 fps in esport titles, dan zul je de 1000hz monitors ook zien verschijnen.
Tot 144hz is er een echt merkbaar verschil. Daarboven wordt het rommelen in de marge.

Daarbij het feit dat iedere ogen normaliter identiek zijn opgebouwd, ervaart ieders brein input anders. Dus die verhogen kan bij iedereen anders ervaren worden.

[Reactie gewijzigd door tzeunis op 22 juli 2024 19:39]

Persoonlijk vindt ik 60 VS 120 echt een enorm verschil, maar 120 vs 240 al bijna praktisch verwaarloosbaar. Dus een paneel met 480hz wat mij betreft een Numbers race.
Ik denk dat 480Hz net zoals 8K wordt, het is wel een ding en het is ook wel beter, maar we zitten ook wel echt aan de grens wat het menselijk oog kan waarnemen met gewoon gebruik
ik kan me herinneren dat deze discussie over menselijk oog beperking er 5 a 10 jaar geleden ook was met de 100 a 120Hz variant. Je kunt gewoon in het algemeenheid zeggen dat hoe meer frames je hebt, hoe meer de ervaring richting natuurlijk gaat. Ook buiten wat het oog aan Hz kan waarnemen in de basis is het relevant. Zo ook met het aantal pixels (waar het helemaal nuttig is, als je met je snuffert op het scherm zit natuurlijk en schermen ook steeds groter).

de discussie kan je ook met geluidskwaliteit hebben natuurlijk. Je hebt altijd mensen die het merken. Dan heb je twee stromingen. Allereerst de early adapters en daarmee een groep die het er voor wilt betalen, daarnaast heb je het moment van doorbreken als standaard of niet en dan betaald iedereen het er standaard voor en wordt de rest als inferieur beschouwt wat je soms nog tegen komt in industriele toepassingen waarbij functie van bijvoorbeeld schermen op machines boven kwaliteit van weergave gaat.

[Reactie gewijzigd door mmniet op 22 juli 2024 19:39]

de discussie kan je ook met geluidskwaliteit hebben natuurlijk. Je hebt altijd mensen die het merken.
Let op dat onder de groep van mensen die iets merken (bijvoorbeeld MP3 320 Kbps vs. uncompressed) maar weinig wordt aangetoond dat zij daadwerkelijk een verschil merken en wat voor verschil dat betreft (d.m.v. een dubbelblindtest). Het placebo-effect kan dus sterk aanwezig zijn bij het maken van dergelijke conclusies. Zo zijn er zelfs mensen die claimen het verschil te kunnen horen tussen FLAC en uncompressed, wat beide (na eventuele decompressie) als dezelfde ongecomprimeerde bitstream verstuurd wordt naar een DAC. :+

[Reactie gewijzigd door The Zep Man op 22 juli 2024 19:39]

Let op dat onder de groep van mensen die iets merken (bijvoorbeeld MP3 320 Kbps vs. uncompressed) maar weinig wordt aangetoond dat zij daadwerkelijk een verschil merken en wat voor verschil dat betreft (d.m.v. een dubbelblindtest). Het placebo-effect kan dus sterk aanwezig zijn bij het maken van dergelijke conclusies.
Er is een goede verklaring waarom FLACs en andere meer "audiofiele" formaten soms écht beter klinken maar die heeft niks met bits & bytes te maken maar met productiekwaliteit.

Geluid wordt gemixed en daarbij wordt rekening gehouden met hoe de luisteraar naar muziek luistert. Dat kan grote invloed op de ervaring hebben.

Als je verwacht dat je muziek vooral via goedkope oordopjes geluisterd wordt over het geknetter van een scooter heen dan maak je andere keuzes dan wanneer je verwacht dat de luisteraar in geisoleerde kamer luistert naar speakers die per stuk meer dan die scooter kosten.

Van dezelfde muziek kunnen verschillende (re)mixes bestaan. Bijvoorbeeld eentje voor de radio, eentje voor spotify, eentje voor op CD en mix voor SACD. Daar zitten echte hoorbare verschillen tussen. Dat is een bewuste keuze van de mixer maar mensen denken wel eens dat komt door een verschil in compressietechniek omdat ze verwachten dat een dienst als Spotify of iTunes exact hetzelfde zou moeten klinken als de CD-versie.

[Reactie gewijzigd door CAPSLOCK2000 op 22 juli 2024 19:39]

Ik heb geen enkele moeite om verschil te horen tussen mp3 320 en sacd 5.1
Zelfs de sacd 2.0 versie omdat daar meer moeite ingestopt word dan in een Spotify release.
Compressie VS noncompressie is een irrelevante discussie.
Het gaat immers niet om de geluidsdrager maar het geluid zelf
Je hebt voor geluid inderdaad ook mensen met "golden ears". Maar die werken allemaal in de audioindustrie als tester van nieuwe spullen.
Je kunt gewoon in het algemeenheid zeggen dat hoe meer frames je hebt, hoe meer de ervaring richting natuurlijk gaat.
Ook buiten wat het oog aan Hz kan waarnemen in de basis is het relevant.
Je ogen werken alleen niet met Hz dus ik kan me voorstellen dat het effect van een hogere refresh tot op zekere hoogte wel waarneembaar is.
Zal alleen erg aan de ogen liggen hoe ver je kan gaan voordat het verschil praktisch onwaarneembaar wordt.
Ik heb me ooit laten vertellen dat het voor de gemiddelde mens moeilijk word verschil te zien boven 240Hz.
Dat gezegd te hebben, zal het voor velen wellicht nog beter "aanvoelen" omdat het scherm een lagere responstijd heeft.
Wat veel mensen (en onderzoeken) lijken te vergeten is dat we gewoon gewent zijn geraakt aan 24-30fps of 50-60hz. Vooral die 24fps hebben we gewoon aan moeten wennen, ons brein hebben we daar voor moeten trainen om de gaten beter op te vullen. (En technieken zoals motion blur om het effect te verzachten)

Geluid is een hele andere discussie, wat wij met speakers produceren is exact waar het oor op geëvolueerd is.

Het menselijk oog werkt niet met hz, maar met veranderingen op individuele "pixels" waarop ons brein een enorme hoeveelheid beeldverwerking toepast. Ons oog is niet geëvolueerd voor de manier waarop wij beelden produceren, we hebben een brein die daar mee weet om te gaan.

Dankzij dat vernufte stukje evolutie in dat brein van ons, zul je hogere hz niet altijd direct merken. Maar kan het op de langere termijn zeker een positief effect hebben.

Met 480hz zijn we er bijna, 600-1000hz is waar we heen willen.

[Reactie gewijzigd door batjes op 22 juli 2024 19:39]

Voor de gein moet je je bericht over 10 jaar eens terug lezen.
We komen van 40+ jaar 50/60Hz af. Dus ik denk dat 480Hz idd. onder de 3d hype gaat vallen. Voor de gros van de mensen voegt het te weinig toe.
Nou er was een tijd dat er toch best wel wat CRT monitoren echt wel meer Hz ondersteunden. Bijvoorbeeld Iiyama HM204DT had de volgende refresh rates bij de verschillende resoluties:

2048 x 1536 @ 85Hz
1800 x 1440 @ 92Hz
1600 x 1200 @ 110Hz
1280 x 1024 @ 125Hz
1024 x 768 @ 170Hz

Pas toen we naar LCD gingen zaten we weer opgescheept met de lage refreshrates
Nou er was een tijd dat er toch best wel wat CRT monitoren echt wel meer Hz ondersteunden.
Nu was het bij CRT nodig om knipperen te verminderen. Bij een LCD/OLED-scherm is dat niet van toepassing.
Klopt, maar op LCD worden bewegende beelden echt wel vaag bij te lage refreshrate zoals 60Hz.. Dan is een verdubbeling naar 120Hz al een enorme verbetering.. In snelle FPS games als b.v. Counterstrike wil je ook echt niet meer met lage 60Hz refreshrate spelen, tenzij je jezelf bewust wilt handicappen.. Je krijgt gewoon veel minder informatie per frame te zien waardoor je ook minder goed en snel kan reageren.. Voor snelle shooter games moet je dus wel minimaal een 120Hz scherm hebben, en dan ook die fps halen met je videokaart.. Daarnaast is in Windows een hogere refreshrate ook al een stuk fijner om naar te kijken als je met zaken gaat slepen, tekst etc blijft gewoon een stuk scherper en rustiger voor je ogen.. Ik heb nu al jaren hogere refreshrate monitoren, eerst een 144Hz, nu een 160Hz en ik zou echt niet meer terug kunnen naar 60Hz.. Ik merk het meteen als om wat voor reden de boel weer op 60Hz staat.. 480Hz lijkt me wel wat overkill voorlopig, denk niet dat veel mensen het verschil zullen merken met 240Hz wat al heel snel is.. Hoe hoger je gaat hoe kleiner de "winst" wordt zeg maar.. Maar 60Hz kan anno 2024 echt niet meer vind ik, zeker als PC FPS gamer..

[Reactie gewijzigd door Inflatable op 22 juli 2024 19:39]

TV's werkte prima met 50hz. De eerste thuiscomputers werkte daar ook prima op zonder ogenschijnlijke knipperingen.

Dat knipperen verminderen is eigenlijk wat we met hogere refreshrates juist proberen te bereiken?

Bij LCD/OLED is dat net zo hard van toepassing. De reden dat je met lage refreshrates geen flikkeringen ziet is omdat de fosfor b.v. nagloeit. Is net wat langer actief dan de tijd dat ze energie krijgen zodat er wel zoveel mogelijk een continu lichtbron is. LCD/OLED pixels blijven gewoon branden tot de volgende refresh. Ons brein plakt die beelden aan elkaar tot een soepel ogende beweging.

Haal alle technieken weg die we toepassen op onze beeldschermen en laat 60x per seconde 0,1hz lang een frame zien en je zal vrij snel misselijk worden of heel snel vermoeit zijn.

[Reactie gewijzigd door batjes op 22 juli 2024 19:39]

Misschien tijd om een 8K 3D curved screen met 480Hz refreshrate op de markt te brengen. Dan hebben we alle hypes in 1 product zitten.
En wat gaat dat aandrijven?
Jij bent geen gamer zeker? ;)
Geen fps gamer idd
ik denk dat dat meevalt. PC resolutie is ook hard gestagneerd. We zitten al ik weet niet hoe lang op 900-1024-1080p en de meute is nog steeds nog lang niet over. Niet zo gek ook. Een 200-300 euro gpu is nog steeds geschikter voor 1080p dan 1440p.

480hz zal altijd iets voor esporters blijven denk ik.

Momenteel zijn esports fps zoals counterstrike etc op hun populairst in hun hele geschiedenis, dus het is logisch dat high refreshrate monitoren dat ook zijn. Maar die populariteitspiek hoeft niet te blijven.

[Reactie gewijzigd door youridv1 op 22 juli 2024 19:39]

Resolutie is als het op beweging aankomt véél minder een bottleneck dan framerate. Reken even mee =>

Stel je panned van links naar rechts. Zelfs als je dat niet absurd snel doet, beweegt het hele beeld makkelijk in een seconde van links naar rechts op je scherm. Zeg: 60 cm.

Bij een framerate van 60 Hz zit dan maar liefst 60 cm / 60 = 1 cm tussen twee frames van hetzelfde beeld.
Ook bij 480 Hz is het nog steeds 1,25 mm.

1,25 mm is toch niks zou je zeggen, maar dat is zelfs bij slechts full HD nog steeds 5 pixels (uitgaande van 100 ppi, wat een normale dotpitch is bij een full-HD-monitor).

Ergo: Een hogere framerate heeft een veel grotere invloed op ervaren (perceived) scherpte dan resolutie.
En dat zie je ook als je niet gamed (ik game al 20 jaar niet meer) => als er een vrachtwagen met text voorbij rijdt op je 4k-tv kun je nog steeds nauwelijks lezen wat er op de vrachtwagen staat. Zo wazig is het.
In een video over dit onderwerp hadden ze het erover dat vanaf 1000hz het gelijk is met hoe onze ogen de wereld zien in de realiteit.
Ik ben wel benieuwd of je het verschil tussen 240 en 480 hertz zou merken.
Als je van 120 of lager afkomt waarschijnlijk niet.
Dan moet je echt al gewent zijn aan hoge refreshrates om het verschil te zien.

60hz is 16.6ms,
120hz is 8.3ms
240hz is 4ms
480hz is 2ms

Zoals je kan zien de tijd winst wordt steeds minder.
En tenzijn je een pro gamer bent heb je er niets aan.

Persoonlijk denk ik dat 240hz een goede refreshrate is voor een soepele ervaring
Als je geen constante 480 frames per seconde haalt heb je er niets aan, en let dat DLSS hierbij niet telt. DLSS werkt namelijk niet als je de camera snel beweegt waardoor je grote dippen in FPS krijgt. Het heeft dus alleen zin in competitive spellen waarbij je met ruwe kracht op alle momenten 480FPS haalt. Het verschil is dan tegenover een 144hz monitor dat je bewegende tekst veel beter kan lezen en je minder after-image hebt op scherpe randen. Het gaat dus niet zozeer om hoe "snel" je een tegenstander kan zien.
Op mijn desktop kon ik het verschil tussen 120 en 240 wel merken bij bijvoorbeeld het verslepen van vensters in Windows. Meeste games die ik speel halen nauwelijks meer dan 120fps op m'n 3080TI dus daar zal ik er niks van merken :P

Vermoed dat het verschil steeds slechter waarneembaar is hoe hoger je gaat.
Vermoed dat het verschil steeds slechter waarneembaar is hoe hoger je gaat.
Dat klopt, elke verdubbeling in hz/fps is een halvering in vertraging, dus elke verdubbeling biedt maar de helft van het voordeel van de vorige verdubbeling.

Dat zie je ook goed terug in de cijfers in de post direct boven je.
Zo'n goed scherm dat de Koreaan in de foto er niet eens naar kijkt
Ik snap hem wel.
Dit heb ik ook met mijn vrouw, ze is zoooo mooi dat ik haar niet durf aan te kijken....
Haha wife bad amirite? Boomer humor ten top
Dit is gebruikelijk met zo een fel OLED scherm; de kijkhoek is perfect echter neemt wel de hoeveelheid licht af. Als je als pro-gamer in een belangrijke wedstrijd zit dan is het soms sneller om een oled scherm een stuk te draaien, je kunt dit doen met je controller in de hand nog het spel besturend, gewoon een duw geven. Hierdoor ben je niet meer verblind door het felle licht en het is sneller dan naar de instellingen moeten gaan. Met je voeten kan je dan je positie weer aanpassen ten opzichte van het scherm mocht het weer minder fel zijn. Wat je op de foto ziet is alleen een momentopname hè, vaak zitten ze er maar enkele seconde zo voor. Je ogen iets dichtknijpen werkt ook maar je mist dan soms net iemand die in de schaduw verstopt zit
Zo'n goed scherm dat de Koreaan in de foto er niet eens naar kijkt
Dat weten we niet hè. Misschien staat er rechts ook eentje :P
Speelt ook op een PS4 pro die max 60fps kan. (maybe 120?)
Hij zit dan ook op een playstation aan 120fps te spelen op zijn 480hz scherm 😂
Er klopt ook iets niet met de hoek waaronder het scherm staat. Ook in relatie tot de standaard. Is het wel een officiele promotiefoto van LG?
Die voet staat ook scheef op het bureau, het ene deel van de V steekt links nog net niet voor zijn toetsenbord uit en het andere deel loopt parallel met het toetsenbord.
'minste hoeveelheid blauw licht uitstraalt in de hele branche' en ongeveer half zoveel als 'premium-lcd's'.
Hoe moet ik dit voor me zien? Er komt zoveel blauw licht uit als de PC naar 't scherm stuurt toch?

https://time.com/5752454/blue-light-sleep/
Er wordt tegenwoordig overigens getwijfeld over het concept dat blauw licht slecht is voor het in slaap vallen. Heeft wellicht meer met mentale activiteit tijdens het scrollen te maken dan met het licht van de apparaten.
Het feit dat er maar half zoveel blauw licht uitkomt lijkt mij niet een duidelijk direct voordeel, resulteert slechts in slechtere kleurweergave. Of wordt hier iets anders bedoelt?
Ook dit jaar de oude patronen qua monitor-eigenschappen overeind.

Grote schermen krijgen een exorbitant prijskaartje en vaak niet eens 4K UHD resolutie. Krijgen ze die wel, dan is de refresh rate weer minimaal of de beeldkwaliteit matig.
De fabrikant beweert daarnaast dat het oledscherm de 'minste hoeveelheid blauw licht uitstraalt in de hele branche' en ongeveer half zoveel als 'premium-lcd's'.
Waarom is dat belangrijk? Toch niet het fabeltje dat je niet kan slapen van blauw licht?
Ieder beeldscherm is slecht voor je slaapgedrag, zeker de schermen die actief licht uitzenden (dus alles behalve e-paper), de hoeveelheid blauw licht is gerommel in de marge.

Dat is alsof je zegt dat je dik wordt van de chocoladehagelslag op je slagroomtaart. Technisch gezien klopt het maar die hagelslag is het probleem niet als je slagroomtaart eet. De hoeveelheid blauw licht verminderen is alsof je "light" chocolade op je taart doet. Leuk voor de show maar maak jezelf niet wijs dat je iets hebt bereikt.

[Reactie gewijzigd door CAPSLOCK2000 op 22 juli 2024 19:39]

Persoonlijk vind ik blauw licht erg naar, je ziet het wel eens met van die goedkope LED's dat eruit ziet als slechte TL-verlichting, ik krijg daar hoofdpijn van. Daarnaast staat OLED (bij mij in ieder geval) er redelijk bekend om om redelijk blauwig beeld te geven (zeker onder een hoek wil het een blauwe gloed hebben). Of het daarom beter zou zijn om "minst blauw oled op de markt" te hebben? Geen idee, maar ik heb wel wat negatieve associaties met blauw + oled.
Persoonlijk vind ik blauw licht erg naar, je ziet het wel eens met van die goedkope LED's dat eruit ziet als slechte TL-verlichting, ik krijg daar hoofdpijn van.
Heeft dat niet meer met refreshrate te maken? OLED is heel snel waardoor het op lagere refreshrates harder overkomt dan technieken die wat langzamer zijn waardoor het allemaal wat meer wordt uitgesmeerd.
Daarnaast staat OLED (bij mij in ieder geval) er redelijk bekend om om redelijk blauwig beeld te geven (zeker onder een hoek wil het een blauwe gloed hebben). Of het daarom beter zou zijn om "minst blauw oled op de markt" te hebben? Geen idee, maar ik heb wel wat negatieve associaties met blauw + oled.
Tnx, ik ga er eens op letten.
Dit ervaar ik niet met mijn OLED (LG C9).

Misschien staat de instelling “Color Temperature” dan op “koel” wat een blauwe tint oplevert. Ik heb hem zelf op “warm 2” staan.
Waarom is dat belangrijk? Toch niet het fabeltje dat je niet kan slapen van blauw licht?
Ieder beeldscherm is slecht voor je slaapgedrag, zeker de schermen die actief licht uitzenden (dus alles behalve e-paper), de hoeveelheid blauw licht is gerommel in de marge.
De meeste moderne beeldschermen hebben overigens al een blauw licht filter.

Studies suggereren overigens dat blauw licht wel degelijk impact heeft op slaap. Een willekeurige studie:
https://www.tandfonline.c...080/07420528.2018.1527773
Further analysis of these 15 reports indicated that a two-hour exposure to blue light (460 nm) in the evening suppresses melatonin, the maximum melatonin-suppressing effect being achieved at the shortest wavelengths (424 nm, violet).
About 2-h exposure to blue light (460 nm) in the evening significantly suppressed melatonin (from 12.0 pg⁄mL to 8.8 pg⁄mL) compared to low-melatonin level earlier in the evening, but green light (550 nm) did not.
Maar blauw light kan zowel positief als negatief werken op je slaap: positief als je het na het wakker worden en middag gebruikt, negatief indien je het in de avond of nacht gebruikt. Dat heeft waarschijnlijk te maken met dat het brein/oog blauw licht associeert met zonsopgang, wat je dan juist weer minder wilt hebben in de avond. Veel operating systems (Windows, Android etc), maar ook software als F.lux, hebben dan ook features om blauw light in de avond te reduceren. Blauw licht of UV filters zie je dan ook vaak terug in brillen en contactlenzen. Persoonlijk heb ik liever blauw licht zelf onder controle. UV filters kunnen wel handig zijn om bijv. oxidatieve schade te verminderen.
Studies suggereren overigens dat blauw licht wel degelijk impact heeft op slaap.
Ja, maar dat vind ik dus gerommel in de marge. Er is wel invloed maar die is erg klein.

In die studies die je aanhaalt zitten mensen soms uren lang (8 uur in 1 studie) in knipperende lampen te kijken en daar slapen ze dan 10 minuten korter (of langer!) van. In de studie die je citeert was er inderdaad een meetbaar effect op melatonine na 2 uur blauw licht, maar na 15 minuten was dat verschil al weer verdwenen. Als je nog even je tanden poetst voor het slapen gaan is het effect al weer weg.
Ik ben niet onder de indruk.

Deze overzichtsstudie gaat niet alleen over blauw licht maar bevat ook studies die naar andere vormen van licht kijken en die meten ook al verschillen. De invloed van een goed verduisterend gordijn is volgens deze studie veel belangrijker voor een goede nachtrust.

Volgens het stukje dat je citeert is de invloed van violet licht overigens groter dan die van blauw en heeft rood licht ook een invloed. De invloed van de kleur blauw bestaat wel maar is volgens mij niet groot genoeg voor alle aandacht die er naar uit gaat. Helemaal bij een gaming monitor. Als je na het CounterStriken niet kan slapen heb je geen last van blauw licht maar van adrenaline.

[Reactie gewijzigd door CAPSLOCK2000 op 22 juli 2024 19:39]

Dat weinig blauw licht uitstralen, kan dat niet gewoon elke monitor? Je gaat gewoon naar de settings, en vervolgens in 'RGB kleurcorrectie' zet je de 'B' gewoon op minimum.
Maar dan is je kleurweergave gelijk naar z'n grootje. Monitors met daadwerkelijk "low blue light" certificering, hebben daadwerkelijk een andere lichtbron of filters die blauw licht in een bepaald spectrum filteren, zonder de kleurweergave te veranderen in een oranje waas.
Waarom niet gewoon gelijk 960 hertz? Is toch net wat soepeler.

[EDIT: het was een grapje, ik zie het nut niet in van 480, 960 of 480, het is IMO beide onzin]

[Reactie gewijzigd door alex4allofyou op 22 juli 2024 19:39]

Alleen al omdat er geen enkele standaard is welke 2560x1440@960 aan kan qua bandbreedte.

Dat betekend ook dat je vermoedelijk een recente AMD kaart moet hebben om de mogelijkheden van dit scherm te gebruiken, gezien alleen Displayport 2.1 2560x1440@480 aan kan. HDMI 2.1 of DP1.4 zijn onvoldoende.
Waarom niet gelijk 1000Hz? Waarom moet het een veelvoud van 60 zijn? Rare Amerikaanse gewoontes.
Waarom niet gelijk 1000Hz? Waarom moet het een veelvoud van 60 zijn? Rare Amerikaanse gewoontes.
Er is een goede reden voor. Het is handig om een veelvoud te zijn van veelgebruikte refreshrates zoals 24 en 30. Als je een film wil kijken die met 24fps is opgenomen op een scherm dat 100fps doet dan kan dat niet vloeiend. In een seconde kun je ieder frame 4 keer laten zien, dan zie 96 frames. Dan heb je nog 4 frames over waar je ook iets mee moet. De tv moet dan op een of andere manier gaan foetelen.

480 is een handig getal, het is deelbaar door 24, 30, 60 en 120. Materiaal dat op die resoluties wordt geproduceed kun je dus perfect afspelen op 480Hz.

1000 is niet deelbaar door 24, 30, 60 en 120 en daarom minder handig. Als je materiaal hebt dat is opgenomen op 25 of 100 fps dan is 1000hz weer wel handig.

Het getal 600 is nóg handiger. Dat is deelbaar door 20, 24, 25, 30, 50, 60, 100 en 120 hz. Dat kan dus eigenlijk alles vloeiend afspelen.
Omdat de technologie nog niet zo ver is.
Het verschil tussen 60hz en 144hz was voor mij de grootste stap. Van 144hz naar 240hz merkte ik persoonlijk veel minder impact. Ik ben dan ook geen professionele Esporter natuurlijk. Maar de stap van 240hz naar 480hz vraag ik me oprecht af of het merkbaar is, zelf voor professionele esporter. De games waarin deze fps haalbaar zijn en waar ook reactie snelheid van toepassing is zij Counter strike en Valorant. Games als DOTA en League of Legend zijn in mijn ogen niet echt games waar je veel voordeel haalt aan exteem hoge fps/hz en aantal ms.
Ik vermoed dat het vooral voor VR heel erg fijn gaat zijn, hoe vloeiender het beeld, hoe minder mensen last hebben van motion sickness. Dit is gewoon technologische vooruitgang die nodig is om die kleinere schermpjes te gaan maken.
Denk dat het komt omdat pc's tegenwoordig in esport titels makkelijk 500+ fps stabiel kunnen draaien, daardoor onstaat er weer een ''nieuwe'' markt, want mensen die games spelen waar de fps altijd boven de 500 zit, willen best wat geld uitgeven aan een 500hz monitor, zodat al hun frames ''benut'' worden.

Op dit item kan niet meer gereageerd worden.