LG toont monitor die kan wisselen tussen 4k met 240Hz en 1080p met 480Hz

LG Electronics heeft een 32"-monitor getoond die kan wisselen tussen een hoge resolutie of een hoge verversingssnelheid. Met een knop onderaan het scherm kunnen gebruikers kiezen tussen 4k met 240Hz en 1080p met 480Hz.

Deze LG Ultragear 32GS95UE-oledmonitor heeft naast de Dual-Hz-functie, ook een zogenoemde Pixel Sound-technologie, laat LG weten. Dat moet ervoor zorgen dat er geluid geproduceerd kan worden door de trillingen van de filmlaag op het oleddisplay. Hierdoor moet audio direct vanuit de monitor overgeleverd kunnen worden, in plaats van via luidsprekers die zich meestal achter of naast het scherm bevinden. Daarnaast belooft de fabrikant een responstijd van 0,03ms.

LG toont verder ook de eerste oledmonitor van 39 inch, de gebogen 39GS95QE met een 3440x1440-resolutie, Daarnaast komt de fabrikant met twee curved 45"-oledmonitors met hetzelfde aantal pixels als het 39"-model, en een 27"-scherm met een resolutie van 2560x1440 pixels. Verdere informatie over de monitors, zoals de prijs en releasedatum, is nog niet bekendgemaakt. Vermoedelijk wordt die informatie tijdens de CES-beurs begin volgend jaar onthuld.

LG 32GS95UE-monitor
LG 32GS95UE-monitor

Door Kevin Krikhaar

Redacteur

21-12-2023 • 11:08

152

Reacties (152)

152
151
94
1
0
44
Wijzig sortering
Denken jullie dat er ooit platte 21:9 OLED schermen uitkomen? Of is daar geen behoefte aan? Ik vind die curved schermen echt niks, en kennelijk zou het vanuit arbo (als je ze zakelijk zou gebruiken) niet eens mogen.
Ik vond curved schermen meer een gimmick dan dat het daadwerkelijk nuttig was, maar ik zit blijkbaar vrij ver van mijn 34" ultrawide (+/- 70 cm) vergeleken met sommigen die blijkbaar allemaal verkleuringen en vervormingen zien als het platte scherm te breed is.
Mijn vorige was een 34" ultrawide zonder curve en ik was dan ook een beetje huiverig of mijn nieuwe, met een 1500R curve wel zou bevallen.
Maar ik kan niet eens zeggen dat er een gewenningsperiode was. Als je er recht voor zit heb je niet eens in de gaten dat het scherm gebogen is.
Curves van 4000R of 3000R zijn gewoon te verwaarlozen en pas bij grotere curves, vanaf bijv. 1800R begint de afstand tot het scherm relevant te worden.

Waarom zouden ze vanuit arbo niet mogen?
Mensen zien (letterlijk) pas hoe prettig een gebogen scherm is, als ze eerst een platte, grote monitor hebben gehad en dan achter een (voldoende) gebogen scherm gaan zitten.

Een 32” ultrawide of 40” breedbeeld van dichtbij betekent dat je op wel 45° 30º naar de hoeken zit te kijken. Daar knapt de helderheid, uniformiteit, kleur etc niet bepaald van op, naast dat je oog constant opnieuw scherp moet stellen.

Maar de meeste mensen hebben een 27” of hooguit 32” scherm, in 16:9 en dan heb je dat effect niet of nauwelijks.

[Reactie gewijzigd door laptopleon op 22 juli 2024 14:01]

van dichtbij betekent dat je op wel 45° naar de hoeken zit te kijken
Daarvoor zou ik op minder dan 40 cm van het scherm af moet zitten.
Dat is echt veel te dichtbij.
En dan vind ik het ook niet raar dat mensen last van hun ogen krijgen.
Je hebt gelijk, dat klopt natuurlijk niet. Ik zit op 70 à 75 cm van een 40" scherm en heb even zitten meten / aftekenen op een stuk papier / nameten en dan kom ik in de hoeken op 30º verschil met loodrecht in het midden op het scherm kijken. Maar dan nog is dat een groot verschil. Met een hooguit 27" of 30" monitor in 16:9 is dat verschil veel kleiner.
Met een hooguit 27" of 30" monitor in 16:9 is dat verschil veel kleiner.
Ja dat verschil is kleiner. Maar ik begrijp niet wat je daarmee wilt zeggen.
Bij een eerder artikel over monitors vermeldde ook al iemand dat kijkhoeken relevant zijn omdat je bij bredere schermen last zou hebben van verschillen in helderheid, uniformiteit, kleur, etc..
Maar met jarenlange ervaring met zowel een platte en gebogen 34" ultrawide en op het werk met 2 24" 16/9 schermen naast elkaar die nog breder zijn kan ik gerust concluderen dat je erg scheef voor je monitor(s) moet zitten (ver voorbij 45°) wil er enige merkbare of storende verslechtering zijn qua helderheid of kleur.
naast dat je oog constant opnieuw scherp moet stellen
Ogen doen dat sowieso. Ongeacht wat je aan het doen bent.
Bovendien is mijn ervaring na 30 jaar beeldschermwerk dat het veel minder prettig is om langere tijd naar hetzelfde gedeelte van je scherm te staren dan wanneer je regelmatig even ergens anders focust.
Er wordt ook niet voor niets aangeraden om om de zoveel tijd een paar minuten niet naar je scherm te kijken en bij voorkeur in de verte of in ieder geval meer dan een paar meter ver te focussen.
Het idiote is dat ik iedere keer voor gek wordt verklaard als ik zeg dat te lang op dezelfde afstand focussen helemaal niet goed is voor je ogen terwijl dat juist bevestigd wordt door zo'n beetje iedere oogarts en iedere serieuze website die geen monitors wil verkopen.
Dat (voornamelijk sterk, dus vanaf 1500R) gebogen monitors minder inspannend voor je ogen zijn lijkt iedereen het wel over eens.
Maar waar het dan feitelijk op neer komt is dat men alleen maar langer naar het scherm wil kunnen staren en dat is niet per se een goede ontwikkeling.
Ik werk ook al 33 jaar als graficus, dtp-er, webdesigner, photoshopper, etc :) zo goed als voltijds achter een stel monitoren. Ik ben dan ook begin 50. Iedereen van die leeftijd heeft al tien jaar te maken met het probleem dat je ogen niet meer zo goed meer accomoderen. Veel mensen zitten daarom met een multifocale bril op.

Ik begrijp best dat, idealiter, je je ogen ‘wat te doen geeft’ en dat ze dan ook langer / beter blijven accomoderen, maar het is niet realistisch om te denken dat je dit tot aan je pensioen soepeltjes kunt blijven doen, ook al kijk je braaf elke paar minuten even ‘weg’. Ja, op een scherm wat een zodanig formaat / afstand tot je oog heeft dat je niet of nauwelijks hoeft bij te stellen, kom je daar mee weg. En ja, met een (of meer) 24” schermen heb je nauwelijks een andere kijkhoek aan de randen, nauwelijks verschil in afstand ook, dus hoeft je oog niet opnieuw te focussen, dus kom je daar ook mee weg.

Maar dat is bij een plat 40” scherm niet meer het geval. Dan moet je oog elke keer dat je wisselt tussen het midden en een hoek, opnieuw scherp stellen. Dat is vast goed om je oogspieren in beweging te houden, maar ook heel vermoeiend, want je doet dit niet eens in de paar minuten, maar vaak wel elke paar seconden. Dat is niet goed vol te houden en mensen krijgen daar dan ook vaak hoofdpijn van of in ieder geval ontzettend vermoeide ogen.

Dat is ook de reden dat zoveel ultrawides gebogen zijn, vooral de 32” en groter.

Ik heb ooit een platte 40” monitor gehad en daarom weet ik dit uit eigen ervaring. Toen waren mijn ogen nog tien jaar jonger maar ook toen was het niet vol te houden. Dus heb ik die ingeruild voor een gebogen 40”.

Sindsdien lees ik hier vaak reacties bij gebogen monitoren, vaak van mensen die duidelijk nooit echt met een grote platte of gebogen monitor hebben gewerkt, want dan kom je hier vanzelf binnen een paar uur achter. Ja, gamen op een lagere resolutie, zoals bij een HD TV, dat gaat prima, maar dat is toch echt iets heel anders dan mail lezen en tekeningen maken op UHK / 4K resolutie.
Een 40" scherm, zeker op zo'n 70cm afstand, is dan ook wel extreem.

Als iemand vermoeide ogen of zelfs oogpijn of hoofdpijn krijgt van te veel beeldschermwerk dan gaat er iets niet goed maar is men wel direct geneigd om van het scherm weg te kijken.
Als gebogen monitoren er voor zorgen dat er minder vlug vermoeidheid e.d. optreedt, waardoor men langer naar het scherm kan kijken en dus op korte afstand gefocust blijft is het effect daarvan niet direct merkbaar maar wel schadelijker op lange termijn.
Alleen al het feit dat we teveel tijd binnen door brengen maar zeker het lezen en beeldschermgebruik leiden tot een enorme toename in bijziendheid.
ook al kijk je braaf elke paar minuten even ‘weg’
Daar red je het niet mee. Je moet echt wel meerdere minuten verder dan 20 meter kunnen kijken.
Ik krijg het sowieso niet voor elkaar om uren achtereen op een stoel naar een scherm te staren, zoals ik sommige collega's wel zie doen, en ik kan uiteraard niet bewijzen dat het daardoor komt, maar tot nu toe heb ik zelden tot nooit last van vermoeide ogen o.i.d. door beeldschermwerk en zie ik nog perfect.
En dat wil ik graag zo houden.
Tja, daar heb je groot gelijk in, maar bijziendheid is niet iets van de laatste tijd of door monitoren, maar iets van de moderne mens die meer bezig is met lezen en schrijven maar daarnaast ben je met vrijwel elk ambacht vooral dichtbij aan het kijken.

Terugkomend op het oorspronkelijke onderwerp; een gekromde grote monitor maakt het een stuk minder vermoeiend voor je ogen. Bijziend ben ik al sinds mede lagere school, dat komt ongetwijfeld doordat ik toen al een boekenwurm was, en dat ga ik toch niet meer rechtbreien of had ik toch niet kunnen voorkomen door een paar keer per uur een paar minuten in de verte te staren, ben ik bang.
maar bijziendheid is niet iets van de laatste tijd of door monitoren, maar iets van de moderne mens die meer bezig is met lezen en schrijven
En binnen 4 muren zit.
Bijziendheid is erfelijk.
dat ga ik toch niet meer rechtbreien of had ik toch niet kunnen voorkomen
Ik wil niet de wereldverbeteraar uithangen, maar het 'ik kan er toch niets aan doen' is redelijk fatalistisch.
Als we allemaal maar naar die beeldschermen blijven staren en langzaam maar zeker iedere generatie meer bijziend wordt wordt h et tijd om aandelen van brillenzaken te gaan kopen.
Of je nou bijziend bent, verziend of ergens tussenin, als je echt wat ouder wordt kun je nou eenmaal niet meer veel accomoderen en heb je eigenlijk altijd hetzelfde probleem.

Mijn moeder is bijziend, mijn vader verziend. Uiteindelijk maakt het weinig uit want ze hebben allebei een bril nodig. De een bij het lezen, de ander bij het tv kijken.

Ik ben met één oog verziend en een oog bijziend, maar voor de monitor heb ik tegenwoordig toch een bril nodig omdat dat te ver is voor het ene en te dichtbij voor het andere oog. Je ontkomt gewoon niet aan een bril als je oud wordt.
en kennelijk zou het vanuit arbo (als je ze zakelijk zou gebruiken) niet eens mogen.
Wacht wat? Waarom niet?
Ja waarom niet, maar vooral ook: adhv welke regel precies? Ik denk dat een deeplinkje naar de bron wel gewenst is.
Ik was ook eerst geen fan van curved, maar dermate het scherm groter word (zoals ik nu heb 40 inch) dan is het echt HEEL fijn dat deze een beetje gebogen is zodat je er beter op kijkt. Ik wou het ook eerder nooit geloven maar het is echt beter/fijner. Voor een 27 inch scherm zou je dat niet nodig hebben.
Enige tijd gelden dacht ik er hetzelfde over, ik heb toen de LG OLED FLEX aangeschaft waarin je de curve zelf kunt instellen. Ik begon met het het platte scherm maar werk inmiddels alleen nog maar met het gebogen scherm. Het is een kwestie van wennen denk ik.
1080p op een 32" lijkt me nou niet bepaald wenselijk maar ok
Ik heb een 1080P scherm op 32 inch en dat valt echt reuze mee. Het idee dat het pixels tellen is echt zwaar achterhaalt. Het ligt echter wel aan welke monitor je neemt.

En het scheelt je enorm veel in rekenkracht waardoor je een hogere FPS hebt. En ondanks dat ik een 4080 heb en voldoende kracht hebt, is het toch fijn.
Waar ik me vooral aan stoor is dat je het schermoppervlak niet optimaal kan gebruiken. Als je een 32 inch scherm op 1440p of 4k gebruikt kan je simpelweg meer op je scherm kwijt dan op 1080p, terwijl alles wel goed leesbaar blijft. 1080p schaalt gewoon niet goed.

[Reactie gewijzigd door Skix_Aces op 22 juli 2024 14:01]

Waar ik me vooral aan stoor is dat je het schermoppervlak niet optimaal kan gebruiken. Als je een 32 inch scherm op 1440p of 4k gebruikt kan je simpelweg meer op je scherm kwijt dan op 1080p, terwijl alles wel goed leesbaar blijft. 1080p schaalt gewoon niet goed.
1080 is eigenlijk helemaal geen fijne resolutie voor monitoren. Het is een erfenis van bioscoopfilms die in "breedbeeld" worden opgenomen waardoor we op onze 4:3 televisies zwarte balken moesten laten zien.
Voor films is een breed scherm fijn.

Op een gegeven moment heeft de markt ingezien dat ze geld konden besparen door computer-monitoren te maken met dezelfde panelen als televisies. Omdat "breedbeeld" toen helemaal hip was hebben ze uiteraard gekozen om alle schermen dus maar breed te maken.

Overigens is er nog een reden die denk ik een rol heeft gespeeld: een rechthoekig scherm heeft een grotere diagonaal dan een (meer) vierkant scherm met het zelfde oppervlak. Daardoor lijken rechthoekige schermen groter te zijn dan vierkante schermen van hetzelfde formaat.

Voor productiviteit is een breed scherm helemaal verkeerd. Je wil juist een hoog scherm hebben, met veel vertikale ruimte. Alle boeken, schrijfpapier, kranten, etc zijn hoog, niet breed. Kranten knippen hun teksten zelfs in smalle kolommen omdat het makkeljiker leest. Onze ogen kunnen maar een piepklein stukje echt scherp bekijken, de rest wordt er door onze hersenen bij gestablediffusioned. Prima als een landschap of een film bekijkt, niet als je tekst leest.

Gelukkig zijn er een paar monitoren op de markt met meer verticale pixels. Soms is het echter handiger om je 16:9 monitor 90 graden te draaien. Dat leest tenminste fijn (al zijn er weer monitoren met een coating die maar in één richting goed werkt, let dus op).

Sorry voor de rant, ik ben pas 20 jaar boos ;)
Wat helpt is (als je op Windows 10 zit), is de taakbalk links of rechts zetten. Dan is het scherm ongeveer vierkant.
Voor mijn werk (meestal een stuk of 20 vensters open) is dat erg handig, ook omdat ik dan de namen van de vensters lezen kan.
De ultrawides zijn ook heel breed, maar helpen de productiviteit juist wel mits goed gebruikt. Ik zet zelf op manier bijvoorbeeld vaak 2 of 3 tekstbestanden naast elkaar open.
Hetkenbaar. Toen ik nog voor werk veel door logfiles moest graven had ik 1 van de 2 1080p 24" een kwartslag gedraaid.
Goh, wat zal jij dan boos worden van een scherm zoals het mijne... ;)

Ik werk en game nog steeds met mijn oude, vertrouwde Hitachi CM2111ME 24" monitor. Het kreng heeft al 2 PC's overleefd, en hij blijft het maar doen, dus nu hangt inmiddels mijn derde PC eraan, een i7 3rd gen HP Elite 8300 Micro Tower met 16GB RAM en een Nvidia Geforce GTX 1650.

De PC zelf kan dus wel wat meer aan dan mijn scherm, maar mijn monitor draait het best (en in principe maximaal) op 75Mhz en 1600x1200. De resolutie kan nog wel hoger, maar dat is voor mij dan niet meer prettig lezen. Ik doe ook veel aan retro gamen en emulatie en dat doe ik doorgaans allemaal in 1280x960 of 1280x1024.

Ik hoop dat je dit hebt kunnen lezen zonder je te verslikken... :P
Goh, wat zal jij dan boos worden van een scherm zoals het mijne... ;)

Ik werk en game nog steeds met mijn oude, vertrouwde Hitachi CM2111ME 24" monitor.

De PC zelf kan dus wel wat meer aan dan mijn scherm, maar mijn monitor draait het best (en in principe maximaal) op 75Mhz en 1600x1200.
Ja, ik ben jaloers. Ik heb de uitstel van een "plat" scherm wel 10 jaar uitgesteld omdat gewoon niet op kon tegen een goed glasbak (helemaal in de "HD Ready" tijd, aka 720p). 1600x1200@75 is tot op de dag van vandaag respektabel.
Wat was ik blij toen mijn toenmalige werkgever besloot om nieuwe monitoren voor de architecten te kopen en ik twee professionele 23" monitoren mee naar huis mocht nemen, terwijl 17" in die tijd al als groot scherm werd gezien. Alleen klote om mee te nemen naar LAN-parties.
Haha, ja, die lompe kasten wegen lood en zijn inderdaad niet erg portable. Dat had ik vroeger zelfs al met mijn Amiga 500 set up met een kleinere monitor, dus dan nam ik voor het gemak meestal maar alleen de Amiga zelf en een RF converter mee, maar ik irriteerde me wel altijd aan het inferieure beeld dat ik daarmee kreeg.
Die 1080p/400Hz mode zal toch enkel bedoeld zijn voor competitieve shooters? Neem aan dat je voor productieve taken of multimedia gewoon op 4K werkt.
In het geval van de monitor uit het artikel wel ja. Mijn reactie was eerder gericht op het bericht van @Luchtbakker dat hij zelf een 1080p 32 inch gebruikt.
Volledig met je eens. Groter dan 24 inch hoeft voor mij ook niet op 1080p. Daarvoor is de real estate simpelweg te klein of is de PPI te laag als je gaat scalen onder de 100%.

Mogelijks zit OP wat verder van z'n scherm waardoor het alsnog op hetzelfde neer komt als een kleinere monitor.
Als je 1440p op 24" bent gewend zoals hier ziet alles er als blur uit als het minder is, een 27" zou ik ook minimaal 4K willen hebben.

[Reactie gewijzigd door mr_evil08 op 22 juli 2024 14:01]

Ik heb lange tijd op een 1080p 32 inch tv gegamed, maar het is echt wel suboptimaal qua pixel density. Met hoe dichtbij ik zat kon ik de pixels wel tellen. Ik zou zeggen dat 27 inch echt wel het maximum is voor 1080p tenzij je afdoende ver van het scherm zit om de pixels niet apart te zien.
Ik heb lange tijd op een 1080p 32 inch tv gegamed, maar het is echt wel suboptimaal qua pixel density.
Een tv is ook heel anders gebouwd dan een monitor en is niet geschikt om er met 1 meter afstand naar te kijken ;)
Pixel dichtheid is pixel dichtheid. Snap niet helemaal hoe een ander type scherm dat meer of minder storend moet maken. De letters op je scherm worden bij grotere scaling door het hebben van een groter scherm icm met lage resolutie gewoonweg door minder pixels opgemaakt en daar verlies je dus scherpte.

Ben het overigens niet met je eens dat tv's niet gemaakt zijn om dicht op te zitten. Zeker tegenwoordig heb je tv's die duidelijk gemaakt zijn om als halve monitor te gebruiken. Kijk bijvoorbeeld naar de 42inch oleds met super lage latency en 120/144hz refresh rate, dat is zeer zeker gericht op de pc monitor markt. Sterker nog, precies dat zelfde paneel wordt ook gebruikt in pc monitors.... Variaties van precies dat paneel met een andere aspect ratio worden vervolgens ook weer gebruikt om utralwide monitors mee te maken. Het is kortom echt onzin om te beweren dat tv's wat anders zijn dan monitors met wat meer processing (wat je uit kunt zetten) en smart functies.

[Reactie gewijzigd door africangunsling op 22 juli 2024 14:01]

Ik zou zeggen, pak eens een Nintendo Switch, en een Nintendo Switch OLED erbij. Normaalgesproken zou ik je meteen gelijk geven, mbt pixeldichtheid. Ik weet niet precies waar het aan ligt, maar op de OLED versie voelt zowel 30 Hz vloeiender dan 30 Hz op de LCD variant. En de pixeldichtheid van de OLED is ook lager, want 1" groter, beiden 720p. Toch lijkt het scherper.

Objectief gezien zou het OLED scherm hetzelfde/slechter moeten zijn. Subjectief gezien kijk ik zo veel liever naar het OLED scherm.

Ik zou dus zeker schermtechnologie niet uitvlakken als variabele in de subjectieve erarving. Ook al is er objectief op de andere fronten misschien geen verschil.
maar op de OLED versie voelt zowel 30 Hz vloeiender dan 30 Hz op de LCD variant.
Ik geloof je, maar het is wel vreemd. OLED zou in de basis juist minder vloeiend moet aanvoelen. Tenzij Switch motion interpolation toepast of het scherm, wat me sterk lijkt. OLED's hebben een perfecte responsetijd, wat blij lage fps leidt tot stutter. Dat in tegensteling tot een LCD. Een LCD heeft altijd iets last van ghosting/motion blur, waardoor 30fps op een LCD in de basis vloeiender aanvoelt dan op een OLED.
Dot pitch en subpixel patroon maken een groot verschil in de beleving van scherpte, en wellicht ook met beweging. Nu weet ik niet uit mijn hoofd wat het exacte verschil is bij de Switch, maar ik kan me voorstellen dat het kan uitmaken
Ja Naja een technologie van veel hogere kwaliteit gaat er bij een zelfde pixel density beter uit zien ja. oled heeft een veel snellere pixel response en daarom totaal geen ghosting, dan lijkt beeld vloeiender. Extreem hoog contrast geeft daarnaast een gevoel van sterkere afbakening tussen verschillende vlakken. Het feit dat een scherm er veel beter uit ziet maakt het natuurlijk niet scherper en een oled met hogere pixel density gaat er zeker scherper uit zien. Ook een beetje de vraag of het voor je usecase uit maakt, een mini scherm waar je op gamet heb je aan 720p genoeg, een 32 inch scherm waar je de hele dag tekst op verwerkt weer niet
Pixel density is echter niet het enige wat scherpte bepaald. Sterker nog, het is verre van het belangrijkste. Contrast, kleurechtheid en zwartwaardes zijn allemaal al belangrijker. Zie bijv ook https://youtu.be/VxNBiAV4UnM?si=z-uutWSaNleHgdEF
Dat verklaart de perceptie van @faust2016.

Zelf merk ik de lage resolutie van de Steam Deck (1280x800) minder op het OLED-model, ook al is het scherm iets groter in verhouding met het LCD-model. Voor mij is er geen ander soort scherm meer (smartphone, spelcomputer, laptop, monitor, TV).

[Reactie gewijzigd door The Zep Man op 22 juli 2024 14:01]

Wat is er anders aan een tv dan een monitor waardoor de pixel density anders zou zijn of waardoor de kijkafstand anders zou moeten zijn? Klinkt als gebakken lucht, luchtbakker.

Zelf vind ik 1080p op 24" al vrij laag qua pixeldichtheid.
TV's hebben een processor voor beeldverwerking / post processing. Monitors hebben dat niet, die geven beeld as-is weer. Dus als je tv voor Windows wordt gebruikt en ook een lage pixel density heeft, dan kan tekst in Windows soms slechter renderen. Ga wat verder af zitten en het valt iets minder op (tot op zekere hoogte).
De PC/Game modus van je tv verlaagt de post processing. Daarmee blijft Windows tekst beter leesbaar. De pixel density is inderdaad niet anders tussen tv en monitor, maar de tv vult de pixels wel anders in door post processing.
De ppi blijft gewoon dik waardeloos voor 32 inch dat valt niet recht te praten.
De ppi blijft gewoon dik waardeloos voor 32 inch dat valt niet recht te praten.
Het zal vast aan mijn ogen liggen, maar ik zie het niet. Boven de 32 inch wel.
pixeldensity is het zelfde en ben het met @Loc Hardware eens.
32 inch TV of Monitor maakt geen verschil op de grote van de pixels.
Ik vond al dat ik een miskoop voor m'n vader had gedaan toen ik die een 32" 1440p scherm had aangesmeerd. Dat was al serieus pixels tellen, vond ik. Wel op een bureautafel uiteraard.
Ik heb een 1080P scherm op 32 inch en dat valt echt reuze mee. Het idee dat het pixels tellen is echt zwaar achterhaalt.
Ligt er aan wat je toepassing is. Als productiviteit belangrijk is en je veel met tekst werkt (bijv. een software developer) dan wil je niet op 1080p op 32 inch zitten, maar op 4K. Letters zijn bijvoorbeeld op een 4K veel scherper (en dus leesbaarder) op dezelfde uitvergroting. Je hebt dan immers meer pixels om dezelfde letter te renderen.
ja, tekst wordt mooier, maar..
[boomer]
Het argument dat het leesbaarder wordt betwijfel ik altijd. Van oudsher kom ik van 320x200 en heb ik die pixels nooit als vervelend of minder leesbaar ervaren..
[/boomer]
Dat klopt. Maar het gaat m.i. om de combinatie van formaat en scherpte. Als je de pixel density verhoogt kan je de tekst (mits je goede ogen hebt) kleiner maken voor deze slecht leesbaar wordt.
In die tijd waren schermen ook fors kleiner en waren afbeeldingen sowieso niet scherp met 16 of 256 kleuren, nu met 32 bit/10bit zie je het verschil heel snel.
Sowieso zal 1 pixel opgebouwd zijn uit 4 pixels. Het is niet zozeer de resolutie die storend is maar de zwarte ruimte tussen de pixels, de pixel pitch. En dat vangen ze zo erg netjes op, gezien het dus de pixel pitch is van een 4k monitor
Hmm, dat is toch erg persoonlijk. Ik kon QHD niet uitstaan op 27 inch, nadat ik 4K gewoon was. 1080p op 32 is toch nog een heel stapje minder dan dat.
Ah, een gelijk gestemde :*)

Met alles wat hier beweerd wordt zie ik wel verschil tussen p144 en p360. Het is geen groot verschil, maar niemand komt met een ander heel belangrijk detail. Oplossingsvermogen. Dit betekend dat als je een YouTube filmpje hebt van 50fps dat het alsnog vloeiend uitziet. Bij een 60Hz scherm zal datzelfde filmpje niet vloeiend lopen. Een hogere refreshrate is gunstig voor bronnen met een afwijkende framerate. Een andere belangrijke functie is ULMB en dat is een stroboscoop effect waardoor ghosting, inputlag op een hoge framerate nauwelijks waar te nemen valt. ULMB op 60Hz wil je echt niet. Er zijn dus degelijk voordelen aan een hoge verversingsfrequentie. Het gaat dus niet alleen om het aantal frames. :)

[Reactie gewijzigd door jimh307 op 22 juli 2024 14:01]

En het scheelt je enorm veel in rekenkracht waardoor je een hogere FPS hebt. En ondanks dat ik een 4080 heb en voldoende kracht hebt, is het toch fijn.
Tegenwoordig met DLSS mag dat toch geen probleem zijn. De kwaliteit van 1440p is echt merkbaar hoger.
Niet alle games ondersteunen deze techniek.
Als je serieus competitive FPS games speelt bijvoorbeeld, dan gaat refreshrate boven resolutie, veel spelen zelfs nog onder native op 4:3, ga je tekstverwerken of Photoshoppen ofzo of een RPG heb je toch 4K.
Dan nog zou ik niet op 32 inch willen spelen in die situatie. Ik speel zelf CS2 op 1280x1024 stretched over een 1080p scherm van 24 inch. Vroeger 1920x1440 op een 27 inch monitor en daarvoor native op een 32 inch 1080p tv (dat was helemaal klote). Groter is echt niet prettig omdat dan te veel van je monitor buiten je focus ligt, of je moet erg ver van je scherm af gaan zitten maar daar is een flink bureau voor nodig. Is ook uiteindelijk de doorsslaggever geweest om géén ultrawide te kopen.

[Reactie gewijzigd door youridv1 op 22 juli 2024 14:01]

Ik zeg ook niet dat het handig is, ik speel zelf CS en PUBG op een 27" dat vind ik al groot zat.
Ja eens. Ik zou dan toch liever 2 monitoren hebben dan 1 scherm dat kan wisselen per use case. Persoonlijk vind ik 2 schermen toch bijna een requirement om echt productief te zijn, dus dan gewoon een mooie 4K60 voor fotoshop en een een 1080/1440p240hz voor gamen

[Reactie gewijzigd door youridv1 op 22 juli 2024 14:01]

Ligt eraan of je Counter Strike 2 speelt.

Speelt wel lekker dan.
Ligt eraan waar je het voor gebruikt toch?
Dit, vind het zelf ook niet om aan te gluren.
voor mij 1080p max 24 inch en dan 1440p tot 27inch daarna of hoger toch meer richting de 4k denk ik,
het is ieder zijn ding natuurlijk.
We Are Borg Moderator Wonen & Mobiliteit / General Chat 21 december 2023 11:19
Waarom zou je 1080p op 480Hz willen hebben als optie om naar te schakelen: wat is hier het voordeel van voor de eindgebruiker :) ?
Native UHD @240Hz vereist twee keer zoveel van je GPU als FHD @480hz. Dat zou een reden kunnen zijn. Tevens zijn er gamers die (bij bepaalde games zoals Counter Strike) zweren bij een zo hoog mogelijke ververssnelheid, al kan je daar je vraagtekens bij zetten of je daar echt wat van merkt bij dusdanig hoge ververssnelheden. Deze monitor geeft je in ieder geval de optie om te wisselen tussen mooie UHD plaatjes en 480hz.
Heb een tijd competitief FPS gespeeld en kan je vertellen dat je er zeker wat van merkt. Vooral de interpreteerbaarheid van het beeld bij snelle bewegingen is er bij gebaat, het maakt echt heel veel uit of je tijdens een flick 5 frames of 20 te zien krijgt. Ik ben nooit echt heel goed geweest maar ik merkte mijn 360Hz al echt.
Is het niet vier keer i.p.v. twee keer zoveel GPU power? 4k is circa 8 miljoen pixels en 1080p is circa 2 miljoen.
Dat klopt, maar 480hz is weer twee keer zoveel plaatjes per seconde als 240hz, dus in principe factor 2 GPU kracht.
Oh ja goedemorgen! Ik kan niet begrijpend lezen 8)7
Maar de plaatjes zijn 4x kleiner
Zoals hierboven aangegeven, dat klopt, maar er worden wel twee keer zoveel plaatjes doorgegeven dan bij UHD, dus dan is het netto factor 2.
Niks aangezien je van zo een hoge frequentie niets gaat merken ten opzichte van de 240Hz, zo ver ik weet is alles boven de 150Hz gewoon onzin bedacht door fabrikanten omdat veel mensen toch denken hoe sneller hoe beter, terwijl je boven een bepaalde frequentie geen verschil meer gaat merken (en al zeker niet gaat zien)
Dit zeiden ze ook van 60 -> 120. Heb zo het gevoel dat je het wel gaat “voelen”. Hoe hoger, hoe minder latency en hoe minder elk beeldje verandert ten opzichte van het vorige beeldje, dus hoe dichterbij de werkelijkheid je komt. Geen schokkerige beelden meer, die ik nog wel zie bij 120/144.
Ik dacht dat het wel mee viel toen ik van 90 naar 165 ging, maar opeens voelde alles zo veel vloeiender.
Ik blijf bij 24 FPS, als het goed genoeg is voor Hollywood... ;)
Er is een maximale snelheid waarmee jij iets kunt waarnemen. je ogen/hersenen werken ook met een bepaalde maximale frequentie, dus voorbij een bepaalde frequentie merk je er echt helemaal niks van.
Waar je wel wat van kunt merken is betere kwaliteit scherm.

Schokkerige beelden bij 144Hz zal eerder aan je videokaart of cpu liggen.

[Reactie gewijzigd door WhiteSnake76 op 22 juli 2024 14:01]

je ogen/hersenen werken ook met een bepaalde maximale frequentie
Ja? Ik dacht dat dit juist ontkracht was. Heb je hier een bron voor?
Nee dit is wel zo, een oog ziet 30 tot 60 frames per seconde, een enkeling iets meer, maar toch ziet je brein het vloeiender.

Je beweegt vloeiender en ziet dingen sneller, ik las ooit iets met zoals een muis door je beeld "flikkert" als je snel heen en weer gaat, maar ik kan zo snel geen bron vinden van hoe boven de 240hz werkt.

Daarin stond wel dat een mens het verschil tussen 60, 120 en 240 kan zien, vanaf 165 naar 240 is het al bijna niet meer merkbaar, of 480hz overkill/marketing is, ik denk het, maar kan het niet bewijzen.

[Reactie gewijzigd door JDx op 22 juli 2024 14:01]

Oké, als ik het zo even snel skim lees ik dat onder de juiste omstandigheden sommige mensen tot zelfs 500hz kunnen waarnemen. Ik doelde (onduidelijk) op de oude discussie “ik heb geen 60hz nodig, mensen zien niet meer dan 30!”, die nu lijkt op te bloeien ivm 120/240/480.

Ik merk zelf dat als ik de hele dag op m’n 60hz scherm werk, en ik ben bij een vriend met een 144hz scherm, dat als ik even naar zijn scherm kijk, het voelt als een verademing. Dat betekent dus 1) dat ik het verschil kan zien en 2) het niet te maken heeft met reactietijd aangezien ik het scherm niet bestuur op dat moment. Vandaar mijn vraag.

Maar dan nog, 1 v/d artikelen zegt ook:
First and foremost, humans do not see in frames per second (FPS); FPS is how a monitor displays images. When we see these images, our eyes are absorbing the light, and our brains make sense of what we're seeing. We mentally combine multiple quickly-displayed images and interpret them as continuous motion.
Dus wat is het nou, kunnen we wél een frequentie er aan hangen of niet? Ik gok zo dat je het kan trainen en dat er geen harde limiet aan zit, enkel diminishing returns.

[Reactie gewijzigd door voxl_ op 22 juli 2024 14:01]

Wat het feitelijk is, zoals ook in het artikel beschreven, is dat er een misverstand heerst over "kunnen zien" van frame rates. Het menselijk oog is een analoog mechanisme, wat geen digitale gegevens kan ontcijferen of verwerken, dat doen de hersenen voor ons, of liever gezegd: dat proberen ze.

Wat mensen in feite bedoelen, als ze zeggen dat ze frame rates kunnen zien of opmerken, is dat het simpelweg prettiger voelt of er prettiger uitziet als iets op een hogere frame rate draait, en dat klopt wèl. Het is dus esthetisch, je hebt niet een soort frame rate teller in je oog of in je hersenen... ;)

Als je er serieus meer over wil weten qua wat er nu wel en niet waar is en wat het menselijk oog nu echt aankan, dan kan ik je dit artikel van harte aanbevelen:
https://amplify.nabshow.c...your-eyes-vs-frame-rates/
Er zitten ook een aantal links in met video's, die ook nog verder ingaan op het onderwerp.

[Reactie gewijzigd door ThanosReXXX op 22 juli 2024 14:01]

Er is een maximale snelheid waarmee jij iets kunt waarnemen. je ogen/hersenen werken ook met een bepaalde maximale frequentie
Ja? Ik dacht dat dit juist ontkracht was. Heb je hier een bron voor?
Zeker niet ontkracht:
Dus wat is het nou, kunnen we wél een frequentie er aan hangen of niet?
Het menselijk oog is een analoog mechanisme [...] je hebt niet een soort frame rate teller in je oog of in je hersenen
Ik ben het eens met wat je zegt in je laatste comment en is precies zoals ik al verwachtte dat het zou werken. Natuurlijk is het compleet analoog, en makes sense dat we het verschil alleen "voelen". Maar vind ik het nou vreemd dat je zegt dat het niet ontkracht is? Ik snap niet hoe deze thread zo heeft kunnen gaan, maar ik ben het 100% met je eens.
Ja, het ging een beetje alle kanten op inderdaad, my bad. Eigenlijk is een deel van mijn reactie aan jou voor iemand anders bedoeld, maar omdat ik met meerdere mensen aan het discussiëren was, en ondertussen ook nog probeerde een beetje te werken, ging het niet helemaal zoals bedoeld. ;)

Mijn misverstand was daardoor ook dat jij bedoelde dat ontkracht was dat ogen geen frame rates kunnen zien, maar dat is dus niet het geval.
Er is een maximale snelheid waarmee jij iets kunt waarnemen. je ogen/hersenen werken ook met een bepaalde maximale frequentie, dus voorbij een bepaalde frequentie merk je er echt helemaal niks van.
En gebruikstests hebben wel bewezen dat die grens niet ligt bij 120 of 240 Hz, wel wordt het verschil met elke verdubbeling van de refreshrate relatief kleiner. Het verschil tussen 240 en 480 hz is slechts 2 ms, terwijl dat tussen 60 en 120 8 ms is. Dus het verschil zal absoluut minder merkbaar zijn dan op lagere refresh rates, maar ik denk dat een getraind oog het echt wel kan zien of voelen
Maar dat is dus wel het punt: een getraind oog. Ik heb ooit ergens gelezen dat bijvoorbeeld straaljager piloten getraind worden om een enkele frame met een afwijkende afbeelding in een filmpje of beeldserie van 120Mhz te herkennen, maar dat zijn dan ook inderdaad echt wel zeer specifiek getrainde mensen.

De gemiddelde PC gebruiker heeft dat niet, dus dan kom je toch al gauw terecht bij de serieuze tech freak/specialist. Ik beschouw het altijd een beetje als het equivalent van de audiofiel: ik heb een kennis die zowel dj als geluidstechnicus is, en wat voor hem extreem duidelijk en helder is, is voor mij of complete abacadabra of simpelweg niet te horen, en dan staat hij mij aan te kijken alsof ik gek ben omdat ik het "overduidelijke" verschil niet hoor...

Wat betreft pixels of resolutie is het voor mij hetzelfde verhaal: ik zie weinig verschil tussen kleine stapjes in hogere resoluties. Van 480p naar HD of van 720p naar 4K kan ook ik duidelijk zien, maar 2K of 4K of 60 of 120 Mhz, het is mij allemaal om het even. Ik zie het niet, of in ieder geval niet goed genoeg, en ik snap de hele drukte ook niet over dat iets een bepaalde resolutie of refresh rate "moet" zijn, omdat een game anders zogenaamd onspeelbaar is.

Misschien is het voor een deel wat ik al aangaf, en voor een ander deel dat ik al zo lang computerspellen speel, en nog af kom van gigantische pixels van een Pong console op een portable zwart-wit tv'tje dat ik eigenlijk alles leuk of mooi vind wat er tegenwoordig wordt uitgebracht, maar ook dat ik nog steeds snap waar het vandaan is gekomen en ik het oude dus ook waardeer.

Niet dat ik dan helemaal niet kritisch ben op moderne games, want ook ik zie de echt overduidelijke glitches en hiccups wel degelijk, maar zolang het minimaal en niet game breaking is, haal ik er meestal mijn schouders voor op en speel ik vrolijk verder. ;)
Het helpt met bewegings scherpte.

Ja gewone dingen zie je het verschil niet klopt,
Maar als jij super snel omdraait in counterstrike, dan beweeg je grofweg 2160 (1080p 90 fov dus x2 pixels over het scherm in zeg 0.1 seconde en je oog probeert die pixels te tracken, maar die staan elk frame stil.
(Dit is waarom je dus ook flashing monitoren hebt, zodat we niet vlijven belichten terwijl je oog over het beeld schuift)

Om dat dus vloeiend de kunne traken (1 pixel per frame) zou je dus 2160*10 fps moeten hebben.

Of beter gezegd met 240 fps gaan we sprongen zien van ongeveer 100 pixels en dat betekent dat mocher iets op jouw scherm staan tijdens die rotatie, dan kan jouw oog dat niet vloeiend tracken, is het dus geblurred en kan je weinig met die informatie.

Gaan de meeste mensen dit merken? Nee.

Kan je het merken? Absoluut
Wat is de maximale fps nodig? Niemand die het weet

Ik heb een 144hz en dat is al heerlijk, verschil daarna wordt idd echf wel klein.

30hz 33.33ms
60hz 16.66ms
120hz 8.33ms
144hz 6.94ms
240hz 4.16ms
360hz 2.77ms
480hz 2.01ms

Je ziet dat het daadwerkelijke aantal ms dat we besparen van 360 naar 480hz minder dan 1 milliseconde is

Maar kan je het merken? Als je een i object trackt van rechts naar links, terwijl je beeld draait, absoluut.

Maar dat is ook eigk het enige moment.
Nou, daar geef je het dus al aan: alleen bij specifieke dingen, en dan ook nog alleen bij de mensen die op dat soort dingen letten, of misschien beter gezegd: die daar gevoeliger voor zijn of er specifiek naar zoeken. Ik merk niets of nauwelijks iets.

Ik zie hier mensen roepen dat ze zelfs 400 of 500Mhz "makkelijk" of overduidelijk zien, maar feit is dat dit gewoon echt niet geldt voor het overgrote deel van de bevolking en los daarvan is het door de diminishing returns, oftewel de steeds verder afnemende meerwaarde in veel gevallen ook helemaal niet nodig, laat staan noodzakelijk.

Van oudsher was het altijd zo dat een hogere frequentie eigenlijk met name nodig is of echt meerwaarde biedt bij games met veel snelheid, dus dan kom je automatisch uit bij race games, vechtspellen, shooters en dergelijke, maar bij de gemiddelde adventure game, een puzzle game of een point & click game heeft het zo goed als geen enkele meerwaarde.

Hier nog wat relevante artikelen, mocht het je interesseren:
https://www.howtogeek.com...ps-can-the-human-eye-see/

https://www.forbes.com/si...eye-cant-see-beyond-60hz/
Ja voor een puzzelgame doet het niet veel natuurlijk

Maar fps zeer zeker wel.

Kortom kan je wel zeggen ben niet overtuigd,
Wat je eigenlijk zegt is, “ik heb er niets aan want ik doe die dingen niet”

Das prima,
Maar er zijn weldegelijk usecases wasr het verschil maakt, feit.

Dat jij het geld er niet voor over hebt prima, dat moet iedereen zelf beslissen.

Maar zelfs voor office taken is 120fps echt wel fijn, probeer het eens. Muis volgen etc is gewoon veel prettiger, je kan text lezen terwijl je scrollt etc.
Ik heb nergens gezegd dat ik er het geld niet voor over heb, dus waar je dat vandaan haalt, geen idee. Overigens heb ik een oudere monitor, die geen 120Mhz aankan, dus er valt weinig te proberen voor mij.

Wat betreft waarvoor een hogere frame rate nut heeft, zijn we het overigens al eens, want ik zei dus al "bij race games, vechtspellen, shooters en dergelijke" en daarmee bedoelde ik dus ook fps games.

Ik ben ook wel benieuwd naar die zogenaamde usecases, want als je daarmee wil zeggen dat mensen 400 of 500 frames of Hertz kunnen zien, dan is dat sowieso geen feit, maar een uitzondering, en ook alleen maar onder bepaalde, ideale omstandigheden, en die gelden sowieso niet voor tijdens het gamen, want dat is feitelijk en biologisch en/of wetenschappelijk gezien zo goed als ondenkbaar. Voor veruit de meeste mensen, in ieder geval.

Ik weet niet of je naar de artikelen hebt gekeken die ik heb gelinkt, maar hier even een héél duidelijke quote uit het eerste artikel:
In certain situations, yes, human eyes can potentially see details at rates faster than 90Hz. Going back to that study we mentioned earlier, researchers found that---under the right conditions---humans can see up to 500Hz.

Now, this is in a setting where the images displayed on the test monitor were very simple: high-contrast images with extremely sharp outlines. The researchers were trying to see how well human eyes can detect the most obvious visual changes on a monitor, so they made it as easy as possible for the test subjects to notice different frames on the test monitor.

For this reason, you're unlikely to be able to track images moving at 500Hz when gaming. It's not impossible, but it is unlikely. There's simply too much visual information for your eyes and brain to register everything---especially when you're interacting and reacting to things occurring on screen. Furthermore, the images shown on your gaming monitor will never be as high-contrast with the severely sharp edges used in the above-mentioned study. Most games simply wouldn't look very nice if they were designed like that.
En hier dan nog een artikel die dit haarfijn in alle details uitlegt en de nodige "ik kan x frames zien" volledig ontkracht en vernietigt:
https://amplify.nabshow.c...your-eyes-vs-frame-rates/

[Reactie gewijzigd door ThanosReXXX op 22 juli 2024 14:01]

Als je van links maar rechts een object volgt, dan gaat het over welke frames geprojecteerd worden op je retina, gezien het schuift.

Mensen reageren veel te langzaam on het ms verschil fe merken absoluut. Maar minder retentie is 100% te meten.

Dat is een edge case voor fps games, maar dta betekent eigk gewoon motionblur en is 100% een ding.

Maar dat is ook de enige echte case, maar hij bestaat.
Oh, ongetwijfeld, het is alleen de vraag hoeveel mensen op iedere 100 of 1000 personen daar bij de tegenwoordige frame rates nog steeds gevoelig voor is, voor ze het ooit al waren, want in tegenstelling tot populair bijgeloof is het aantal frame rate/pixel tellers echt aanzienlijk in de minderheid, dus de mensen die het "echt wel" merken, die vormen slechts een relatief kleine groep.

Op een site als deze zal je dat soort meer kritisch denkende en kijkende mensen wellicht ook vaker tegenkomen dan wanneer je een dergelijk onderzoek zou gaan doen onder de gemiddelde Nederlander.
Ja en dat is ook
Prima, dit is ook het enige moment waarop je het ook echt aantoonbaar kan merken.

Voor de rest is het verschil van 144 naar 240 al lastig te merken voor de meesten.

Maar ik wordt altijd een beetje moe als men zegt dat het niet te merken is of dat het niet te zien is.

Hangt gewoon enorm af van de usecase.

Maar voor de gewone kantoor medewerker is 60 prima.
En weetje voor de meeste games ook.
Waarom krijg jij een min1?
Omdat wat hij zegt niet klopt.
Min 1 moet je geven als het niet gerelateerd is. Er zijn hier meer onzinnige posting zelfs met +2.
Je hebt helemaal gelijk, hoor. De -1 die je hebt gekregen is volledig onterecht.
Het verschil tussen 144 en 240 is echt wel te merken hoor. Speel maar eens een week op 240hz en dan even terugzetten op 144, dan voelt 144 echt niet lekker aan.
Ik kan persoonlijk zeggen dat ik meteen en duidelijk het verschil zie tussen 120hz en 240hz.
Voor games zoals CS2 zou ik nooit meer terug willen naar 120hz.
Bij snelle bewegingen en acties zie je gewoonweg veel meer.

In verband met nog hoger dan 240hz, lijkt het youtube kanaal optimum zeer enthousiast te zijn.
Hij spreekt in deze video over van 240hz -> 540hz.
https://www.youtube.com/watch?v=nqa7QVwfu7s


Edit: typfout

[Reactie gewijzigd door ruby362 op 22 juli 2024 14:01]

Wat een onzin, wellicht dat je wat ouder bent en het niet merkt maar het verschil is zeker wel te merken. Niet tijdens gewoon webbrowsen, maar wel in fast paced FPS games (CS2/Valorant/Overwatch etc).

[Reactie gewijzigd door Rzarect0r op 22 juli 2024 14:01]

Tussen 240hz en 480hz ga je als mens nauwelijks verschil zien. Responsiveness, motion blur, etc is allemaal al zo goed als weg op 240hz.

Bovendien heb ik met de meeste games al moeite om uberhaupt 144 locked te halen op een 3090 @ 3440x1440 zonder zwaar in te boeten op beeldkwaliteit.

[Reactie gewijzigd door keejoz op 22 juli 2024 14:01]

Heb het zelf getest en dat is absoluut niet waar, het verschil zie je duidelijk (getest met een 360hz scherm). Uiteraard moet je de FPS kunnen halen om dat te matchen, maar in de competitive FPS games is het niet zo lastig om 400+ FPS te halen in de meeste situaties.

Ja als je langzaam om je heen kijkt en langzaam speelt dan zal je het niet merken, maar als je als een bezetene loopt te flicken dan merk je het echt wel.
Dat zei ik ook bij 120 en 240 hz, maar nu ik een 240 hz monitor heb voel ik het verschil wel degelijk. Niet dat 120 onspeelbaar is, maar ik zie duidelijk het verschil. Ik heb nooit 240 en 480 hz naast elkaar gezien, maar ik zou niet durven beweren dat het niet zichtbaar is.
Als je de marketing mag geloven heb je een FHD/400Hz nodig voor competitive shooters, een 4K Oled voor films/series en een 1440p IPS ultrawide voor productiviteit, race sims en immersive games.
Over onzin gesproken...

https://www.howtogeek.com...ps-can-the-human-eye-see/

https://www.forbes.com/si...eye-cant-see-beyond-60hz/

De feiten spreken je dus tegen, dus of je bent iemand die in een zeer select groepje van mensen valt die dit soort dingen waar kunnen nemen, of je kletst gewoon uit je nek. De kans op die tweede mogelijkheid is vele malen groter... ;)
Je bronnen spreken elkaar tegen, de ene beweert dat het verschil tussen 144hz en 240hz niet zo groot is (diminishing return, maar dus nog steeds een merkbaar verschil) en het tweede artikel claimt dat je niet meer dan 60fps kunt waarnemen? :?

Maar goed, anders kijk je even de reviews van optimum tech of hardwareunboxed met slo-mo camera's en duizenden anderen die de verschillen wel gewoon zien.
Dan moet je natuurlijk wel de hele artikelen lezen, en niet opmerkingen eruit pikken die je betoog ondersteunen. De tweede link is een artikel geschreven door een gespecialiseerd arts/neuropsycholoog, dus die zal vast wel het één en ander aan hogere/betere kennis bezitten dan wij gemiddelde stervelingen.

Overigens is het ook belangrijk om sowieso even te laten bezinken dat het menselijk oog überhaupt niet "ziet" in frame rates of pixel resoluties, want ten eerste is het menselijk oog een analoog mechanisme, en ten tweede is er ook nog de wisselwerking tussen het oog en de hersenen, die hetgeen wij denken te zien aanvullen tot een totaalbeeld, maar eigenlijk ziet het oog maar een klein gedeelte scherp.

In ieder geval is het algemene verhaal in beide artikelen het effect van frame rates en de werking van het menselijk oog, en daar zitten wel degelijk beperkingen aan, dus er komt een keer een grens aan wat voor ons visueel een meerwaarde gaat bieden, en dan komen we uiteindelijk terecht in de details, dus toegevoegde features zoals HDR, active ray tracing en dergelijke, die nog wel heel duidelijk een verschil tonen als je ze wel of niet implementeert, waar je bij frame rates en resoluties inderdaad te maken hebt met die diminishing returns.

In dat tweede artikel staat een link naar de originele pagina, waar het volledige verhaal en de tekst en uitleg van de specialist staat: https://www.quora.com/Hum...20Hz-144Hz-monitor-better. Je moet dan even een stukje naar beneden, de arts in kwestie heet Joyce Schenkein.

En hier nog een heel interessant en nuttig artikel:
https://amplify.nabshow.c...your-eyes-vs-frame-rates/
Sla ook zeker de links in het artikel niet over, want daarin worden alle vage claims over het hoe en wat en welles/nietes van bepaalde hoeveelheden frame rates daadwerkelijk kunnen zien volledig afgebroken.

[Reactie gewijzigd door ThanosReXXX op 22 juli 2024 14:01]

Wellicht dat je dan zelf even met een bron kan komen ipv te roepen dat je boven de 150hz geen merkbaar verschil ziet 8)7

Maar goed mijn vader uit '74 die ziet het verschil ook niet hoor :+
Ik ga geen moeite doen als jij gaat roepen dat iets onzin is, vind het prima als je dingen in twijfel trekt maar vind het een beetje triest als je zo maar gaat roepen dat iets onzin is, zonder zelf verder te kijken.

Verder ga ik er geen tijd aan verspillen, als jij denkt dat wel verschil maakt koop jij lekker en scherm met 500Hz+, ik ga niet extra betalen voor iets wat je oog niet kan waarnemen.
hij geeft zelf aan dat hij het merkt jij bent de degene die iets ander beweerd

kom dan met bronnen en ga niet van een ander verwachten dat hij het werk voor jou doet
Aha, jij claimt iets, ik vraag om bewijs en ik mag het vervolgens maar zelf uitzoeken 8)7 Omgekeerde wereld dus.

Nou euh, de aarde is vlak, doe maar je eigen onderzoek, want ik hoef je niks te bewijzen!

[Reactie gewijzigd door Rzarect0r op 22 juli 2024 14:01]

Voor games als counterstrike, valorant, apex legends etc. Hoe meer Hz hoe beter, al kom je wel in diminishing return natuurlijk. Als ik deze monitor zou hebben zou ik de moeite zeker nemen om te schakelen. 500fps haal ik in die games toch wel.

[Reactie gewijzigd door youridv1 op 22 juli 2024 14:01]

Niks, het is gewoon logisch dat lagere resoluties een hogere framerate hebben. Het zal em in de beschikbare bandbreedte en rekenkracht (van de monitor-firmware) zitten.
pfff weeral 1440 monitors. Das toch niet meer van deze tijd?

5120*2160 op 120hz aub!
Liever juist iets minder breed. Die ultrabrede monitors zijn zo clunky als je er 2 wilt. Bovendien op laptops wil iedereen liever 16:10 of zelfs 3:2, dus ik begrijp niet zo goed waarom dezelfde markt op desktop dan liever zo breed mogelijk wil. Misschien een multimonitorallergie opgelopen.
Die ultrabrede monitors zijn juist bedoeld als vervanging van 2 reguliere monitoren.

En waarom zou het formaat van het beeld op een laptop ook maar iets te maken hebben met die van een losse monitor?

Alsof je een losse monitor in een laptop tas zou wil proppen en met je meenemen en alsof je daar rekening moet houden met de breedte en hoogte van de monitor zodat je nog een redelijk toetsenbord en trackpad kwijt kunt (wat dus op een laptop wel het geval is).
Het heeft met elkaar te maken in die zin dat het in beide gevallen een scherm is waar je tegenaan moet kijken. Als je aan verhouding X gewend bent, ligt het wmb voor de hand dat je dat voor beide wil. Dan kun je op dezelfde manier je desktop en windowtjes indelen enzo.
Dat zou mooi zijn! ik heb zelf de LG 40WP95CP-W die is dan 5120*2160 maar dan op 75 Hz, Deze kon ik "overklokken" tot 90 Hz. Scheelt weer 15 Hz voor de persoon die dat nodig heeft.
Gamen doe ik bijna niet maar gebruik hem voor foto bewerking. Dan is zo een oppervlakte wel fijn!

Edit: was geen 90 maar 85Hz

[Reactie gewijzigd door mr.loepie op 22 juli 2024 14:01]

Overclocken naar 85hz? Nice. dat wist ik niet. Online precies niet veel over te vinden.
Als je nvidia hebt kun je dat in het control center doen. Tot je out of range krijgt. Bij mij was dat vanaf 86hz. En 85 werkte.
De eerste aangekondigde monitor is gewoon 4K (3,840 x 2,160) op 240Hz hoor. Volgens mij gaan displayport 1.4 en HDMI 2.1 ook niet hoger dan dat qua resolutie en refreshrate. Je zult even geduld moeten hebben tot displayport 2.0+ gemeengoed is voor ultrawides met die resolutie en refresh rate beschikbaar komen.
3840*2160 op high refresh rate bestaat al effe.
Maar breder dan dat niet echt, tenzij die 2300€ bakbeesten van LG (7680x2160)

de DP 2.0 GPU's zijn er anders al wel (o.a. in mijn pc kast!)
Voelt een beetje als vroeger in het CRT tijdperk. Daar had je gewoon een hele range aan refresh-rates in combinatie met resoluties. Laatst vroeg ik me al af waarom dit niet meer bij de LCD/OLED monitoren zo werkt.
Wat dacht je dat van de native resolutie van een LED-paneel?

Het zijn allemaal pixels die aan staan of uit staan. Die kun je niet opdelen.

Als je 3k gaat tonen op een 4K-paneel, wordt alles vaag en gekarteld.

Je kunt dus alleen hele gradaties lager (of je moet genoegen nemen met zwarte balken).

Een CRT heeft meestal geen specifiek raster en kan daarom van zeer laag (zeg 320*200) tot en met zijn eigen resolutie weergeven en meestal nog hoger dan dat (al is dat laatste dan meestal wel op een lagere refreshrate).
Elke CRT heeft een ‘vast’ raster, inclusief subpixels.

Dat 3K er brak uit ziet op 4K kan erg meevallen omdat het niet precies 3000 en 4000 pixels zijn. Er is nagedacht over de diverse maten en vaak schaalt het juist prima.

Het schaalt vooral slecht tussen verschillende beeldverhoudingen. En aangezien die in de lijst met te kiezen resoluties vaak door elkaar stonden (of nog staan) krijg je, als je bijvoorbeeld een widescreen verhouding kiest op een 16:9 monitor of een 4:3 op een 16:9 scherm, vaak wél hele lelijke effecten.
Elke CRT heeft een ‘vast’ raster, inclusief subpixels.
Wat totaal niet te vergelijken is met het raster van een LCD-paneel.
Dat 3K er brak uit ziet op 4K kan erg meevallen omdat het niet precies 3000 en 4000 pixels zijn. Er is nagedacht over de diverse maten en vaak schaalt het juist prima.

Het schaalt vooral slecht tussen verschillende beeldverhoudingen. En aangezien die in de lijst met te kiezen resoluties vaak door elkaar stonden (of nog staan) krijg je, als je bijvoorbeeld een widescreen verhouding kiest op een 16:9 monitor of een 4:3 op een 16:9 scherm, vaak wél hele lelijke effecten.
Onzin, ook al gebruik je dezelfde resolutie, dan krijg je bij niet 1:2-mapping in iedere richting gewoon een slecht onscherp beeld.

1920x1080 op 2560x1440 schaalt bijvoorbeeld gewoon heel slecht, terwijl het dezelfde verhouding is. 1280x720 gaat weer prima op 2560x1440.

[Reactie gewijzigd door White Feather op 22 juli 2024 14:01]

Onzin, ook al gebruik je dezelfde resolutie, dan krijg je bij niet 1:2-mapping in iedere richting gewoon een slecht onscherp beeld.
Bedoel je in plaats van 'dezelfde resolutie', 'dezelfde verhouding'?

Ik zit nu bijvoorbeeld achter een 5120 x 2160 monitor, met de resolutie gekozen op 3840 x 1620. Daar is niets onscherps aan.
Zelfde verhouding inderdaad.

Ook bij jou is het veel onscherper dan de native resolutie.

Je hebt het nu echter over een monitor met zeer hoge resolutie. Daardoor zie je het veel minder.

Een 40” monitor met die resolutie heeft een dpi van 140. Een 34” is dan 163 dpi.

Nogal een verschil met een reguliere 24” op FHD (92 dpi) of 27” op QHD (109).
Bij CRT heb je ook een "native" resolutie, maar doordat CRT's van zichzelf onscherp waren, zag je niet zoveel scherpte-verschil tussen resoluties. Ik heb zelf wel gemerkt met die CRT's dat er altijd een resolutie was waarop ze het scherpst waren.

Mijn 19" IIyama DiamondTron was bijv het scherpst op 1400x1050.

[Reactie gewijzigd door _Thanatos_ op 22 juli 2024 14:01]

en dit is al LG Electronics (de monitorfabrikant), niet LG Display (de panelfabrikant), wat wil zeggen dat dit geen prototype is, maar een product dat klaar is voor de markt.

Om zo'n hoeveelheid data naar je scherm te krijgen heb je DP2.1 nodig met UHBR 20, dus ik hoop voor de kopers dat ze er ook een goeie kabel bij leveren (of kopen), want anders gaat je (ongetwijfeld dure) nieuwe monitor niet z'n maximum kunnen halen.

Eens dit panel ook door anderen gebruikt kan/mag worden zie ik dit wel uitgroeien tot een van de meestgebruikte voor lange tijd die het beste van 2 werelden combineert.
en dat je videokaart dit ondersteunt de 4090 zit nog steeds op DP 1.4

AMD ondersteunt al wel DP 2.1

[Reactie gewijzigd door atthias op 22 juli 2024 14:01]

Rond 2030 zijn er dan waarschijnlijk 8K monitoren en VR-brillen die dan tot 600hz VFR ondersteunen maar dan mag het eens stoppen met het gedachte meer en meer is beter...
600 is wel deelbaar door 24, 25, 30, 50, 60, 100 en 120.
Persoonlijk zie ik geen verschil meer bij meer dan 100hz/120hz maar dat kan aan mij liggen. Het is wel tof dat we technologie hebben dat nog boven het visuele nut gaat en dat mag maar men moet ook niet overdrijven. Er zijn andere zaken die belangrijker zijn qua verbetering in beeldtechniek.

Momenteel zie ik wel het nut nog niet. En dat zal ook waarschijnlijk nog 10 jaar zo zijn. Pas volgend decenium komt er waarschijnlijk stap voor stap voldoende producerend content binnen. In de game wereld nog zeker 1 of 1,5 generatie geduld. Ps6 pro of ps7 tijdperk als die er ooit komt...

[Reactie gewijzigd door VerbeureM op 22 juli 2024 14:01]

Ieders oog is natuurlijk anders dus vergelijking is altijd wel lastig.
Het zal en blijft altijd wel een discussie puntje, voornamelijk op wat je oog kan 'waarnemen'..
Zelf zie ik dus het verschil van 60/120 en 120/144 en van 144/165.

Het is kwestie van wennen en je ogen erop trainen denk ik, zelf heb ik ook nooit hoger dan 165 gegamed maar ik probeer liever iets uit waar ik echt zoiets heb van ja i need that.

+ aanvulling op andere zaken die belangrijker zijn, ik zelf kies graag voor gameplay boven grafisch.
als ik voor grafisch wil spelen zou ik toch echt wel op een OLED TV of monitor games gaan spelen.

maar ontopic te blijven,

Wat is hier verder zo speciaal aan, i mean als e 4k monitor hebt die bv 240hz al aankan, je past je RES aan maar je kan dan toch kiezen uit welke HZ je wilt?
Of mis ik hier nu echt iets van?
Wel opvallend weer, grote schermen met relatief lage resoluties. Alleen de 32 inch heeft 4K.
27GS95QE: 26.5inch, 2,560 x 1,440
32GS95UE: 32inch, 3,840 x 2,160
34GS95QE: 34inch, 3,440 x 1,440
39GS95QE: 39inch, 3,440 x 1,440
45GS95QE, 45GS96QB: 44.5inch, 3,440 x 1,440

Ik gok dat die 32inch 4K dan ook duurder zal zijn dan de rest, en kan gemakkelijk €2000 of meer zijn, vooral als er rekening wordt gehouden met de 480Hz Dual-Hz.
En dat terwijl ze in laptops vrolijk een 15" paneel (of nog kleiner zelfs) gooien met volledige 4K resolutie of hoger. Mijn werklaptop is bijv 15" met 3840x2400. Dus waarom is dat op desktop dan opeens "te hoog"?
Dus waarom is dat op desktop dan opeens "te hoog"?
Wie noemt het "te hoog"?
Het zou gewoon te maken kunnen hebben met OLED productietechnieken.
Of met het feit dat OLED voor productiviteit toch niet ideaal is en je voor gaming minder baat hebt bij zo'n hoge resolutie.
Doet dat laptoppaneel trouwens 240 Hz? 120 Hz?

[Reactie gewijzigd door Olaf van der Spek op 22 juli 2024 14:01]

Lapop doet 60fps, en dat is meer dan genoeg voor mij. Meer zie ik niet :)
de gekantelde 39GS95QE ?
Bedoelen we curved ?
Doe dat op een ergo poot aub ! Ik heb zo een LG ergo 32 inch en zou dit wel eens in de praktijk willen zien, maar lijkt me zeer mooie feature. Maar om nu deze te vervangen, heb hem nog geen 2 jaar, vind ik persoonlijk . En 2x 32 inch naast elkaar is beetje teveel van het goede, zou het wel kunnen kantelen en die 27inch doorschuiven, maar eerst eens prijs en tests bekijken

Op dit item kan niet meer gereageerd worden.