Wie heeft een paar jaar geleden een gamingmonitor aangeschaft en kon tijdens het aankoop- en afwegingsproces nauwelijks een exemplaar vinden dat op alle vlakken voldeed aan de wensen? De perfecte monitor vinden, zal wellicht altijd een bijna onmogelijke zoektocht zijn, maar een paar jaar geleden was die zoektocht zeker gedoemd te mislukken. Althans, als je af mag gaan op aardig wat berichten uit die tijd. Kijk op verschillende internetforumtopics uit 2020 en het duurt niet lang voordat er allerlei klachten over de beschikbare monitoren tevoorschijn komen.
Uiteraard wordt er altijd geklaagd en vaak zijn de klachten behoorlijk persoonlijk, maar er was veelal een gemene deler: het ontbreekt aan een 'compromisloze' gamingmonitor. Monitoren met TN- en ips-panelen krijgen veelal kritiek wegens het niet al te hoge contrast, backlightbleeding en ips-glow. Een scherm met VA-paneel wordt vaker genoemd als het minst slechte alternatief, maar ook daarbij worden minpunten aangestipt, bijvoorbeeld dat te veel exemplaren (te sterk) gebogen panelen hebben en dat ze wat responstijden betreft nog iets achterlopen.
Het zijn natuurlijk allemaal lcd-schermen met de daarbij horende voor- en nadelen. Waarom duurt het zo lang voordat er een vernieuwende monitortechnologie komt? Er werd al gesproken over een technologie die misschien alles gaat oplossen: de komst van oledpanelen. Maar ja, het was 2020 en oled als reddende engel zou nog wel een paar jaar op zich laten wachten.
Die laatste, ietwat sombere voorspelling is in ieder geval vrij accuraat gebleken. Inmiddels zijn oledmonitoren niet langer voorbehouden tot dromen en wensdenken. Oledmonitoren zijn al even te koop en dat aantal zal alleen maar gaan toenemen. In 2022 zijn er ook andere ontwikkelingen in monitorenland geweest. In dit artikel zetten we een aantal opvallende ontwikkelingen op een rij die dit jaar hebben getekend en blikken we kort vooruit naar wat 2023 zal brengen.
Oled
Zo'n tweeënhalf jaar geleden bracht LG de CX-oled-tv uit die voor het eerst ook met een beelddiagonaal van 48 inch beschikbaar kwam. Later volgden veel andere tv-fabrikanten met hun 48"-oled-tv's. Dit formaat is ongeveer 'klein' genoeg om ook te worden overwogen als monitor en er verschenen dan ook de nodige reviews waarbij de recensenten specifiek keken hoe deze televisie was in die rol. Uiteraard werd aangestipt dat 48 inch als monitor nog altijd aan de grote kant is, een bezwaar dat alweer iets minder speelt bij de dit jaar voor het eerst verschenen 42"-oled-tv's van Panasonic, Sony en LG.
LG CX
Dat televisies met deze voor monitorbegrippen relatief forse formaten ook als monitorvervangers worden ingezet, had natuurlijk een reden. In monitorenland waren er simpelweg niet of nauwelijks oledopties; gamers hadden wel wat te kiezen, maar het was allemaal lcd. Het oneindige contrast en de superieure zwartwaarden, gecombineerd met betere kijkhoeken en responstijden van oled zijn simpelweg buiten bereik met lcd-monitoren, dus waren televisies de enige optie. Inmiddels is dat veranderd: momenteel staat er een klein dozijn oledmonitoren in de Pricewatch.
LG kwam in 2021 al met een voor professionele beeldbewerking bedoelde oledmonitor in de UltraFine-serie op basis van het oledprintproces van het Japanse bedrijf Joled, de 32EP950. Dat scherm, vooral bedoeld voor een niche, maakte dus nog geen gebruik van de woledtechniek die LG Display toepast voor de productie van grotere oledpanelen bedoeld voor televisies.
ASUS ROG Swift PG42UQ
Daar is dit jaar verandering in gekomen. LG kwam met de UltraGear 48GQ900, de eerste oledmonitor van LG voor gamers en de eerste oledmonitor die de 4k-woledpanelen gebruikt. Dit is een 48"-monitor met niet alleen HDMI-aansluitingen, maar ook een DisplayPort-aansluiting. ASUS kondigde begin dit jaar ook oledmonitoren aan: de PG48UQ met een 48"-paneel en de PG42UQ van het 42"-formaat. Daarnaast kondigde Acer de Predator CG48 met een 48"-paneel aan. Corsair komt met een 45"-monitor die buigbaar is en LG toonde eerder een 240Hz-ultrawide met een oledpaneel en beelddiagonaal van 45 inch. Ook fabrikant Benq laat zich niet onbetuigd en kondigde in augustus zijn eerste 48"-oledmonitor aan.
Dit zijn allemaal nog relatief grote formaten, maar er komen ook kleinere oledmonitoren. LG heeft eerder al de UltraGear 27GR95QE-Baangekondigd, een 27"-oledmonitor met 1440p-resolutie en 240Hz-refreshrate. LG Display zou ook al zijn begonnen met de productie van 27"- en 32"-oledpanelen voor monitoren.
Nog niet alle genoemde monitoren zijn al (breed) beschikbaar, maar er valt al wat te kiezen. Dat wordt zelfs nog beter, want er is een concurrerende oledtechniek die ook een duit in het zakje doet: QD-oledpanelen van Samsung Display. Er zijn al televisies van Samsung en Sony op basis van deze afwijkende oledtechnologie en monitoren bleven niet achter. Dell bracht de 34"-Alienware AW3423DW op de markt, die gebruikmaakt van hetzelfde paneel als de Samsung Odyssey G8QNB. MSI toonde al modellen van 34 en 49 inch. MMD heeft naast een woledmonitor ook een QD-oledscherm aangekondigd. Samsung Display zou ook de productie van 27"- en 32"-panelen overwegen, wat op termijn voor nog meer QD-oledmoitoren kan zorgen.
Wie een oledmonitor wil kopen, heeft de meeste opties bij grotere diagonalen van 42 inch of meer. Degenen die graag een 34"-QD-oledmonitor willen en bijvoorbeeld die van Alienware wensen, moeten vooral geluk en geduld hebben, want dit exemplaar is vaak uitverkocht. De beschikbaarheid is ook bij monitoren van andere fabrikanten regelmatig nog niet al te best. Daar komt bij dat er diep in de buidel moet worden getast: 1200 euro is doorgaans het minimumbedrag dat nodig is om een oledmonitor te bemachtigen.
Miniledmonitoren
Miniledmonitoren zijn niet pas in 2022 om de hoek komen kijken. Op de CES van 2019 werd al de eerste monitor met miniledbacklight gepresenteerd, maar je zou kunnen zeggen dat 2021 het jaar van de opkomst van miniledmonitoren was. In dat jaar kwamen er onder meer twee high-end exemplaren op de markt: de ASUS ROG Swift PG32UQX en de Samsung Odyssey Neo G9. Laatstgenoemde heeft een miniledbacklight met 2048 zones voor nauwkeurige local dimming en een opgegeven piekhelderheid van 2000cd/m², al is dat laatste niet eenvoudig haalbaar; de gemeten 1066cd/m² bij een klein wit vlak dat vijf procent van het scherm beslaat, is een realistischere maatstaf. De ASUS-monitor doet het op dat vlak nog beter met een gemeten piekhelderheid van 1634cd/m² en 1152 zones.
Samsung Odyssey Neo G9 met rgb-verlichting
Deze monitoren hebben niet alleen het miniledbacklight gemeen; ze delen ook een relatief hoog prijskaartje. Vooral de ROG Swift PG32UQX is duur: hij heeft een prijskaartje waar nog nooit een lager bedrag dan 3000 euro op heeft gestaan. De Odyssey Neo G9 begon vorig jaar met een prijs ruim boven de 2000 euro en kost momenteel zo'n 1500 euro.
Dit jaar heeft op het vlak van miniledmonitoren vooral laten zien dat het aanbod wat groter is geworden en dat de prijzen wat zijn gezakt. In de Pricewatch staan in totaal zeventien verschillende monitoren met een miniledbacklight. De meeste modellen zijn niet goedkoop, maar inmiddels is het mogelijk om rond of onder de 1000 euro een miniledmonitor aan te schaffen. De Philips 27B1U7903 met 4k-resolutie en 60Hz-verversingssnelheid kost nog ruim 1300 euro, maar de komende Cooler Master Tempest GP27U/Q met 4k-resolutie en 160Hz zal 1000 euro gaan kosten en de AOC Agon Pro AG274QXM kostte vorig jaar nog 1000 euro, maar is inmiddels te verkrijgen voor minder dan 800 euro.
High dynamic range
Acer Predator X27
Zes jaar geleden op de CES van 2017 presenteerde Nvidia voor het eerst G-Sync-hdr-monitoren: de ASUS ROG Swift PG27UQ en Acer Predator X27. Ze kwamen met een vertraging van een jaar uiteindelijk beschikbaar. De specificaties logen er niet om: de monitoren werden voorzien van hetzelfde paneel en konden een hoge piekhelderheid van 1000cd/m² halen en combineerden dat met een full array local dimming backlight, ofwel fald-backlight, met 384 zones, hetzelfde 4k-paneel en 144Hz. Dergelijke specificaties waren indrukwekkend in een tijd waarin er nog nauwelijks sprake was van ondersteuning voor high dynamic range op monitoren.
Inmiddels is dat anders. Het G-Sync-hdr-label is een tijdje geleden ook niet voor niets hernoemd naar G-Sync Ultimate, omdat verreweg de meeste G-Sync-schermen ondersteuning voor hdr hebben. Dat laatste betekent echter niet dat deze monitoren ook daadwerkelijk heel goed zijn in het weergeven van hdr.
Een korte blik op VESA's DisplayHDR-label maakt dat inzichtelijk. Deze certificering is eind 2017 in het leven geroepen om een zekere orde in de chaos te scheppen als het gaat om de hdr-capaciteiten van monitoren. Of zoals VESA het verwoord: not all hdr is created equal. Fabrikanten konden allerlei hdr-aanduidingen op de doos zetten, maar dat zei weinig over de daadwerkelijke capaciteiten. Dus stelde VESA een testmethode op waarbij onder meer naar de piekhelderheid en de zwartwaarde wordt gekeken, en er minstens sprake moet zijn van een 8bit-paneel. De eisen worden steeds strenger naarmate het label hoger wordt.
Minimum peak luminance in cd/m²
Color gamut
Dimming technology
Maximum black level luminance in cd/m²
DisplayHDR 400
400
sRGB
Screen-level
0,4
DisplayHDR 500
500
WCG
Zone-level
0,1
DisplayHDR 600
600
WCG
Zone-level
0,1
DisplayHDR 1000
1000
WCG
Zone-level
0,05
DisplayHDR 1400
1400
WCG
Zone-level
0,02
DisplayHDR True Black 400
400
WCG
Pixel-level
0,0005
DisplayHDR True Black 500
500
WCG
Pixel-level
0,0005
DisplayHDR True Black 600
600
WCG
Pixel-level
0,0005
Het DisplayHDR-logo is op papier een goede manier om erachter te komen of een hdr-monitor technisch gezien voldoet aan bepaalde vereisten voor het vertonen van hdr-materiaal. Zo moet een DisplayHDR1000-scherm een piekhelderheid van 1000cd/m² kunnen leveren, een flink groter kleurbereik dan sRGB ondersteunen en een vorm van local dimming hebben om aan de contrastvereiste te voldoen.
Toch zegt dit bepaald niet alles. Bij het nieuwere DisplayHDR1400- of het DisplayHDR1000-label denkt een gemiddelde consument wellicht een zeer goede hdr-monitor in handen te hebben, maar dat is allerminst gegarandeerd. De voorganger van de Samsung Odyssey Neo G9, de Odyssey G9, is daar een goed voorbeeld van. Deze monitor had ook al het DisplayHDR1000-label en deed het wat kleurbereik en helderheid goed genoeg voor hdr-materiaal, maar dit scherm had nog geen miniledbacklight; deedge lit local dimming met slechts tien zones was eigenlijk veel te grofmazig om een goed contrast neer te zetten, wat voor een goede hdr-ervaring erg belangrijk is. Een fald-backlight was en is simpelweg geen voorwaarde.
Wat ook niet helpt, is de wijze waarop het contrast bij bepaalde onderdelen van de DisplayHDR-certificering wordt bepaald. VESA schrijft een enigszins bedenkelijke testmethode voor om via de checkerboardweergavetest het contrast te bepalen. Voor praktijksituaties is een checkerboardmeting met om en om zwarte en witte vakjes een goede benadering om het werkelijke contrast te meten, omdat deze test het maximale van beeldschermen vergt: op hetzelfde beeld moet het scherm zowel stukjes heel donker kunnen maken, maar tegelijkertijd ook bepaalde vlakjes juist heel helder. Dat is precies wat voor hdr belangrijk is: hoe goed kan het scherm kleine stukjes helder maken, terwijl de rest nog behoorlijk donker is? Dat is bijvoorbeeld het scenario in een game waarbij je als speler in een donkere tunnel gebruikmaakt van een zaklamp: hoe donker is de rest van de tunnel nog en hoe fel kan de straal van de zaklamp dan worden?
Het enige wat een monitor volgens de VESA-checkerboardtest hoeft te kunnen, is kortstondig de 1000cd/m² halen op een klein wit vlak waarbij de rest van het scherm zwart is, waarna de zwartwaarde wordt gemeten op een van de zwarte vlakjes van een checkerboardweergave, dus een schaakbordpatroon. Daarbij wordt de helderheid teruggeschroefd en de zwartwaarde van een van de zwarte vlakjes gemeten op bijvoorbeeld 0,05cd/m². Daarna wordt die waarde afgezet tegen de eerder behaalde 1000cd/m². Het resultaat is een zeer hoog contrast van zo'n 20.000:1. De VESA-methode combineert dus in feite twee verschillende tests tot één. Het halen van 1000cd/m² op het kleine witte vlakje is echter een aparte test die losstaat van de checkerboardweergave en hoe de zwartwaarde wordt gemeten. Het wordt pas echt interessant als die 1000cd/m² en de 0,05cd/m² tegelijk tijdens dezelfde test zouden worden behaald, maar dat is niet wat de testmethode voorschrijft. Hardware Unboxed heeft deze testmethode dan ook flink bekritiseerd en nam zelfs het woord 'misleiding' in de mond; volgens het YouTube-kanaal is het op deze manier te gemakkelijk voor monitoren om de testmethode door te komen en te voldoen aan de DisplayHDR1000, zonder dat het iets wezenlijks zegt over de capaciteiten van de local dimming. Het is dan ook beter om niet compleet te vertrouwen op deze labels, maar af te gaan op gebruikerservaringen en reviews.
Stelt hdr op monitoren dan niets voor? Dat zou je kunnen zeggen, maar dit jaar zijn er toch twee ontwikkelingen die een kentering voor hdr teweeg hebben gebracht: oledpanelen en miniledbacklights. Oledmonitoren zijn dit jaar tot wasdom gekomen. Niet langer zijn oled-tv's de enige optie; er valt wat te kiezen wat oledmonitoren betreft, zelfs tussen meerdere verschillende technieken. VESA heeft ook ingespeeld op de komst van oledschermen met de introductie vorig jaar van DisplayHDR True Black-labels. Hier zijn er drie van: 400, 500 en 600. Verder dan 600cd/m² op een klein wit vlak gaat het dus nog niet, al is dat vrij normaal voor woledpanelen afkomstig van LG Display. Monitoren op basis van QD-oledpanelen van Samsung Display kunnen hogere waarden halen. In de review van de Dell Alienware AW3423DW-monitor werd op een vlak van vijf procent een maximale helderheid van 945cd/m² gemeten en een volledig wit scherm leverde een helderheid van 280cd/m² op, al ontlopen de gemiddelde helderheden tussen vijf en honderd procent elkaar niet veel als deze Alienware-monitor wordt vergeleken met concurrentie van woledschermen. De capaciteit om tot op pixelniveau de helderheid aan te sturen en het feit dat zwart ook echt zwart is, is een wereld van verschil voor hdr-ervaringen.
Backlightfoto van de Samsung Odyssey Neo G9. De foto is bewerkt om vlekken in de backlight overdreven zichtbaar te maken.
Waar oledmonitoren nog iets laten liggen, is de maximale helderheid. In dat gat springen miniledmonitoren. Deze schermen hebben niet de fijnmazigheid, de responstijden en het enorm hoge contrast van oledmonitoren, maar naast de hogere helderheid komen ze wat contrast betreft ook een heel eind als er maar genoeg localdimmingzones aanwezig zijn. Dat bewijst de Samsung Odyssey Neo G9. In de review op Tweakers van deze monitor werd het volgende geconstateerd dankzij de hoge piekhelderheid en de fijnmazige local dimming: "Het fenomenale contrast leidt, samen met de relatief hoge piekhelderheid en het relatief hoge kleurbereik, in de praktijk tot een zéér indrukwekkende hdr-weergave, de beste die we tot nu toe op een gamingmonitor hebben gezien. In Doom Eternal steken kleurrijke lichteffecten van wapens en monsters schitterend af tegen diepdonkere gangen."
Dit Samsung-scherm is een high-end miniledmonitor die prestaties biedt waar lager gepositioneerde monitoren met miniledbacklights niet aan kunnen tippen, maar duidelijk is dat dit jaar daadwerkelijk een overtuigende hdr-ervaring mogelijk is op een monitor en daarin is er nu ook meer keuze. Een goede hdr-ervaring is nu ook langzaamaan mogelijk op relatief wat kleinere monitoren, zoals de 34"-Alienware AW3423DW. De enige echt goede hdr-schermen van een vergelijkbaar formaat tot nu toe, waren drie G-Sync Ultimate-ultrawides van AOC, ASUS en Acer uit 2019. Die schermen hadden een fald-backlight met 512 zones en kostten minstens 2000 euro, maar zijn al geruime tijd niet meer leverbaar.
Dood van TN
Een trend die ook al langer gaande is en in 2022 heeft doorgezet, is de neergang van TN-panelen. Er zijn nogal wat lcd-panelen voor monitoren en daarvan zijn er drie 'smaken': in-plane switching (ips), vertical alignment (VA) en twisted nematic (TN). Het onderscheid tussen deze drie paneeltechnieken zit in de wijze waarop de kristallen zich bewegen zodra er stroom gaat lopen en hoe ze standaard zijn georiënteerd. Dus wat is de toestand van de kristallen als er geen stroom loopt en wat doen ze als ze wel onder invloed van elektriciteit komen te staan? Bij TN-panelen zitten er elektroden aan de twee zijden van de vloeistof en laten de cellen licht door als er geen stroom loopt, en als er wel stroom loopt, veranderen ze naar een verticale oriëntatie en wordt het licht geblokkeerd. Bij VA-panelen is dit precies omgekeerd: de kristallen laten in rustpositie geen licht door en dat verandert pas als er stroom op komt.
In de praktijk staat VA bekend om het hogere contrast, terwijl ips vooral goed scoort op de kijkhoeken en kleurweergave, en TN moet het vooral hebben van de snelheid en betaalbaarheid. In bovenstaande grafiek is te zien dat de eigenschappen van TN jaren geleden goed in de smaak vielen. Toen was VA nog niet echt een factor en was het een tweestrijd tussen ips en TN. TN-schermen waren voorheen doorgaans de beste optie voor gaming, gelet op hun hoge refreshrates en zeer snelle responstijden.
Op het vlak van snelheid hebben paneelfabrikanten in de loop van de jaren de VA- en ips-panelen flink verbeterd, wat maakt dat het snelheidsvoordeel van TN in de zin van responstijden voor een belangrijk deel teniet is gedaan. TN kom je steeds minder tegen als gamingmonitor. Een moderne ips-monitor doet wat responstijden betreft weinig meer onder voor TN en biedt wel een beduidend betere beeldkwaliteit in de zin van betere kijkhoeken en kleurweergave. TN is wat ontwikkeling betreft wat meer stil blijven staan en het kostenvoordeel is inmiddels ook niet meer zo'n factor. Dat bijvoorbeeld ips ook op het vlak van beeldkwaliteit wordt doorontwikkeld, blijkt bijvoorbeeld uit IPS Black-schermen, die tot op heden vooral op zakelijke gebruikers zijn gericht. Deze ips-schermen hebben diepere zwartwaarden en dus een hoger contrast.
De Lenovo Legion Y25-25 (links) en Samsung Odyssey G4
Wellicht is het ook veelzeggend dat alle 360Hz-monitoren die in de Pricewatch staan uitsluitend ips-schermen zijn. Nu we het toch over de refreshrate hebben: in 2022 zette de trend door dat de refreshrate van gamingschermen jaarlijks een beetje toeneemt. Inmiddels kijken we niet meer op van 360Hz of 240Hz en belangrijker: ten opzichte van enkele jaren geleden koop je een 240Hz-scherm voor grofweg de helft van de prijs. Zoals de review van de Lenovo Legion Y25-25 en Samsung Odyssey G4 aantoont, is het tegenwoordig mogelijk om voor pakweg 250 tot 270 euro een 25"-scherm met full-hd-paneel van 240Hz aan te schaffen.
Slot
LG DualUp
In 2022 hebben we ook een aantal opvallende monitors langs zien komen die toch ook even genoemd moeten worden, zoals de verrassende LG DualUp. Dit is geen gamingmonitor, want dit scherm combineert niet twee standaardschermen van 16:9 naast elkaar, maar juist boven elkaar. Kortom, een zeer hoog scherm met maar liefst 2880 verticale pixels dat het pixelequivalent van twee 1440p-schermen in een behuizing combineert. Of wat te denken van de buigbare 45"-monitor die Corsair al in augustus toonde en die inmiddels voor 2400 euro is te verkrijgen. Deze Corsair Xeneon Flex 45WQHD240 beschikt over een woledpaneel waarbij gebruikers kunnen kiezen: een geheel rechte monitor of zelf een kromming toepassen tot 800R, wat gelijkstaat aan de kromming van een cirkel met een radius van 800mm. Op de vraag of er in 2023 meer opvallende, verrassende en innovatieve modellen voorbij zullen komen, krijgen we misschien al een eerste antwoord tijdens de CES van begin volgende maand.
Deze beurs in Las Vegas zal ongetwijfeld duidelijk maken dat 2023 vooral het jaar gaat worden waarin oledmonitors voor gaming tot wasdom komen. Dit jaar was zo ongeveer het eerste jaar waarin gamen op een oledmonitor niet enkel mogelijk was in dromenland; de beschikbaarheid was nog niet altijd even goed en de prijzen zijn ook nog niet mals, maar er viel al wat te kiezen. In 2023 zal deze trend doorzetten, waarbij er nog meer modellen uitkomen, vermoedelijk ook in kleinere formaten als 27 en 32 inch, en dit grotere aanbod zal vermoedelijk ook gunstig zijn voor de gemiddelde prijzen.
De beste manier voor lcd-monitoren om te concurreren met oledmonitoren is de toepassing van fijnmazige miniledbacklights met zoveel mogelijk individueel dimmende zones. De doorontwikkeling van miniledbacklights, mede gestuwd door de televisiemarkt, maakt dat de toepassing hiervan steeds goedkoper is geworden. Als er het komende jaar meer modellen verschijnen en de zeer fijnmazige miniledbacklights niet enkel meer zijn voorbehouden aan een paar topmodellen, dan valt er pas echt wat te kiezen voor de gemiddelde gamer, zeker als goede hdr-prestaties tot de eisen behoren. Het naar verwachting aanzienlijke aantal oledmonitoren dat zijn opwachting maakt en de potentie van miniledmonitoren, zorgen ervoor dat hdr ook eindelijk een goede kans maakt voor pc-gaming en dat daarvoor niet langer een televisie nodig is. De monitormarkt gaat zeker voor gamers een nieuwe fase in en daarvan zagen we in 2022 al de eerste duidelijke bewijzen. De zoektocht naar de perfecte monitor zal altijd lastig blijven, maar voor het voltooien van de queeste naar een 'compromisloze' gamingmonitor zal 2023 nog een stuk meer aanknopingspunten bieden.
Begin corona mijn oude monitor (gelukkig grotendeels op kosten van mijn werk) ingeruild voor een Dell S2721DGFA om hopelijk eens van de color banding in games af te zijn. Hoewel het verder een erg fijne monitor is met Gsync en FreeSync ondersteuning en zeker een hele verbetering was ten opzichte van mijn oude 240hz TN paneel is de color banding helaas niet verdwenen.
Ondanks dat ik mij toen dus veel had ingelezen over kleurdiepte, helderheid, HDR etc. heb ik toch niet 100% de juiste keuze kunnen maken en ik vond het ook echt een ramp om te doen. Theoretisch hadden mijn problemen opgelost moeten zijn voor zover mijn kennis maar in de praktijk zijn al die mooie praatjes en cijfertjes toch weer lastig te evenaren omdat ze alleen in hele specifieke situaties of instellingen haalbaar zijn zoals bv een 1440p monitor die 240Hz aankan maar dan weer alleen op een 1080p resolutie of HDR xxx wat dan toch weer niet echt aan die voorwaarden voldoet in 95% van de situaties.
OLED is helaas nog erg prijzig momenteel en ook door alle verhalen over inbranding die bij de ene al heel snel zichtbaar is en bij de andere na jaren gebruik nog niet aanwezig is maakt het nog lastiger vind ik.
Gelukkig geven artikelen zoals deze, vaak door extra input/comments van de community regelmatig weer wat extra inzicht over de huidige technieken en waar je op moet letten om hopelijk in de toekomst een betere keuze te kunnen maken.
[Reactie gewijzigd door Cowamundo op 24 juli 2024 00:01]
Mooie monitor! Maar hij staat nog geen 4 maanden in de pricewatch, nu is je constatering "geen inbranding" ongetwijfeld 'feitelijk correct', maar lijkt mij wel wat (te) vroeg om een 'definitieve conclusie' te zijn.
Waarom ik dit zeg? Linus van LTT had ook een LG CX 48" OLED voor dagelijks gebruik en kreeg na minder dan een jaar (ik dacht 9 maanden) toch met duidelijke inbranding te maken. Misschien is dat opgelost, misschien niet (helemaal), hoe dan ook lijkt me nog geen 4 maanden wat vroeg.
[Reactie gewijzigd door HuisRocker op 24 juli 2024 00:01]
De LG C1, is dan ook een televisie die niet gericht is op gebruik als monitor. Bij OLED monitors gaat men het scherm enkele reserve pixels geven, en laat men om bepaalde tijd, het beeld, een pixel opschuiven, om zo inbranding te verminderen en kans op zichtbaar inbranden verkleinen.
CX en "inbranding" (dat je goed moest zoeken) die hij weg kreeg met een pixel refresh.
C1 48 hier, niks van inbranding te merken na bijna 2 jaar , genoeg mensen die de CX of C9 al veel langer gebruiken zonder dat. Zal er dus vooral van afhangen hoe je die gebruikt of hoe zorgvuldig je ermee omgaat.
Zijn conclusie is wel correct: "bezint eer ge begint" weet goed dat je wat nadelen hebt en zal moeten oppassen.
Zo staat hier alles op "verbergen" zodat er niks echt statisch is qua UI (niks te doen aan programma's en games natuurlijk), brightness op 70, TV gaat uit na 2 minuten geen input,...
Heb een LG C1 OLED TV. Ik wilde hem deels monitor gebruiken. Lukt maar gedeeltelijk want en wit scherm wordt al na een paar seconde gedimd naar licht grijs. Duidelijk om inbranding te voorkomen. Niet echt een monitor experience.
In de menu’s staat er ‘oled care’ en ze hebben daarin allerlei functies op inbranden te vermijden, weg te werken en te detecteren. Het risico op inbranden of toch het voorkomen van dat wordt duidelijk niet weggestoken.
Toch, mijn IPhone oled had na 2jaar hevig gebruik geen enkele last van inbranden. Maar ja.. 2jaar…Van een oled pc monitor verwacht ik wel minimaal 10jaar.
Mijn eerste grote Dell 24” full hd IPS scherm van scherm heeft het net 10jaar volgehouden (ook elke dag hevig gebruikt voor het werk). Na 7-8 jaar werd het beeld gelig en op 10jaar ontstonden er rare vlekken.
Noemenswaardig, het toen nieuwere 24” model van del dat ik een paar jaar later kocht draait nog elke dag zonder enig probleem. Ik gok dat die nu zeker 10jaar meegaat, als het geen 15 jaar is. Minimaal 4u per dag gemiddeld.
Ik hoop dat de schermen van vandaag ook 10-15u aar meegaan. Maar ik twijfel een beetje of oled dat aankan. En al zeker als PC monitor omdat er meer witte vlakken getoond worden dan op een TV.
Ik zoek een monitor waar ik games mee kan spelen maar ook 8 uur per dag voor werk kan gebruiken. Om die reden kijk ik niet eens naar OLED.
Ik ben daarom erg benieuwd hoe lang je die monitor gebruikt voor 'normale werkzaamheden', oftewel windows schermen die soms lang achtereen bijna niet veranderen.
Hier ben ik ook wel benieuwd naar. Zou erg graag een OLED monitor willen gebruiken voor het gamen, maar op werkdagen heb ik ook lang dezelfde schermen openstaan. Vooral de Windows taakbalk en de balken bovenin van de browser veranderen dus eigenlijk zo goed als niet.
Paar seconden maakt niet uit hoor, zo gevoelig is dat niet
Browsrr : fullscreen en die tabs zijn altijd anders van grootte en kleur dus dat valt wel mee, zet browser in dark mode en scherm dat afgaat na 2 minuten of zo.
[Reactie gewijzigd door k995 op 24 juli 2024 00:01]
Ik denk dat je gewoon twee schermen moet hebben. Eentje voor de langere werkdagen en een gamesessie van een paar uur kan prima op een OLED. Voor Windows schermen en werk is normaal gesproken OLED compleet overbodig.
Inbranding is bij een OLED monitor niet te voorkomen. Er zijn wel trucjes om inbranding te beperken, maar te voorkomen is het niet. OLED sub-pixels slijten nu eenmaal. Omdat niet alle kleuren even snel slijten krijg je uiteindelijk kleurverschillen. Een nog groter probleem is het verschillende gebruik van de pixels.
Windows kent een aantal vaste items en veel mensen gebruiken een min of meer vaste indeling van de vensters. Dat ga je na verloop van tijd zien. Hoe snel dat is, is afhankelijk van de gebruikte helderheid.
Wie een monitor uitsluitend voor gaming en video gebruikt is het beste af, zeker als men de monitor met een relatief lage helderheid (deels verduisterde kamer) gebruikt. Wie de monitor ook veel voor "kantoor" applicaties gebruikt is beter af met een miniled monitor.
QD-OLED heeft maar één kleur LED met een quantum dot filter om de drie primaire kleuren te maken. Dat neemt niet weg dat pixels onevenredig hard kunnen slijten. Een deel van de huidige technieken zoals pixel shifting is om dat te voorkomen. Andere technieken richten zich erop om de overige pixels even hard te laten slijten zodat je geen inbranden te zien krijgt.
QD-OLED heeft inderdaad geen sub-pixels en heeft minder last van verkleuringen. Bepaalde delen van het scherm kunnen na verloop van tijd wel donkerder worden.
Pixel-shifting maakt de overgang tussen meer en minder versleten delen wat geleidelijker. Met QD-OLED kan men ook de filters dicht zetten in de achterliggende pixel op maximaal vermogen zetten om de slijtage nog wat gelijk matiger te maken. Voor gaming en TV-gebruik werken die technieken redelijk goed en kan het inderdaad een paar jaar duren voordat het beeld vlekkerig gaat worden. Bij kantoorgebruik (veel witte vensters) werken die maskeringstechnieken een stuk minder goed.
Er zijn grote verschillen, maar inbranding is uiteindelijk bij geen van de huidige OLED technieken te voorkomen.
Volgens mij is de pixel refresh functie bedacht om inbranden onzichtbaar te maken. Deze functie moet je dus niet te vaak draaien, maar is zover ik kan vinden bedoeld om het verschil in helderheid te compenseren.
Dat gezegd hebbende, dell geeft sowieso 3 jaar garantie op inbranden bij de qd oleds. Ik gebruik de monitor gewoon voor alles, ik ga niet extra opletten, het blijft een gebruiksvoorwerp. Ik gebruik wel vaak dark mode, dat helpt misschien.
[Reactie gewijzigd door Luuk1983 op 24 juli 2024 00:01]
De pixel refresh laat alle pixels eens extra fel branden. De beste pixels slijten daardoor iets (sneller dan bij normaal gebruik), de al versleten pixels kunnen daardoor iets verbeteren. Het helpt dus om de pixels wat gelijker te laten slijten. Inbranden zie je daardoor minder, maar de maximale helderheid neemt wel af. Het blijft echter wel een trucje om het inbranden wat te verdoezelen. Het wordt niet voorkomen.
Bij gepast gebruik (veel gamen en film/tv kijken) moet een QD-OLED drie tot vijf jaar mee kunnen. Daarna ga je bij maximale helderheid een vlekkerig scherm zien, al zal dat in de praktijk nog niet direct zichtbaar zijn.
Het gebruik van de dark mode helpt inderdaad heel goed om slijtage van pixels te voorkomen.
Ik heb 2 Lg CX tv's, al ruim 2 jaar. Beiden geen inbranding, een is specifiek voor gamen.
Maar dan nog zou ik geen oled monitor nemen. Ik deel mijn monitor met mijn vriendin die vaak thuis werkt, en al die statische windows vind ik toch een beetje eng.
Ligt dat aan de monitor? Wat voor banding gaat het precies om? Color banding doet me denken aan 16-bit kleur of aan 6-bit TN / VA panelen, maar de S2721DGFA is een IPS monitor.
Ik ben ook heel benieuwd wat hier precies bedoeld wordt en of Cowamundo wel goed begrijpt waar hij het over heeft. Ik ga ervan uit dat het om grafische applicaties gaat zoals photoshop of illustrator met veel transparate overlays etc. dat zo met 10 bit geen colorbanding moeten geven. Maar als we het gaan hebben over 8bit assets in games zoals een sky texture oid heeft het natuurlijk geen enkele zin. Source materials worden niet ineens beter van kwaliteit. Evenals video, compressie etc. kan nogsteeds banding veroorzaken en dat zit in het bronmateriaal, daar gaat je monitor niet automagisch een beter plaatje van maken. 10 bit is veelal een voordeel als het gaat om interne realtime bewerkingen waar afrondingsfouten een rol spelen, zoals mijn eerdere voorbeeld over grafische applicaties of bij het berekenen van meerdere layers in materials of transparancy in games. Zodra een afbeelding of frame volledig gerendered is is 8bit in principe (HDR daargelaten) voldoende om geen enkele vorm van banding te zien gezien afrondingsfouten dan niet meer plaatsvinden. Zo had ik laatst ook iemand die vond dat ie nogsteeds banding had op een heel duur paneel waarbij hij zijn achtergrond afbeelding in windows aanwees wat uiteraard een gecomprimeerde jpg afbeelding was. Ja duh
Banding in games kan aan verschillende dingen liggen. Sowieso vereist het een 10bit paneel om daar geen last van te hebben. Wel moet in je display instellingen van je GPU ook 10bit uitgestuurd worden. Maar betreft de games zelf zijn aspecten als een loading screen vaak gewoon 8-bit plaatjes en kan het zijn dat skyboxes, andere assets en/of postprocessing ook gewoon in 8-bit is waardoor je nog zo'n goed paneel kan hebben, je blijft 't zien. Als een game een goede HDR implementatie heeft heb je in die modus daar in principe geen last meer van wat betreft de 3d omgeving van de game. In HDR heb je echter wel echt een goed HDR scherm (goede FALD, MiniLED, OLED) nodig wil je dat die ervaring beter is dan SDR wat niet het geval is bij simpele edge-lit LED HDR monitoren met VESA HDR400.
Thanks voor de tips!
In mijn Nvidia configuratiescherm onder resolutie staat de uitvoer kleurdiepte inderdaad geforceerd op "10 bpc". Dat het niet elk deel van een spel 10bit ondersteund is ook een goede om rekening mee te houden!
Wat HDR betreft vindt ik die van mijn scherm vaak erg overbelicht/grijs achtig is en het in de meeste games juist lelijker kwa kleuren is en ik juist meer banding lijk te hebben dan wanneer HDR uit staat (heb het eigenlijk ook nooit aan) .
Al met al ben ik nog steeds erg blij met deze monitor al is het wel mijn minst favoriete component om te kopen doordat er zo ontzettend veel verschillende variaties en sub specs zijn om rekening mee te houden.
Hopelijk komen er in de toekomst nog genoeg artikelen voorbij die meer duidelijkheid en inzicht geven in al deze verschillende specs.
Al met al ben ik nog steeds erg blij met deze monitor al is het wel mijn minst favoriete component om te kopen doordat er zo ontzettend veel verschillende variaties en sub specs zijn om rekening mee te houden.
Hopelijk komen er in de toekomst nog genoeg artikelen voorbij die meer duidelijkheid en inzicht geven in al deze verschillende specs.
Ik voel je pijn. Ik heb zelf het geluk dat ik zowel 'gamer' als video-editor en colorist ben dus weet meer dan genoeg om op de juiste dingen te letten, al is zelfs dan binnen een budget wat je wilt uitgeven gigantisch veel optie vandaag de dag. Ik haal er zelf wel n kick uit om alles uit te zoeken voor een aankoop van wat dan ook maar dat is lang niet voor iedereen weggelegd. Toevallig mijn zuster laatst geholpen aan een TV en ze belde me letterlijk vanuit de winkel op met "deze ziet er wel mooi uit". =)
Wat betreft duidelijkheid zal het denk ik nooit veel beter worden totdat de technologie zodanig ver is (en goedkoop) dat geen reden meer is om 'te cheaten' marketing wise in de budget klasses, maar dat duurt nog wel even hehe.
Yes! Ik heb deze Dell monitor ook sinds een paar maanden en ben er zelf zeer over te spreken eerlijk gezegd. Mooie kleuren, goede kijkhoeken etc. Enige wat ik nog steeds jammer vind bij IPS is de matige zwartwaarden, die ook hier een kleine rol spelen. Gelukkig is er geen noemenswaardige backlightbleed of iets dergelijks in mijn exemplaar.
Ik zou deze monitor zo aanraden voor iemand die op zoek is naar een 27" 1440P scherm met meer dan 60hz.
Er is in ieder geval geen harde grens waar het menselijk oog het niet meer zou kunnen waarnemen. Onze ogen en hersenen werken namelijk niet in 'frames'.
Of je het verschil nog kunt zien hangt ook van allerlei factoren af. Bijvoorbeeld van de content die je weergeeft. Op mijn 240 Hz monitor als ik de muis cursor snel heen en weer beweeg zie ik nog duidelijk de cursor op verschillende plekken afgebeeld worden in plaats van een vloeiende beweging. Goed, dat is natuurlijk een extreem voorbeeld wat niemand in de praktijk doet maar het demonstreert het principe dat het van de content af hangt.
Het hangt ook af van de rest van de kwaliteiten van de monitor. Ik ben zelf van een dell tn scherm dat 165 Hz kon doen overgestapt naar een Acer Z35p die overgeklokt 120 kon. Dat verschil zag ik niet echt en ik had het idee dat meer dan zeg 100 Hz voor mij geen verschil maakte. Recent echter ben ik overgestapt op een Samsung odyssey G7 32 die tot 240 Hz gaat en bij die monitor merkte ik het duidelijk toen de framerate van mijn game van zo'n 220 in een bepaald gebied naar 120 zakte. Ik vermoed dat dit komt doordat de pixel responstijd van die Samsung zoveel beter is dat je al die frames ook echt kunt zien terwijl het bij de Acer toch allemaal maar een beetje in elkaar overvloeide.
Sidenote: en net daarom is DLSS3 dikke vette rommel, equivalent met televisies van tien jaar geleden die aan interpolatie doen: je krijgt hogere inputlag en kots-lelijke frames vol artifacten in ruil voor een hoger cijfertje (fps) waar je door de nadelen niets aan hebt.
[Reactie gewijzigd door kiang op 24 juli 2024 00:01]
DLSS is geen dikke vette rommel maar een dikke vette uitkomt kan ik uit ervaring zeggen. Ik gebruik DLSS 3 nu met The witcher 3 en er zijn geen arifects zichtbaar en de inputlag is ook beter. Ik heb hier sceens van gepost op het forum. Het zelfde geldt voor a Plage Tale.DLSS 3 zou iedere game moeten ondersteunen.
De input lag kan niet beter zijn. Simpelweg natuurkundig onmogelijk.
Er moet een extra frame gegenereerd worden, alleen door de GPU op basis van andere frames. In dat gegenereerde frame wordt niet gedaan met mouse input.
Het kan zeker wel heb het zelf gemeten met Nvidia frame view en eigen overlay, die ondersteund ook FG. Bij gelijke fps heb je gelijk maar niet waneer de fps bijna verdubbeld.
But when enabling frame generation, while scene FPS rose again to 112 FPS, latency increased to 63 ms. What this means is that despite the game having the visual smoothness of 112 FPS, the latency and responsiveness you're experiencing is more like playing the game at 40 FPS. You end up with smooth motion but a slow feel, which is hard to show on a video. https://www.techspot.com/article/2546-dlss-3/
Kopje: input latency.
Hmm, wie vertrouw ik meer. Iemand die even de overlay van Nvidia op zn scherm tovert, of reviewers die al jaren op professionele wijze monitors en videokaarten testen...
Je hoeft mij ook niet te vertrouwen maar het is een feit dat de latency ook beter kan worden als je met FG maar genoeg fps haald. Nvidia frame view werkt met FG dus die getallen die ik laat zien klopt gewoon. Overigens word dit ook bevestigd door professionele reviewers. Als de fps winst met FG niet voldoende is dan is er inderdaad meer latency maar is de fps winst hoog genoeg dan kan de latency alsnog lager zijn dan native.
De marketing werkt goed op je door, je bent er je eigen verhaal mee gaan vertellen. Ik zou eens gaan solliciteren bij Nvidia!
De realiteit is anders. Zelfs Nvidia weet dat DLSS3 een latency hit is. Dat is de enige manier waarop ze dit voor elkaar krijgen, 'fake interpolated frames' want dat is wat het is. Het is meer van hetzelfde. Interpolatie heeft altijd al voor hogere inputlag gezorgd. Het is veelzeggend dat je die punten niet met elkaar weet te verbinden.
Verder zie je hoe meer tests er op Ada worden uitgevoerd, dat de werkelijke prestatiewinst van Ampere > Ada helemaal niet zo denderend is als je al die Nvidia-sauce er uit haalt. En dan weet je dat je veel te veel hebt betaald voor die GPU, die ook nog eens is volgeladen met proprietary bullshit die valt of staat bij de gratie van Nvidia support. En we kennen dat track record inmiddels, sterker nog, DLSS3 bewijst dat ze steeds een push naar de nieuwste standaard willen. Dus je betaalt voor je per-game support via je GPU, zonder enige garantie dat je die support ook krijgt en houdt. Het gaat zeker niet op alle games komen, ook nu is slechts een beperkte subset van alle games met DLSS support beschikbaar.
Veel plezier ermee. Ik blijf ver weg van deze onzin.
[Reactie gewijzigd door Vayra op 24 juli 2024 00:01]
Beetje jammer dat jij moet gaan trollen omdat de feiten jou niet aanstaat.
Ik ontken ook niet dat FG een latency hit geeft, ik geef alleen aan dat bij voldoende fps de latency met FG aan iets kan verbeteren. Dit blijkt ook uit reviews dus ik zeg verder niets wat niet klopt.
Ook met DLSS 3+reflex kan de latency lager zijn dan native als de fps toename maar genoeg verhoogd. Dit laten professionele reviews ook zien. Frame view laat dit ook zien en die kan de latency van FG meten.
Als je bijvoorbeeld zonder FG 80fps haald en met FG 100fps dan kan de latency wel hoger zijn. Maar haal je 110 fps met FG en native 60 fps dan kan de latency juist net wat lager zijn. Dit is wat professionele reviewers ook hebben gemeten.
Nee, nogmaals, lees het artikel van Techspot eens goed dan zie je dat het zo niet werkt. Je mist het feit dat het type DLSS dat wordt gebruikt ook nog uitmaakt (Quality/performance) en als je like for like vergelijkt dan verhoogt FG de framerate, maar is de netto latency op datzelfde kwaliteitsniveau hoger.
In het beste geval is de latency gelijk/gelijkwaardig met native op een lagere FPS. En dat is heel erg logisch. Je verhoogt met FG namelijk de framerate. Je verlaagt niet de latency via die verhoging van de framerate.
Dat je een combinatie kan gebruiken van performance DLSS én FG én Reflex die uiteindelijk marginaal betere latency oplevert, kan zo zijn, maar dan lever je behoorlijk in op beeldkwaliteit. Kortom, kiezen of delen, maar een netto verbetering van de latency is een broodje aap verhaal. Het maakt ook nog significant verschil wat je game in kwestie is; bij veel statische content heb je de lage latency niet nodig maar juist daar win je misschien een paar ms bij een hele hoge framerate. Leuk, maar compleet nutteloos. Als dat je 'gelijk' is, dan heb je dat... Beetje vergelijkbaar met hoe je vroeger naar de lucht kon turen en dan schoot je FPS ook omhoog.
[Reactie gewijzigd door Vayra op 24 juli 2024 00:01]
Dat laatste klopt niet want ook met DLSS op quality met FG kan de latency lager zijn en dat is wat 8k de hele tijd al bedoel. Ik heb dit zelf getest met TW3
DLSS op quality 4k is de latency 60.6ms
DLSS op quality 4k FG+reflex is de latency 47.4ms
Dit is mer frame fiew wat comtable is met DLSS 3.0 en framegeneration.
Ik zal nog een review er bij pakken die dit zelfde ook laat zien. Het verschilt overigens per game.
...en de beeldkwaliteit is in die setting hard teruggelopen ten opzichte van de situatie zonder FG. De native+reflex latency is nog altijd vrijwel gelijk aan wat je met FG/Reflex haalt. Kortom, je levert wat anders in voor een marginaal verschil tov Native.
Uiteindelijk maak je dan de balans op en dan zie je dat DLSS3 eigenlijk alleen in een hele marginale niche een minimale winst oplevert, en dat uit zich louter in zichtbare FPS, ten koste van hogere latency, en alleen als je een top-end GPU hebt.
[Reactie gewijzigd door Vayra op 24 juli 2024 00:01]
Ik ben het er niet mee eens dat de beeldkwaliteit hard is teruggelopen, ik kan het niet onderscheiden van elkaar op 4k native vergeleken met dlss quality en FG als ik aan het gamen ben op een 4k OLED TV van 55 inch
Dit is wat ik bedoel als je naar F1 kijkt met dlss op quality mode met FG en Reflex. Wat ik hier zie vind ik DLSS 3.0 een goede toevoeging en voor mij maakt dit de gameervaring beter. Met TW3 merk ik dat de beeldkwaliteit niet onder doet en de game merkbaar vloeiender afspeeld, het zou raar zijn als ik hier negatief over zou zijn en daarom hoop ik dat DLSS 3.0 vaker word toegevoegd aan games. Overigens denk ik dat DLSS 3.0 nog kan verbeteren in de toekomst met updates of op driver niveau https://www.techspot.com/photos/article/2546-dlss-3/#1
Ik heb nergens na mijn mening veel te veel geld betaald. Vandaag overigens nog TW3 zonder FG gespeeld maar dat loopt gewoon dan als dikke stront door een trechter en FG verhelp dit probleem.
Dus een 30fps of 60fps game heeft betere input lag als je bijv, je Xbox series x op 120hz zet? Ipv tot 60fps 60hz te selecteren? Heel benieuwd hiernaar!
Wel leuk feitje die er niet altijd bij vermeld wordt.
Het is heel normaal om de FPS aan de interacties te koppelen waardoor de input lag dus ook beïnvloed wordt door de FPS maar het is niet nódig.
Er zijn engines die dit ontkoppelt hebben en is ook bijvoorbeeld de reden waarom de iPhone zo lang toch heel responsief aanvoelde terwijl ze lang geen 120hz scherm hadden, de input (touchscreen functionaliteit dus en hoe het OS erop reageert) staat (stond?) daar los van de refreshrate van het beeld op datzelfde scherm.
Nou kan je natuurlijk nog steeds een delay tussen je input zien en de weergave op je beeld simpelweg doordat het frame later getoond wordt dus meer FPS is ook bij ontkoppeling nog steeds meer is beter, don't get me wrong here maar heb je het op dat moment over input delay Human to Machine (engine reageert op jouw actie) of Machine to Human (je ZIET wat je deed) ?
Ja maar daar zijn de verhalen zo dubbel. De 1 zegt 120fps en 120hz zorgt alleen voor betere input lag en 120hz bij 30 of 60fps doet niks meer of minder bij je input lag. En de andere zegt dat 120hz ongeacht het aantal frames, altijd zorgt voor een betere input lag.
Zo populair hoe pc gaming is geworden verbaast het me hoe langzaam het gaat met betrekking tot HDR. Het is inmiddels toch al zo’n 10 jaar een ding en zelfs de vorige generatie gaming consoles wisten dit te bieden. Maar als je met je PC in HDR wilt gamen moet je dus eerst je PC aan een tv hangen omdat er gewoonweg geen goede beeldschermen beschikbaar zijn, ondanks dat men met certificaatjes strooit als pepernoten.
Leuk dat je op 350hz kunt gamen, maar er zijn gewoon games waar 60 voldoende is en je verder liever mooie plaatjes wilt.
Leuk dat je op 350hz kunt gamen, maar er zijn gewoon games waar 60 voldoende is en je verder liever mooie plaatjes wilt.
Die games zijn er zeker, maar wissel jij je monitor per game dan? Het gaat dus niet om die games waar het prima mee is, het gaat juist om games waar je het niet prima vindt die je op diezelfde monitor speelt
Zo hoef ik COD niet onder de 144Hz (en fps) te hebben, met een potje Anno 1404 vind ik 60Hz (en fps) prima!
Ja het liefste zou ik natuurlijk ook een scherm hebben dat alles doet. Al heb ik die natuurlijk reeds in de woonkamer staan, hetzij gelimiteerd aan 120 Hz / FPS.
Dat laatste is voor mij overigens ook geen enkel probleem, zo fanatiek ben ik namelijk niet. Ik vind het dus voornamelijk jammer dat de enige ontwikkeling die we de afgelopen jaren hebben gezien op het gebied van monitoren, te vinden was in de stijging van 144 Hz naar 300+, terwijl er nog altijd geen goede HDR panelen zijn met een dusdanig fijnmazig FALD backlight dat het een OLED-achtige ervaring kan bieden.
Ik speel m'n Frostpunk ook met evenveel plezier op de 34" UW VA als op m'n OLED, daaraan ligt het gelukkig niet. Maar de FF7 remake komt op die laatste toch echt een stuk beter tot z'n recht. Het is dus jammer dat we daar op desktops dus nog altijd ver van verwijderd zijn, tenzij je dus een kleine TV als monitor gebruikt.
De LG 27inch Oled monitor met gsync/240hz is de ultieme gaming monitor. Deze ga ik ook zeker op mijn lijstje zetten. Het enige waar ik nog over twijfel is het inbranden. Hoe zit het daarmee op de grotere varianten? Kunnen deze monitoren om met urenlang statische achtergronden van Windows en games?
Nee, nog niet. Ook de samsung qd-oled panelen branden na een paar maanden in als ze gebruikt worden voor het lang weergeven van statische delen op dezelfde plek dag in dag uit.
Enkel voor gamen zijn ze weer heel geschikt, dan duurt het mogelijk jaren voordat de eerste sporen van inbranden te zien zijn. Zeker als niet constant max helderheid wordt gebruikt.
Maar nog steeds geen perfecte monitor voor mij iig. Ik wil me geen zorgen hoeven maken als ik meer dan €1000 voor een monitor betaal.
Wel jammer, want oled is ligt qua beeldkwaliteit ver voor op lcd. Er zijn enkele fald miniledschermen die dichtbij komen, maar die hebben slechte kwaliteitscontrole (samsung met hun paneel loterij) of flikkerend beeld op lagere hz (coolermaster).
De beste oplossing is dus eigenlijk 2 schermen naast elkaar waarbij je de ene gebruikt om te werken en de OLED om te gamen. Maar ook games hebben vaak een HUD op dezelfde plek, na hoeveel uren statisch beeld wordt dat een probleem? Is dat bijvoorbeeld al na 2-3 uren gamen?
Ik heb overigens nog een 50inch plasma staan welke ook bekend staan voor het inbranden maar deze is inmiddels 10-12 jaar oud en nog niks te zien op afstand. Alleen als je er heel dichtbij staat.
[Reactie gewijzigd door biggydeen2 op 24 juli 2024 00:01]
Ja snapte ik wel, ik vond het echter een aanname waar ik het niet geheel mee eens ben, dus gaf ik er mijn eigen spin aan
Zonder te weten wat de gebruiker heeft gedaan ten opzichte van een eerdere lcd monitor is moeilijk te zeggen of het user error is, of gebrekkige technologie (waarschijnlijk beide). Oled als monitor betekent dat een gebruiker extreem goed op de hoogte moet zijn van deze technologie. Jij en ik snappen dat je niet constant statische beelden op een oled moet laten staan, maar hoe ver we daar exact mee kunnen gaan weet ik ook niet.
Samsung/Dell/LG/Asus verkopen hun oled monitoren als monitor, en dell geeft zelfs een 3-jarige garantie tegen inbranden (wat eigenlijk hun standaard garantie is maar dan met inbranden genoemd). Ik kan me best voorstellen dat iemand dan denkt dat inbrandgevaar vast minder is (dat werd ook zo in recensies van de monitoren zo genoemd, die trappen er allemaal in). Inbrandgevaar blijkt echter helemaal niet zo veel minder te zijn. Ook met qd-oled moet je veel voorzichtiger omgaan dan met een normale LCD monitor. Helderheid zoveel mogelijk laag houden, zwarte achtergrond in windows, taakbalk automatisch verbergen, niet te lang internetten, alles op donker thema, geen icoontjes op je bureaublad etc. Zolang je de monitor alleen voor gamen gebruikt is er niet zo'n probleem, maar anders.....
Dat is de reden dat ik nog niet over ben op een oled monitor. Ik heb gerust uren achter elkaar hetzelfde programma openstaan met dezelfde menuutjes e.d. Inbrandgevaar is dan vele malen hoger. Ik heb geen zin om een 1000 euro kostend apparaat te babyen.
Nee, dan is het product simpelweg ongeschikt voor de markt waarop die is gericht.
Maar dat wisten we al van OLED, toch? Laten we hier nou niet doen alsof de consument 'iets moet'. Dat is echt complete onzin. Burn-in is exact het probleem dat OLED nog inferieur kan doen zijn aan LED. Dus niet geschikt voor een use case waarin je dat risico loopt. Het is niet ingewikkeld, denk ik dan. Fabrikanten dienen dit probleem weg te innoveren, niet de consument die de hoofdprijs betaalt.
Maar het verhaal vertellen 'dit is een gaming/desktop PC monitor' en vervolgens de gebruiker opzadelen met een how-to voor normaal gebruik die hinderlijk is voor die gebruiker... dat noem ik misleiding, of simpelweg slechte business.
[Reactie gewijzigd door Vayra op 24 juli 2024 00:01]
Dit is ook het enige minpunt wat ik kan bedenken aan deze eerste oled generaties.
Ik kijk eerst een paar maanden de kat uit de boom en wacht ook even de prijs af.
De msrp staat ondertussen op $999,- en zoals het er naar uitziet gaat deze of een andere met hetzelfde panel mijn huidige beeldscherm vervangen.
Ik denk dat de doorontwikkeling van monitoren en televisies wordt tegengehouden door strenge regelgeving qua energieverbruik. We willen allemaal het perfecte beeld maar geen hoge energierekening.
Ontwikkeling is nooit tegengehouden door strengere regelgeving, het zorgt ervoor dat de factor energieverbruik wordt meegenomen in de ontwikkeling van producten. Fabrikanten in markten waarbij instappen veel geld kost zijn inherent lui. Zelfde debat heeft gespeeld toen er een limiet kwam op verbruik van stofzuiger. Initieel werd er moord en brand geschreeuwd door met name de populistische politici, toen de wet werd ingevoerd kwamen er ineens zuinigere stofzuigers op de markt die ook nog eens krachtiger waren dan de voorgangers. Zelfde zie je met auto’s etc…
Ja het zal betekenen dat bepaalde technieken nooit op de markt gaan komen, maar het houd de ontwikkeling echt niet tegen!
Hopelijk is dat niet het einde van de goede 24 inch schermen. Een Full HD 1080p met lage reactietijd, hoge verversingssnelheid en goede kleurweergave waarvoor je geen te dure PC nodig hebt om games (op hoge kwaliteit) te spelen vind ik nog steeds de sweet spot.
Ik keek laatst nog voor een gebogen scherm, maar als ik dit lees dan kan ik het beter nog even een paar jaar afwachten om de vernieuwingen mee te pakken.
Ikzelf ben sinds de 2e helft van dit jaar overgegaan naar een curved ultrawide monitor gegaan en wil eigenlijk niet meer terug naar een multi monitor setup. komende van een 21" FHD scherm, is elke grotere monitor fijn.
Nadat ik de Iiyama G-Master GB3467WQSU-B1 had mogen reviewen, heeft het mij wel geholpen om de knoop door te hakken en een curved ultrawide te nemen. Ik ben nu in het bezit van de MSI MPG Artymis 343CQR en voor mij werkt het perfect.
Het feit dat je alles op 1 scherm hebt + KVM is best fijn, daarnaast geeft het een andere dimensie af, met het spelen van games. Het nadeel is wel dat je met statische omgevingen (Office, browsing, e.d.) de curve goed zichtbaar is, als de curve 1000R is. De andere ultrawide die ik gebruik is een Dell U3818UW op kantoor, deze heeft een curve van 2300R, wat minder scherp toeloopt.
Voor mij was het uitzoeken van een monitor ook niet bepaald makkelijk en de veelal gesponsorde reviews op Youtube helpen daar ook niet altijd bij. Tegenwoordig hebben de meeste elektronica winkels vrij weinig schermen, waardoor je gedwongen bent online te bestellen en het te proberen. Dit kan resulteren dat je niet direct de juiste monitor vindt en je dus meerdere monitoren moet proberen.
IMHO vind ik dat FHD op kleinere schermen tot aan 24" nog enigzins goed te doen is, maar op grotere formaten minder. Wat hierbij belangrijker is, is de PPI waarde (pixels per inch). Hoe meer pixels per inch, hoe scherper / fijner de beeld. Viewsonic heeft een leuke uitleg hierover.
Kortom, het is heel veel proberen wat het fijnste voor jezelf is, maar daarnaast is het ook van belang dat je een monitor neemt, waar je voor een aantal jaren vooruit kan; je koopt immers niet elke maand een nieuwe scherm, tenzij je natuurlijk iets te vaak een rage quit doet
Bedankt voor het delen van je ervaring, door jou lees ik ook meteen dat ik de curve waardes verkeerd had opgevat. Hoe hoger de 'R' hoe minder scherp de ronding. Dus niet andersom! Ik wil sowieso alleen op een enkel scherm werken en gamen, dan moet ik kiezen voor een hoge R in elk geval.
In winkels kunnen rondkijken is tegenwoordig uniek inderdaad. Bij een Coolblue filiaal kon ik laatst wel even wat voorbeelden zien en dacht ja dat ga ik eens als opvolger proberen. Sowieso zou ik online willen bestellen om nog te kunnen herroepen, het zou jammer zijn als het echt tegenvalt natuurlijk. Mijn huidige scherm (Eizo Foris FS2434) heb ik straks ook ong. 10 jaar mee gedaan... Ik heb een goede zelfbeheersing dan haha.
24" is het mooist voor Full HD, zoals 27" het mooist is voor QHD. Daar ben ik mee bekend. Ik heb nu een waarde van 93 PPI, en lager wil ik niet want ik hou wel van mooie kleurweergave/beeldkwaliteit.
Tn en ips en va zullen nog jaren blijven. Alleen een enkeling koopt een oled monitor van 1k+
En er zijn nog steeds nadelen ze branden nog steeds gewoon in bij het ene model duurt het wat langer dan de ander we zijn er nog lang niet
Mooi vooruitgang op monitor gebied.. Ik wacht nog even op een goede opvolger voor mijn huidige 38" widescreen de LG 38GN950.. Dat moet een monitor worden met vergelijkbare specs (38", 3840x1600 resolutie, minimaal 160Hz, Gsync/Freesync) maar dan met wel goede HDR weergave, want de 12 zones die de 38GN950 heeft zijn daar bij lange na niet goed genoeg voor.. Zal waarschijnlijk een OLED of mini-LED monitor worden kijkend naar de huidige ontwikkelingen..
Voor de rest is het erg jammer voor veel mensen die hun monitor willen upgraden (vaak ook qua resolutie) dat de nieuwe generatie videokaarten nu zo enorm duur zijn.. Velen zullen nu denken, ik doe nog maar even wat langer met mijn oude monitor op 1080p of 1440p zodat ik ook wat langer nog kan doen met mijn huidige videokaart.. Toen ik die 38GN950 kocht kon ik daarna gelukkig nog voor een relatief normaal bedrag (slechts paar honderd euro bijbetalen) mijn RTX 2080 upgraden naar een RTX 3080.. Dat had ik wel nodig voor de 3840x1600 resolutie.. Als je nu dezelfde upgrade zou willen maken, van een RTX 3080 naar een RTX 4080 ben je het dubbele kwijt (700-800 euro extra), wat gewoon schandalig is..
[Reactie gewijzigd door Inflatable op 24 juli 2024 00:01]
Wachten op de RGB OLED monitor op Samsung zou ik zeggen (minder auto-dimming en groter kleurbereik).
Ik heb nu een LG OLED42C24LA met RGBW-OLED, dat is ook niet alles (snel auto-dimming, is uit te zetten met ColorCorrect software-tool, maar daar waag ik me nog niet aan vanwege garantie).
Die witte subpixel werkt in het nadeel van het kleurbereik.
Ik gebruik mijn monitor voor gaming en fotografie.
Ik heb als televisie een LG OLED55C8, die vond ik echte de wow-factor hebben toen ik mijn pc daarop aansloot. Weet alleen niet of die RGB of RGBW-indeling van de pixels heeft. Kan het checken met mijn haarscherpe Canon EF 100mm f/2.8 L IS macro-lens.
p.s.
Mijn gamende zoon heeft nu zolang mijn Cinema 4K (4096x2160 60Hz) LG 31MU97 monitor.
Mijn Canon 5D EOS mark IV kan in 4096x2160 resolutie filmen (die monitors zijn zeldzaam).
Hij gebruikte een 144Hz full-hd monitor.
[Reactie gewijzigd door MadButcher op 24 juli 2024 00:01]