Door Friso Weijers

Redacteur

Gamingmonitors met 4k-QD-oled

Update: nu met Gigabyte Aorus FO32U2P

05-05-2024 • 10:01

203

Singlepage-opmaak

Conclusie

2024 is het jaar dat er eindelijk 4k-oledmonitors op de markt komen, voorzien van specificaties waar gamers al jaren naar uitkijken. In dit artikel bekeken we de eerste vier schermen die in Nederland en België in de winkels liggen. De Alienware AW3225QF, ASUS ROG Swift OLED PG32UCDM, Gigabyte Aorus FO32U2P en MSI MPG321URX QD-OLED zijn met prijzen van 1150 tot meer dan 1500 euro niet voor iedereen weggelegd. Het goede nieuws is dat elk van de vier schermen een uitstekende beeldkwaliteit biedt, die op veel gebieden beter is dan gangbare (en goedkopere) lcd-opties. Zo bieden de schermen een hoge 240Hz-refreshrate, extreem snelle responstijden, ongeëvenaarde kijkhoeken, een zeer goede uniformiteit en natuurlijk een uitstekend contrast.

Alle lof ten spijt is de eerste generatie 4k-QD-oledschermen niet meteen zo goed dat verdere verbetering ondenkbaar is. Colorfringing is weliswaar een stuk minder zichtbaar, zodanig dat ik me er in gebruik niet meer aan stoorde, maar niet geheel weg. In tegenstelling tot de gemiddelde lcd spiegelt het scherm, waarbij de maximale helderheid niet heel hoog is en niet hoger dan bij de eerste generatie QD-oledschermen, terwijl de woledtechniek voor monitors wel grote stappen zet. We constateren bij hdr-weergave bovendien een afwijking in de modus met de hoogste piekhelderheid. Daarbij ogen hdr-beelden die veel wit bevatten, minder fel dan in de stand waarin kleine highlights minder fel kunnen zijn. De monitor van Gigabyte heeft een stand zonder dat probleem, die helaas wel weer nieuwe afwijkingen introduceert. Hopelijk zullen firmware-updates verbetering brengen. Voor de toekomst valt nog te bezien hoe gevoelig deze schermen zullen blijken voor inbranden. Alienware, ASUS, Gigabyte en MSI beloven alle een driejarige 'inbrandgarantie', maar natuurlijk mag je voor dit geld langer goed beeld verwachten. De vele 'anti-inbrandtrucjes' kunnen helpen om retentie te verminderen, maar tegelijk hebben ze soms ook een meetbare invloed op de beeldkwaliteit.

Een nieuwe winnaar

Door met de vraag welk van de vier fabrikanten de beste QD-oledmonitor heeft gebouwd. In de eerdere round-up van drie monitors riepen we de ASUS ROG Swift PG32UCDM uit tot algehele winnaar. Dit scherm blijft wat ons betreft een aanrader; de monitor heeft een uitgebreide featureset en de kleurweergave is zeer goed, zowel voor hdr-weergave als voor normale sRGB-content. Uniek is bovendien de functie voor 120Hz-blackframe-insertion, die motionblur op die lagere refreshrate helpt voorkomen, maar er niet scherper uitziet dan een 240Hz-beeld.

De Gigabyte Aorus FO32U2P beschikt niet over bfi en ook is de kleurweergave net wat minder goed dan bij de monitor van ASUS. Tegelijk voorziet de FO32U2P wel in een AdobeRGB-stand, die de PG32UCDM niet heeft. Bovendien kan dit scherm voor hdr-weergave in de praktijk een wat hogere helderheid bieden dan de andere QD-oledschermen, al gaat dat wel ten koste van de accuratesse. De FO32U2P heeft zeer veel aansluitingen, met als enige vijf beeldingangen, een DisplayPort-uitgang, de uitgebreidste kvm-functie en DisplayPort 2.1-ondersteuning. Of dat laatste een grote meerwaarde heeft, valt te bezien. Evengoed verdient de Gigabyte-monitor wat ons betreft dezelfde onderscheiding als de monitor van ASUS. Gelet op de lagere adviesprijs is het de beste monitor van de vier.

Voor wie toekan met vier beeldingangen, DisplayPort 1.4 en geen DisplayPort-uitgang, is de Aorus FO32U2 zo mogelijk nog interessanter dan de FO32U2P. De overige eigenschappen moeten identiek zijn, terwijl hij met een adviesprijs van 1149 euro in theorie een van de goedkoopste QD-oledmonitors is.

Terug naar de schermen in dit artikel. De Alienware AW3225QF kost eveneens 1149 euro op het moment van schrijven. De featureset is nogal eenvoudig, zelfs in vergelijking met het goedkopere Gigabyte-scherm. De Alienware-monitor beschikt als enige niet over een multifunctionele USB-C-poort. De weergave voor 'normale' sRGB-content is wel erg goed, beter zelfs dan bij sommige schermen voor fotobewerking, en de AW3225QF biedt nog altijd de mooiste hdr-kleurweergave van de geteste QD-oledmonitors. Het gekromde paneel kan de belangrijkste reden zijn om voor dit scherm te kiezen, of juist niet. Ik vond de kromming in de praktijk meevallen en stoorde me ook niet aan de actieve koeling, die dit scherm als enige heeft.

Bij de MSI MPG321URX ontbreekt het ten opzichte van de concurrentie aan een unique selling point, waarbij de monitor hier niet tot de goedkopere opties behoort, zoals in het buitenland. Net als de schermen van ASUS en Gigabyte voorziet de MPG321URX in een USB-C-poort. Als enige scherm biedt de MPG321URX tot 90W Power Delivery onder alle omstandigheden. De USB 2.0-hub is echter niet van deze tijd en de constructie is net wat minder stabiel dan die van de andere schermen. In kleurnauwkeurigheid kan MSI niet op tegen de concurrentie, ook al zijn de scores in vergelijking met andere gamingmonitors niet slecht en zijn de andere eigenschappen, gelet op het QD-oledpaneel, nog steeds erg goed.

  • Alienware AW3225QF
  • ASUS ROG Swift OLED PG32UCDM
  • Gigabyte Aorus FO32U2P
  • MSI MPG 321URX QD-OLED

Lees meer

Reacties (203)

203
200
49
4
0
141
Wijzig sortering
Die hadden een refreshrate van slechts 60Hz en waren daarmee ongeschikt voor gaming.
Dat is wel erg kort door de bocht. Het aantal mensen die op 120+fps gamed is nog altijd een niche... Ik game heerlijk op een 1080p met 60fps OLED monitor, ik game zelfs met veel plezier op de 720-800p @60hz van mijn Switch en Steam Deck. Mijn auto kan je zeker ook de weg niet mee op omdat die geen 200 op de autobahn haalt 8)7

120Hz is wel mooi hoor, ik heb het bij mijn tv ook genomen, maar vooral om klaar te zijn voor de toekomst. Spelcomputers halen het nog vaak niet. OLED koop je juist voor de pracht en praal, die gaat dan niet iedereen uitzetten om maar die 120fps te halen.
Niks mis met 60Hz / FPS, het is de ondergrens, maar als deze stabiel wordt gehaald is het gewoon een fijne game ervaring. Ja, met twitchy games en shooters is meer fijner, maar als je ooit een PS3 hebt gehad valt er met 1080p/60 wel te leven.

Het grootste voordeel van een 120Hz of sneller paneel is de brede VRR range. In plaats van per sé een stabiele 60 FPS te moeten hebben, maakt het geen reet meer uit of je FPS nu 60, 100, 75.324 is, of eventjes dipt naar de 48. VRR vangt het wel af.
Als je een PS3 hebt gehad, valt met 1080p/30 ook wel te leven. De meeste PS3 games waren namelijk lang geen 60fps. 60 is de nieuwe standaard aan het worden (en terecht), maar dat is zeker niet de uitgangspositie van veel games en vanuit de devs is er ook genoeg reden om voor 30 te kiezen. Zeker gezien de groep gamers die 30 prima vinden.

Al zal het straks vooral 30 zijn waar AI de frames ertussen gaat gokken en resolutie upscalen.
Ik vermoed dat je m'n bericht verkeerd interpreteert. 1080p/60 is juist goed te accepteren wanneer je een PS3 hebt gehad, omdat vele games al moeite hadden in 720p op 30 fps gerenderd te worden. Op de PC was 60 fps toen al de standaard, sowieso voor console ports, en dan hebben we het over haast 20 jaar geleden.

1080p/30 is ook geen spelen. 30 FPS ging in de CRT tijden nog, omdat beweging op een CRT fijner was vanwege de techniek en omdat beeldschermen / TV's sowieso kleiner waren, waardoor je bij panning shots een stuk minder merkte dat er een flink stuk beeld mist tussen twee frames.
1080p/30 is ook geen spelen.
Dat is een mening. Mijn dochter van 6 vindt de Steam Deck (LCD, 720p, 30 FPS, relatief korte kijkafstand) prima voor een single player racegame (Horizon nogwat). Terwijl ik met een 8bitdo 2.4 GHz controller op de Analogue Pocket geen last heb van de extra latency, behalve (tot nu toe) tijdens Kirby's Pinball Land. Niet te spelen.
En een dusdanig breed gedeelde mening, dat Sony een markt ziet voor een PS5 Pro ;)

Op een 14" CRT, of een Steam Deck is de beleving ook heel anders dan op een 55"OLED, of wanneer je met je neus op een 32" monitor zit overigens. Maar dat had ik reeds aangegeven.

En een kinderhand is gauw gevuld. Maar dat is niet het onderwerp hier. Feit is dat 1080p/60 nog altijd als baseline wordt gezien voor gamen op een niet-handheld, zoals @svenk91 dus ook terecht aangeeft in zijn opmerking tav het artikel.
Daar is niets 'feitelijk' aan! Dat ligt er aan wie je het vraagt en wanneer. Niet zo heel lang geleden pushde grote delen van de game industrie 30fps 'cinematic'...

En omdat <insert car company name> een supercar produceert die $2+ miljoen per stuk kost, betekend het niet dat dit opeens een breedgedragen prijsklasse is en/of product standaard...

Sommige mensen 'zeggen' dat ze niet meer zonder 120fps kunnen, maar als iemand die is opgegroeid met een Atari 2600 en VHS, ligt de drempel waarmee ik kan 'leven' een heel stuk lager. Ja, ik zou graag beter willen hebben, maar niet ten kosten van alles. Het is mij opgevallen dat zolang de content maar interessant genoeg is, ik met een heleboel minder kan 'leven'...

In dit geval vind ik deze OLED schermen gewoon teveel trekken voor dagelijks gebruik in mijn case, ze zouden x3 de stroom trekken van een nieuwe goede IPS monitor (van 60Hz).
Daar is niets 'feitelijk' aan! Dat ligt er aan wie je het vraagt en wanneer. Niet zo heel lang geleden pushde grote delen van de game industrie 30fps 'cinematic'...
Maar was dat omdat het echt zo'n goede ervaring was, vele malen beter dan dezelfde kwaliteit op een hogere framerate, of omdat de hardware waarvoor ze programmeerden simpelweg niet beter kon. Als ze diezelfde settings in 99th percentile 60/90/120FPS hadden kunnen draaien zonder vermoed ik dat ze wel 60/90/120FPS Cinematic geadverteerd, imho was die hele push een beetje een zwakte bod van de diverse marketing afdelingen van de console uitgevers omdat de PS4 en Xbox van die generatie gewoon niet beter konden en dat soms dan maar doortrokken naar (slechte) console ports voor de PC.

Bij primair op de PC gerichte titels was die hele '30FPS Cinematic' push volgens mij nooit echt een ding, op misschien een enkele uitzondering na.
(oeps, eigenlijk reactie op @Cergorach )

Die 30 FPS cinematic Push kwam onder andere van onze grote Ubisoft vriend Yves Guillemot die eigenlijk elke generatie consoles wel een manier probeert te vinden om de PC gamers een oor aan te naaien en zijn eigen bekrompen beeld van gaming en game concepten te verdedigen. Dit is dezelfde man die een decennium terug aandeelhouders vertelde 'If people like something, we will just give them more of it' en zo geschiedde: Ubisoft is zó goed in het geven van meer dat we in elke game dezelfde dingen mogen doen.

Ik denk niet dat je deze karakters als maatstaf voor 'gaming' moet neerzetten. Dit zijn op winstmaximalisatie gerichte CEO's. Dit gaat helemaal niet over gaming, het gaat over het pushen van het minst noodzakelijke als de norm zodat het niet opvalt hoe triest het met je games is gesteld. Want sinds die uitspraken kregen we de bedroevende FPS en PC performance van een Watch Dogs, een AC Unity, enzovoort. Het was een teken aan de wand. Ubisoft moest toch IETS doen om die zooi op consoles te laten lopen. Dit is van eenzelfde kaliber als een Bethesda dat voor een Fallout komt aankondigen 'There will be bugs'. Oh? Had je het product dan niet beter nog even in de oven laten zitten?

[Reactie gewijzigd door Vayra op 22 juli 2024 13:57]

Nogmaals, lees even terug waar het over ging, want je slaat de plank volledig mis.

Het oorspronkelijke statement was dat een 60Hz scherm ongeschikt zou zijn voor gaming. Waarop ik stel dat dat niet het geval is, aangezien 1080p/60 juist als baseline wordt gezien voor een fatsoenlijke game ervaring.

Dat console gamers erg lang aan een (sub-)1080p/30 ervaring vast hebben gezeten, is niet omdat het zo prettig gamen was, maar pure noodzaak. Al dan niet vergoeilijkt door nono's en bobo's die zelf meer tijd in Excel doorbrengen dan ingame en het verkopen als "cinematic".

Sowieso ligt dat een generatie of twee in het verleden. We hebben het nu over de huidige tijd, binnen de context van dit artikel en de daarin gedane uitspraken. 1080p/60 is nog steeds een gangbare ondergrens voor PC gaming, dusdanig dat het veelal op de officiële system requirements prijkt.
Het scrollen op een smartphone met 90 Hz of 120 Hz is voor mij duidelijk prettiger voor de ogen dan 60 Hz. Of het het geld waard is (hoger energieverbruik, hogere hardwarekosten), is een tweede. Maar de stelling dat het enkel fijner/nuttig is bij real-time games durf ik wel te bestrijden.
We zitten nu pas op de eerste console generatie die in bijna alle games de 1080p@60fps wel stabiel haalt. Daar kwam de PS3 nog zelden aan, en de PS4/Xbox One doken er in veel spellen ook nog wel onder (de pro/x varianten konden het wel aardig goed).
Uiteindelijk ligt het eraan hoe zwaar je de game maakt. Je kan een 4090 ook prima naar 720p 30fps laten zakken als je volledige path tracing gebruikt en genoeg effecten op scherm gooit.

Genoeg ps2 games speelde bijvoorbeeld ook al soepel op 60fps. Generatie erna is dat flink afgenomen.
Het grootste voordeel van een 120Hz of sneller paneel is de brede VRR range. In plaats van per sé een stabiele 60 FPS te moeten hebben,
Maar de VRR range aan de onderkant staat compleet toch los van de maximale vernieuw frequenties wat een monitor ondersteunt?

Er zijn best veel wat meer budget georiënteerde 75Hz schermen welke ook gewoon een VRR range van 48-75 hebben. Zolang je framerate dan gemiddeld maar rond de 60 zit met af en toe een dipje iets eronder komt dat helemaal goed en vangt VRR dat net zo goed wel op. Het enige wat je uiteraard mits is het daadwerkelijk kunnen tonen van een hogere framerate mits je videokaart dat aan kan.
Het ding met 60 FPS is dat als je niets anders gewend bent (altijd op 60FPS gespeeld hebt), je heel goed competitief kan zijn / met de besten mee kan doen (je brein interpoleert de frames als het ware; dit werkt zelfs op veel lagere FPS zoals 20). Maar zodra je een hoger FPS/Hz ervaart, wil je nooit meer terug / ben je niet zo goed meer op 60 FPS. (disclaimer; uit ervaring, niet wetenschappelijk bewezen)

[Reactie gewijzigd door Memori op 22 juli 2024 13:57]

Verschil tussen 60-100fps is anders hudge, daarboven zijn de verschillen fors minder.
De 360fps zorgt ervoor dat spellen anders reageren, niet dat spelers het zien.

Zelf game ik op 144fps 1440p met een 4080, op 4K is net even te zwaar.

60Hz is ook afhankelijk van de game, zoals City Skyline,s prima maar een online shooter te weinig.

[Reactie gewijzigd door mr_evil08 op 22 juli 2024 13:57]

30 naar 60 is huge. 60 naar 120 is ook groot, maar het effect is boven de 90 gewoon al veel lager. Dan zit het vaker aan de frame-drops en 1% die te laag zakt.
Frametimes dat klopt ook zeer belangrijk.
Frametime is fps. Spf vs fps.
Een stabiele frametime is belangrijker dan wat dan ook. Tweede plaats komt altijd hoe lang er over een e kele frame wordt gedaan.
Een shooter is eventueel zelfs single player met een frametime van 1000ms nog wel te spelen, aangezien je hersenen heel goed zijn in intra- en extrapoleren. (Prettig zal het niet zijn, maar je zal het spel wel uit kunnen spelen)
Frame time,s heeft meer met de CPU/ram speed te maken.

[Reactie gewijzigd door mr_evil08 op 22 juli 2024 13:57]

Frametime is letterlijk hoeveel ms er over ene enkele frame wordt gedaan. Fps is hoeveel frames per seconde. Daar zit een directe relatie in. Een frametime van 16.6ms staat gelijk aan 60fps.

Waar jij het over hebt zijn gemiddeldes, uitschieters enz. En die zijn vanwege de tijdsduur waarover de metriek gaat anders voor fps en frametime.
Maar 59 frames in een halve seconde en dan nog 1 in de volgende halve is ook 60 fps. Is wel heel vervelend om naar te kijken...
Klopt, dat het stabiel moet zijn heb ik ook al gezegd.
OLED koop je juist voor de pracht en praal, die gaat dan niet iedereen uitzetten om maar die 120fps te halen.
Het mooie aan OLED is inderdaad dat je van de voordelen geniet ongeacht of je videokaart/console dit wel volledig aan kan of niet. Om optimaal van een 4K scherm boven 1080/1440P te kunnen genieten heb je een apparaat nodig welke dat goed aan kan, idem voor 120/240Hz boven 60. Maar OLED zal ook als je uitvoerapparaat slechts 1080P60 goed aan kan een veel mooier plaatje kunnen genereren.
Ongeschikt niet nee, maar aanzienlijk minder prettig. Ligt wel aan het soort spel dat je speelt, strategie is 60 prima, maar bij fps/race minder.

Onlangs vond ik ineens dat m’n spellen traag werden. Ik van alles gecheckt, achtergrond processsen, virus, geheugen, drivers, kon niks vinden. Bleek dat m’n scherm weer terugstond op 60hz ipv 144gsync.

Dus merk het wel degelijk.
Ook gewoon fijn met scrollen. Bij Smartphones spreken we er schande van als een telefoon niet hoger dan 60hz kan...

Persoonlijk vind ik her vooral fijn de wat oudere games, daardoor kun je toch nog wat extra beleving krijgen met een goede gpu. Daarnaast is het handig voor video content. Haperingen vallen daardoor stuk minder op (natuurlijk doe je het liefst fps matching, maar dat werkt niet altijd).
Schande? Mijn Fairphone 5 die 90 Hz aankan staat gewoon op 60 Hz hoor

Iets wat jij vindt is niet wat de rest ook vindt. Wellicht een groot deel van de Tweakersniche...

[Reactie gewijzigd door JanvD op 22 juli 2024 13:57]

Schande? Mijn Fairphone 5 die 90 Hz aankan staat gewoon op 60 Hz hoor

Iets wat jij vindt is niet wat de rest ook vindt. Wellicht een groot deel van de Tweakersniche...
Ik zeg ook niet dat ik er mee eens ben. Ik probeer aan te geven dat ik het hypocriet vind dat 60hz bij een telefoonreview als minpunt wordt beschreven, maar bij reguliere monitoren niet.

Persoonlijk vind ik het wel fijner, maar geen deal-breaker voor telefoons. Wellicht omdat ik niet game op mijn telefoon en wel op mijn pc :).
144Hz is de sweet spot nu op 1440p (tussen HD en 4K in).
Ik had op GTFO met 4K 30fps, toen zette ik vsync uit, bleef op ~60fps (60Hz scherm). Toen naar 3440×1440 en minimaal 90fps (90-110). Recent betere gpu en nu haal ik de 144 meeste plekken wel.

Iedere stap omhoog merk je dat richten een stuk makkelijker wordt. Van 30 naar 60 is een wereld van verschil, van 60 naar 90 is een enorme sprong vooruit, van 90 naar 144 is een goede stap voorwaarts. Iedere keer is het effect wat minder maar zeker merkbaar. Wil je goed raak schieten blij dan niet hangen op 60Hz.

Speel je alleen Civ6 of Frostpunk zul je er eens stuk minder aan hebben, maar blijf je graag hangen bij Arma/GTFO/L4D2 dan heb je er wel veel aan.
Ongeschikt is misschien wat overdreven, maar je koopt ook geen BMW met wieldoppen ;)
'' Bij de PG32UCDM moet je telkens een tweede keer in het menu duiken om de USB-hub te switchen, in plaats van dat hij automatisch met de gekozen beeldingang verspringt. Dat is niet bepaald handig.''

Dit probleem is sinds de 9e april opgelost middels een firmware update, te vinden op de supportpagina van de monitor.
Voor de update van dit artikel heb ik de update toegepast en inderdaad, het is gefixt! Tekst en scorekaart zijn daarop aangepast.
Wat betreft de HDR helderheid van de PG32UCDM - er komt binnenkort een firmware update aan die de Peak 1000 HDR modes een stuk helderder zal maken.

Gisteren is de prerelease test versie hiervan op het ASUS forum gepost - de beta MCM104 firmware versie.
Uit het artikel:
Eerdere waren alleen verkrijgbaar in een kleiner (27"-) of veel groter (34"- of 49"-)formaat,
Maar dan is 27" toch juist veel kleiner, want 5" kleiner dan 32" en 34" maar weinig groter, want 2" groter. Of was er iets anders aan de hand met die vorige generatie 34" schermen dat die randen veel groter moesten of iets? Waarschijnlijk dan een typo, dat het 43" had moeten zijn, dan is het wel logisch natuurlijk.

[Reactie gewijzigd door OruBLMsFrl op 22 juli 2024 13:57]

Het gaat denk ik vooral om de breedte want die 34" panelen zijn ultrawides als ik me niet vergis, 21:9 ipv 16:9.
Dus qua oppervlakte scheelt het niet veel (als deze 32" misschien niet zelfs groter is in dat opzicht) maar qua de breedte die het op je bureau inneemt is het wel een stuk 'kleiner'.
Tussen 27" 16:9 en 31.5" 16:9 en 34" 21:9 zit telkens 4" breedteverschil
en 31.5" 16:9 heeft een iets grotere oppervlakte dan 34" 21:9.

Waarom 27" "kleiner" is (i.p.v. "veel kleiner") maar 34" "veel groter" is dus inderdaad de vraag.

[Reactie gewijzigd door Olaf van der Spek op 22 juli 2024 13:57]

Op deze site kun je alle verschillende afmetingen en verhoudingen onder elkaar zetten zodat je een goed visueel beeld krijgt hoe diagonaal en verhouding invloed op elkaar hebben : https://www.displaycompare.com/
27" 16:9 heeft bijvoorbeeld dezelfde hoogte als 34" 21:9
MSI doet het de afgelopen jaren erg goed op gebied van gaming monitoren met de juiste mix van specificaties die er toe doen en voor een concurrerende prijs.
Tja, je kunt hem inderdaad voor wat minder aanbieden als je hem geen G-SYNC/Freesync-certificering geeft...
Wat een blunder op een scherm van 1k+
Wat is het concrete nadeel van het gebrek aan certificering?

[Reactie gewijzigd door Olaf van der Spek op 22 juli 2024 13:57]

Eigenlijk het feit dat je het wel mag verwachten van een monitor van 1,2k die zich voordoet als een Gaming monitor. Als een 300 euro budget IPS scherm dit wel heeft, waarom zo'n scherm niet?
Los daarvan, lijkt me nogal een key feature op een 4k scherm waarbij je in bijna alle gaming gevallen die 240 hz niet aan gaat tikken.
Ook zonder certificering ondersteunen deze schermen gewoon FreeSync en G-Sync.
Ben ik dan de enige die dit gek vind voor een scherm uit die prijsklasse?
Dan mag je toch van certificeringen uitgaan ipv ja werkt gewoon (Is afwachten)
Voor dat geld moeten dit soort basale dingen gewoon kloppen.
Het zit hem vooral aan de kosten.
Nvidia heeft verschillende G-Sync modules.

Daar waar freesync leunt op de specificaties van de HDMI en displaypoort standaard en daarmee elke module ondersteund wordt (die aan de eisen voldoet), vereist officiële Gsync een controller van Nvidia zelf. Je mag dus geen goedkope controllers van een ander merk pakken.

Nadat deze erin zit, moet het scherm ook nog eens gekeurd worden en gaat elke firmware update ook langs Nvidia.

Het is ergens goed dat Nvidia strenge eisen stelt zodat mensen weten wat ze krijgen, maar dit maakt het scherm misschien ook echt een stuk duurder.

Dat een €300 scherm dit heeft zegt uiteindelijk ook niet heel veel. Nvidia kan zomaar een overschot aan de oudere modules hebben met mindere specificaties. (1080P tot xxx hz bijvoorbeeld)
Een chip die 10-bit HDR 4K met xxx hz is natuurlijk een stuk duurder om te produceren en nog maar NetBoots de markt. Het zou zomaar kunnen zijn dat dit al tientjes verschil oplevert terwijl een niet-officiële chip van een ander merk net zo goed zijn werk kan doen.
Dus dan koop je een bleeding-edge scherm met een goedkope adaptive sync module die niet gekeurd en gecertificeerd word door een partij die daadwerkelijk gaat over de apparaten die beeld naar je scherm sturen? Dat maakt het verhaal niet bepaald beter..
Aangezien de AW het wel heeft, lijkt het prima in de prijs te kunnen passen.
Gezien de mankementen van de huidige G-sync modules heb ik liever een scherm zonder, dan met. De Alienware van vorig jaar had een extra fan (!) nodig om de G-sync module te koelen, én Nvidia weigert nog steeds om bijvoorbeeld HMDI 2.1 ondersteuning direct aan de module te koppelen.
(waarschijnlijk nog steeds oude batches die op moeten).

G-sync compatible is helemaal prima met OLED monitors. De "echte" G-sync module kan op LCD schermen nog wat leuke trucs met variabele overdrive en binnenkort Pulsar, maar op OLED heb je daar niks aan/heb je dat niet nodig.
Voor de merklabeltjes moet fors meer betaald worden (door de eindgebruiker), dus het is een kwestie van besparing op iets wat zonder het labeltje ook functioneert.
klopt de G-sync of Freesync cert. is alleen een subjectieve stempel. het gaat om de adaptive sync.

laatst nog een vid van gezien. (hardware unboxed)

[Reactie gewijzigd door JoHnnY-Btm op 22 juli 2024 13:57]

Het issue is dat - mocht het in de toekomst op een of andere manier niet meer werken - je geen support hebt.

Aangezien VRR onderdeel is van de VESA standaard zal het allemaal wel meevallen maar als een knakenmonitor het al heeft dan is het sneu dat je het niet krijgt op een ding van meer dan 1000 euro.
Waarom zou je geen support hebben?
1) Als een fabrikant niet opgeeft dat X compatibel is dan is dat altijd om zichzelf in te dekken

2) Zoals ik al zei, het is hypothetisch. Maar als AMD of Nvidia iets aanpast in G-Sync of Freesync (zonder in te gaan op wat er wel of niet mogelijk is) en er gaat iets mis in combinatie met deze monitor, zie punt 1
Ondersteunen ze enkel de basis FreeSync, of ook echt FreeSync Premium PRO?
(enkel bij de ASUS is dit gegarandeerd in de specs)
Voor mij is het ontbreken van dit label een reden om niet voor de dell of MSI te gaan, tenzij iemand hier bijna kan bewijzen dat dat er niet toe doet.
Helaas zijn er maar 4(5) monitoren die in deze klasse zitten en die de volledige FreeSync Premium PRO certificering hebben:
  • PG32UCDM
  • 32GS95UE
  • Aorus FO32U2
  • Aorus FO32U2P
  • OLED G80SD
Ze hebben allemaal adaptive sync tegenwoordig, het labeltje g-sync zegt niet zoveel meer.
Ik weet nog dat mijn oude Dell 1440p 24" scherm met G-sync ook ontzettend duur was.

OLED schermen zijn fors duurder dan LCD helaas.

[Reactie gewijzigd door mr_evil08 op 22 juli 2024 13:57]

Dat ze duurder zijn bestaat inderdaad geen twijfel over. Maar zo'n beetje elk IPS scherm, budget of niet, heeft deze certificering gewoon. Mijn Dell van 300Eu iig wel. Vroeger was het een beetje een gimmick/ bleeding edge, Nu zou het gewoon de standaard moeten zijn. Vooral met de genoemde prijzen hier.
Die certificering is nergens voor nodig, freesync is voldoende. Ik denk dat we dat station inmiddels gepasseerd zijn. Ik ga ook niet extra betalen voor iets dat niet nodig is.
Hier anders absoluut niet. Veel duurder dan de alienware zonder reden.
Ik wacht met smart op de samsung G8 die in de zomer uitkomt. Heeft al mijn wensen:
- 4k
- niet curved maar plat
- 32 inch
- OLED
- 240hz
- geen gaming uiterlijk
- matte paneel

[Reactie gewijzigd door bones op 22 juli 2024 13:57]

Ik heb nu een 2k 32 inch curved. Gezien ik dichter bij het scherm zit, want computerscherm, vind ik curved wel erg prettig.

Ik had een 4k 32 inch scherm non-curved, maar dat was wel een erg groot scherm ineens.

Ieder zijn wens :-)
Ik heb nu een 2k 32 inch curved. Gezien ik dichter bij het scherm zit, want computerscherm, vind ik curved wel erg prettig.

Ik had een 4k 32 inch scherm non-curved, maar dat was wel een erg groot scherm ineens.

Ieder zijn wens :-)
Op welke manier is een (plat) 32 inch scherm groter dan een (curved) 32 inch scherm?
Inderdaad. Ik werk graag op een 4k scherm en zou graag mijn 32 inch inruilen voor een 42 inch. Probleem is alleen dat de kijkhoek naar de buitenste rand dan te groot wordt. Ook het verschil in focus voor de ogen wordt merkbaar. Ik kijk daarom al jaren uit naar holle 4k-schermen voor kantoorgebruik. Je komt ze sporadisch tegen voor enorme prijzen. Hopelijk wordt dat segment wat meer mainstream zodat de prijzen naar beneden gaan.
Doe ik: lg c1 perfect vind ik geen idee waarom mensen veel meer uitgeven voor deze.
42, moet echt niet gekker worden. 8)7
2x 42"? :D
Werkt prima.
Het was mij net wat te veel, ben weer terug naar 1 42 inch scherm. Mijn ideale monitor is nog 1/3e breder dan mijn huidige LG, maar bestaat volgens mij nog steeds niet.
Dat zou inderdaad heel mooi zijn, ik snap niet goed waarom fabrikanten nog steeds voor spiegelende schermen gaan, het wordt vrijwel altijd als een nadeel aangemerkt.

Ik denk dat ik dezelfde wens heb, ik vind een ultra wide met een resolutie van 5120x2160 pixels ook heel intressant. bijvoorbeeld de Dell UltraSharp U4025QW, ik hoop dat in dat segment ook meer aanbod komt.
Ik vermoed dat fabrikanten voor ‘spiegelend’ of beter gezegd niet-matte schermen kiezen, omdat zo’n extra, mat laagje wel helpt tegen spiegelen, maar ook het contrast verminderd. Want een mat scherm reflecteert net zo goed het licht uit de kamer, maar dan meer verspreid over het hele scherm.

Zeker de gamer, maar ook de gemiddelde kantoorgebruiker zal sowieso al maatregelen nemen om al te veel en direct zonlicht uit de kamer te houden, want dat kijkt niet prettig.
War meer aanbod in 5120×2880/5120×2160 zou fijn zijn. Zien er wel heel verleidelijk uit. Op 28 of 29 inch zou perfect zijn, ~200ppi. 30 inch en hoger wordt weer echt groot (tenzij ultrawide dan kan 32 nog wel).

Maar als ik zo'n scherm koop ga ik niet zitten met 8 bit of maar 60Hz, dan wil ik 10 bit en 90Hz absolute minimum. En geen hoog spiegelend scherm.
ik zie bij de enthousiastelingen markt juist steeds vaker de vraag naar niet matte schermen, het wordt een grote mat glanzende vlek ipv een weerspiegeling waar je doorheen kan kijken.

Ook worden dit soort schermen vaker gekocht door mensen die heel veel waarde hechten aan beeldkwaliteit. en dus ook bovengemiddeld vaak een goede omgeving hebben om weerspiegeling te minimaliseren. Voor het grootste deel van de huidige markt is spiegelend QD-Oled dus een voordeel ipv een nadeel.
Mensen die dit geld betalen voor een scherm, willen over het algemeen de beste beeld kwaliteit.
Een glossy coating zorgt voor de best mogelijke beeld kwaliteit. Alles komt net even wat scherper door, de kleuren levendiger en het contrast komt beter tot zijn recht.
Meer een 'wet ice' look ipv een meer dof en blurry beeld, wat je echt terug ziet in content. Zelfs naast mijn oude ASUS IPS - PG279Q - met een relatief minimale / fijne matte coating is het verschil duidelijk te zien.
Deze bestaat momenteel al: LG 32GS95UE
3 jaar garantie… Ik blijf erbij, OLED is niks voor statische elementen zoals desktop UI. Heb zo onderhand een lelijke ingebrande rode streep van YouTube en het NPO logo in m’n OLED TV. Mini LED voor mij.
Dit zegt bijzonder weinig als je er niet bij vermeldt welke tv je het over hebt en hoe oud die dus is... De oudere oleds hadden veel meer last van dat soort issues namelijk. Bovendien is het waarschijnlijk een woled wat je hebt wat dus weer niet zoveel zegt over qd-oled.
Alle OLEDs zijn hetzelfde, ze branden in. Of het nu na 3 jaar of na 7 jaar is, daarnaast vind ik het belangrijk dat een scherm gewoon alles kan laten zien wat ik wil, ook al is dat statisch. Wordt al ongemakkelijk als de homepage van mn Chromecast te lang aan staat.
Met die redenatie zijn alle schermen hetzelfde, ze branden nl. allemaal in op ten duur.
Niet helemaal waar, de eerdere generatie OLED TV's waren een stuk gevoeliger voor inbranden dan de nieuwere modellen. Of het met de huidige generatie TV's al zo ver is weet niemand (moet nog blijken :+ ) maar uiteindelijk gaan we ook bij OLED op het punt komen dat de tijd die nodig is voordat het scherm zichtbaar inbrand bij normaal gebruik langer is dan de tijd welke mensen veelal mee doen; zeg ~10-12 jaar. Ook andere technieken gaan immers niet eeuwig mee, naar een jaar of 10 intensief gebruik is het beste van de LED backlight er vaak ook wel af.

Neemt niet weg dat alhoewel ik met veel plezier een OLED TV heb ik het voor een computer ook nog niet aandurf totdat er wat meer bekend is over de levensduur op wat langere termijn. Als ik de PC nu alleen zou gebruiken om te gamen en videoconsumptie wel maar gezien ik hem ook gebruik voor veel desktopwerk durf ik het nog niet aan, zeker niet met de huidige prijzen van ruim 1000 euro.
Dat is het hem! Ik vertrouw dat het burn in probleem enorm verminderd is over de jaren en nu waarschijnlijk al erg zeldzaam is, maar het idee dat statische content dit nog zou kunnen maakt me redelijk nerveus tijdens het gebruik van OLED.
Deze problemen herken ik niet van mijn OLED TV terwijl die ook regelmatig static content toont.
Hoe lang heb je hem al en hoe veel uur per dag wordt ie ongeveer gebruikt? Ik heb een model uit 2017, na 5 jaar begon hij in te branden, degelijk maar ik heb een 8 jaar oude TV die nog perfect beeld geeft in de slaapkamer.
Philips, inmiddels 7 jaar en niks ingebrand.
Maar goed hier staat die niet de heledag op dezelfde zender met dezelfde logo.

Staat heel wat uurtjes per dag aan.

[Reactie gewijzigd door mr_evil08 op 22 juli 2024 13:57]

De WOLED vs QD-OLED discussie is erg interessant te volgen online. Zie optimumtech:

https://youtu.be/fkGtsatPGT4?si=RZTtPv-FqW4eEFfp

En hardware unboxed:
https://youtu.be/y4pHSaFo664?si=jfxDojNznnJwOxsO
Al een tijdje aan het orienteren naar een gaming monitor voor mijn PS5.

Ik heb mijn zinnen gezet op de nieuwe variant van de LG 27'' Oled (27gs95qe-b).

Iemand daar ervaring mee?
voor die OLED kan ik duimen draai het model die een 2 maanden hiervoor uit kwam en heb er totaal geen issues mee werkt goed geeft een goed en vlot beeld geen burn ins want dat is goed beveiligd screen OSD is fijn in gebruik en de monitor is toch goed fel ondanks dat de zon bij mij er wel eens opstaat zeker een aanrader
Super bedankt voor de reactie! Even wachten op een leuke aanbieding en dan toch maar eens bestellen ja!
voor context ik heb de 27GR95QE-B
Ja daar heb ik inderdaad een hele tijd naar gekeken en toen kwam ineens de nieuwere versie uit welke meer NITS zou moeten hebben.
ja dat model was er nog niet toen ik deze kocht maar na al deze tijd ben ik nog steeds dik tevreden wel een aanrader zet je pixel shift beveiliging aan en de screensaver de kan dat er dan iets gebeurd rondom inbranding is klein
Monitor voor aantal uur geprobeerd, maar het scherm zat zich constant te dimmen, geen prettig ervaring en heeft mij voor nu voor de eerste tijd weggejaagd van OLED.
Ja ik heb de LG 27GS OLED gehad en die stond tot mijn verbazing ook uit zichzelf langzaam de brightness te regelen terwijl ik zat te turen naar de monitor. Ook was het matte scherm erg korrelig en waren de pixels en kleine letters daardoor heel lelijk te noemen. De kleuren vond ik vrij flets al heb ik niet geprobeerd dat nog bij te regelen. Ook steeds de melding "Pixel Care in progress" vond ik erg jammer. Al met al was het enthousiasme er snel van af en heb daardoor de monitor maar weer snel terug gebracht naar de winkel. ;(
Niks vergelijkbaars in 4K 144hz te krijgen? 240hz heb je niks aan met een PS5.
240hz is inderdaad overkill ja.

Ben momenteel ook aan het kijken naar de: 27GR93U-B!
Ik heb zelf de GR variant voor iets minder dan een jaar, en begin toch langzaam lichte burn-in te ontwikkelen. Het gaat dan vooral om game HUDs die veel wit gebruiken, deze lijken het hardst te gaan.

Ik.. baal hier wel enigzins van. Ondanks dat ik hoop had op allerlei verschillende refresh technieken om burn-in tegen te gaan. (Die ik allemaal aan heb staan)
20 maart de Alienware besteld, huidige geschatte leverdatum is 15 mei :'( , levertijden houden dus zeker nog te wensen over...

[Reactie gewijzigd door jeroen71974 op 22 juli 2024 13:57]

3 april besteld, levering 8 mei, vermoedelijk krijg ik nog een mail met extra vertraging. Wordt wel niet vermeld tijdens het bestel proces. En aangezien er maar 1 verkoper in de pricewatch zit, ...
De initiële leverdatum was 15 april, kreeg de 14e een mail dat hij vertraagd was. Eens zien of ze 15 mei wel halen. Nu ook maar bij Alternate een reminder ingezet dat ze een email sturen mochten zij hem eerder in stock hebben...
Mis ik hier nu iets?
Megekko heeft m gewoon op voorraad en Alternate geeft aan m binnen 3 dagen binnen te hebben na bestellen.
Of is hij bij Dell zelf goedkoper dat jullie m daar bestellen?

Ik heb hem een maand geleden bij Megekko gekocht, nog geen moment spijt van gehad. Prachtige monitor. Het enige wat ik jammer vind is het ontbreken van USB-C docking, maar dat maakt het prijsverschil met de andere monitoren meer dan goed. Daarvoor kan ik wel een simpel dockje halen ;).

- edit -
Ja ik mis iets, namelijk het feit dat dit een geupdated artikel is en deze reacties dus niet recent zijn. 8)7

[Reactie gewijzigd door skapiche op 22 juli 2024 13:57]

Ik wacht nog even. Vind 32" te groot. Persoonlijke voorkeur gaat dan ook naar 27"
samsung komt met een 27 inch 4K panel volgend jaar volgens geruchten
Ken net met 27. Mijn 2e scherm is al een oudje maar wel 4K op 28 inch, de perfecte maat.
jep zou ook mijn voorkeurs maat zijn

Op dit item kan niet meer gereageerd worden.