Cookies op Tweakers

Tweakers is onderdeel van DPG Media en maakt gebruik van cookies, JavaScript en vergelijkbare technologie om je onder andere een optimale gebruikerservaring te bieden. Ook kan Tweakers hierdoor het gedrag van bezoekers vastleggen en analyseren. Door gebruik te maken van deze website, of door op 'Cookies accepteren' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt? Bekijk dan ons cookiebeleid.

Meer informatie

Asus introduceert twee ProArt-monitoren met miniledpanelen

Asus heeft twee nieuwe ProArt-monitoren voor professioneel gebruik gepresenteerd. De PA32UCX-P en PA27UCX zijn 4k-monitoren met miniledpanelen en ondersteuning voor meerdere hdr-standaarden. Het is nog niet bekend wat de schermen kosten.

De PA32UCX-P toont zeer veel gelijkenissen met de huidige PA32UCX. Wel introduceert Asus in de PA32UCX-P zogeheten 'off-axis contrast optimization', ook wel oco. Dit moet zorgen voor beter contrast en verbeterde kleurweergave bij scherpere kijkhoeken. De huidige ProArt-schermen hebben dit niet.

De Asus PA32UCX-P

Verder lijken beide schermen identiek. Het zijn beide 32"-monitoren met een resolutie van 3840x2160 pixels. Het scherm heeft, net als zijn voorganger, 1152 dimbare zones en een piekhelderheid van 1200cd/m². Het scherm is overigens gecertificeerd voor DisplayHDR 1000. Het scherm heeft een 10bit-paneel van het ips-type dat onder andere 99 procent van het dci-p3-kleurruimte kan weergeven. Ook kan de monitor 99,5 procent van het Adobe-rgb-spectrum, 89 procent van Rec. 2020 en 100 procent van de srgb- en Rec. 709-kleurenspectra tonen. De PA32UCX-P heeft een DisplayPort 1.2-aansluiting, drie hdmi 2.0b-poorten en twee Thunderbolt 3-connectors. Verder heeft het scherm een 3,5mm-jack voor koptelefoons en een usb-hub met drie aansluitingen.

De Asus PA27UCX

De PA27UCX is wel geheel nieuw. Het product heeft een 27"-ips-paneel met een 4k-resolutie, hoewel dit scherm over 576 dimzones beschikt. Daardoor ligt de piekhelderheid ook lager, op 1000cd/m². Ook de dekking van de verschillende kleurenspectra is iets anders. Zo kan het scherm 97 procent van de dci-p3-kleurruimte en 83 procent van het Rec. 2020-kleurenspectrum tonen. De dekkingsgraad van Adobe-rgb, srgb en Rec. 709 blijft hetzelfde. Asus voorziet het 27"-model ook van oco. Het scherm heeft een DisplayPort 1.2-connector, twee hdmi 2.0b-aansluitingen en een usb-c-poort. Verder heeft de monitor vier usb 3.0-aansluitingen van het type A.

Beide schermen ondersteunen daarnaast verschillende hdr-standaarden, waaronder hdr10, Dolby Vision en hybrid log gamma. Verder zijn beide schermen gekalibreerd voor een afwijking van minder dan 1 Delta E bij weergave van srgb en Adobe-rgb. De schermen hebben beide een verversingssnelheid van 60Hz met ondersteuning voor Adaptive Sync. Asus rept nog niet over adviesprijzen van de twee monitoren.

Model Asus ProArt PA27UCX Asus ProArt PA32UCX-P
Scherm 27", ips, 10bit, 60Hz 32", ips, 10bit, 60Hz
Dimzones 576 1152
Piekhelderheid 1000cd/m² 1200cd/m²
Hdr-ondersteuning Hdr10, Dolby Vision, hlg Hdr10, Dolby Vision, hlg
DisplayHDR-certificering DisplayHDR 1000 DisplayHDR 1000
Kleurweergave

Srgb: 100%

Rec. 709: 100%

Adobe-rgb: 99,5%

Dci-p3: 97%

Rec. 2020: 83%

Srgb: 100%

Rec. 709: 100%

Adobe-rgb: 99,5%

Dci-p3: 99%

Rec. 2020: 89%

Adaptive Sync-ondersteuning Ja Ja
Aansluitingen

1x DisplayPort 1.2

2x hdmi 2.0b

1x usb-c

4x usb 3.0 type A

1x DisplayPort 1.2

3x hdmi 2.0b

2x Thunderbolt 3

3x usb 3.0 type A

Adviesprijs nnb nnb

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Daan van Monsjou

Nieuwsposter

26-04-2020 • 14:56

92 Linkedin

Reacties (92)

Wijzig sortering
Verder zijn beide schermen gekalibreerd voor een afwijking van minder dan 1 Delta E bij weergave van srgb en Adobe-rgb.
Beetje knullig dat in bovenstaande artikel wel deze quote staat, maar de twee onderscheidende features van dit scherm niet genoemd worden:
  • 14-bit/channel LUT Hardwarekalibratie met support voor sensor van X-Rite, DataColor en Klein
  • Uniformiteitscorrectie
Die fabriekskalibratie is na 200 branduren nutteloos. Verder kan je natuurlijk elk scherm wel kalibreren met een beeldschermkalibrator, maar de user experience met hardwarekalibratie is compleet anders kan ik je uit ervaring vertellen.

Ik heb daar het nodige over geschreven destijds in het stuk over de Eizo ColorNavigator 6 kalibratiesoftware in m'n review van de Eizo ColorEdge CG277, maar dit stuk geeft al een aardig beeld:
De weergave is dan in veel gevallen al een stuk beter, doordat in ieder geval de witbalans en gammacurve eigenlijk altijd goed zijn. Het verschil was vooral goed merkbaar in browsers. Op de Dell U2711 en AOC q2770Pqu zagen afbeelding in Chrome, Firefox en Internet Explorer er allemaal weer anders uit, op de CG277 zagen ze er in elke browser hetzelfde uit. Het geeft een compleet andere gebruikerservaring en je ziet meteen hoeveel dingen nog niet goed worden weergegeven als je alleen een zogenaamde softwarematige kalibratie hebt.

Een andere interessante bijkomstigheid van hardwarematige kalibratie is dat je het kleurbereik hardwarematig kan verkleinen. Met een softwarematige kalibratie vertelt het ICC-profiel dat bij de kalibratie is gegenereerd aan de applicatie wat het kleurbereik van het scherm is, als dat een color managed applicatie is en de content een kleurprofiel heeft toegezewen kunnen de kleuren van de content worden gemapped naar de kleuren van het scherm. Met hardwarematige kalibratie kan je echt het kleurbereik van het scherm zelf instellen, zolang de primairen van dat kleurbereik maar binnen het native kleurbereik vallen. Het scherm kan zich dan bijvoorbeeld hetzelfde gedragen als een scherm dat native een kleurbereik gelijk aan sRGB heeft.

Door dit soort zaken werkt hardwarematige kalibratie in de praktijk veel beter dan softwarematige kalibratie. Color management wordt er een heel stuk gemakkelijker van en daarnaast heb je ook veel meer garantie dat de weergave correct is, vooral in niet color managed applicaties.
Door dit soort zaken werkt hardwarematige kalibratie in de praktijk veel beter dan softwarematige kalibratie.
Windows zelf of de GPU zou dit toch net zo goed moeten kunnen als het scherm zelf?
Een paneel wordt digitaal aangestuurd en heeft een eigen bitdiepte per subpixel. Die bitdiepte is 6, 8 of 10 bit bij beeldschermpanelen. Wat betekent dat een subpixel dan 26 = 64, 28 = 256 of 210 = 1024 verschillende niveaus kan weergeven. Aangezien een pixel drie subpixels heeft moet je dat getal tot de derde macht verheffen voor het totale aantal kleuren dat een pixel kan weergeven.

Deze niveaus staan vast. Als je weet wat de bitdiepte van de subpixels is, wat de specificaties van de kleurfilters van de subpixels zijn en wat de specificaties van de backlight zijn, dan kan je op basis daarvan al bepalen welke kleuren een scherm kan weergeven. Het maakt daarvoor niet uit wat voor elektronica er verder nog in het scherm zit en wat voor videokaart je hebt.

De enige uitzondering hierop is de implementatie van FRC (Frame Rate Control). Dat is een vorm van dither, alleen niet in plaats (zoals bijvoorbeeld bij JPEG gebruikt wordt), maar in tijd. Wat dit doet is bij statische content, zoals bij fotobewerking, is de kleur van een pixel bij elk opvolgend frame wisselen om op die manier een tussenliggende waarde te simuleren.

Even een heel erg versimpeld voorbeeld: stel je voor dat je bijvoorbeeld de 9-bit kleur [483;137;501] wilt weergeven in een bepaalde pixel, dan zou het scherm dan tussen de 8-bit kleuren [241;68;250] en [242;69;251] gaan wisselen met elk nieuw frame om die kleur te simuleren.

Dat is meteen ook de enige manier om, perceptueel gezien, meer verschillende kleuren weer te geven dan op basis van de kleurdiepte verwacht zou mogen worden. In feite zijn het nog steeds dezelfde kleuren, maar door het snelle schakelen tussen de twee lijkt het een tussenliggende waarde te hebben die normaal gesproken niet weergegeven zou kunnen worden. Twee nadelen van FRC zijn dat het alleen goed werkt met statische content (maar bij dynamische content, zoals video, is het ook minder nodig) en vooral bij donkere tinten kan je door het schakelen tussen de twee kleuren een flikkering zien. Als je geen fan bent van beeldschermen met PWM backlight dimming, dan zal je dit al helemaal niks vinden. Want waar PWM op beeldschermen minimaal 175 Hz is (oude CCFL schermen) geeft FRC een flikkering op de paneelfrequentie, dus meestal 60 Hz.

Waar de LUT voor gebruikt wordt is het omzetten van de kleuren zoals die door de videokaart worden uitgestuurd naar de kleuren zoals die op het scherm moeten worden weergegeven. In de LUT staat dus je kalibratie, maar in plaats van formules is het dus een kant en klare tabel. De reden hiervoor is heel simpel: een beeldscherm heeft niet de rekenkracht om voor elke pixel voor elk nieuw frame uit te rekenen wat de juiste waarde moet zijn.

Bij "softwarematige" kalibratie staat alle kalibratie-informatie in het ICC-profiel. Vervolgens bepaalt je videokaart aan de hand daarvan hoe de kleur van een pixel zoals dat van een programma naar de videokaart gaat moet worden omgezet voor het wordt doorgestuurd naar het scherm.

Bij hardwarematige kalibratie bevat het ICC-profiel niet de volledige kalibratie-informatie. De videokaart past dan alleen maar aan voor het ingestelde kleurbereik en gamma van het scherm op basis van de het ICC-profiel van de content, wat veel simpelere correcties zijn. Die correctie gaat er van uit dat het scherm een perfect scherm is: als je hebt gecorrigeerd voor gamma en kleurbereik wordt de kleur goed weergegeven. Alleen is geen enkel scherm een perfect scherm, want je hebt ook nog onregelmatige afwijkingen.

Als je een 3D kleurvolume zou opsplitsen in een 3D grid, dan zou bij een perfect scherm elk deeltje een kubus zijn met gelijke afmetingen. In de praktijk heb je echter grid distortion: het zijn geen perfecte kubussen meer en de afmetingen verschillen ook een beetje. Het deel van de correctie dat vervolgens in het scherm wordt gedaan op basis van die LUT is het rechttrekken van dat 3D grid, zodat elke kleur wordt weergegeven zoals bedoeld.

Doordat het scherm niet echt berekent wat het moet worden, maar opzoekt, heeft het nut om een LUT te hebben met een veel hogere bitdiepte dan de kleurdiepte van het paneel. De belangrijkste reden daarvoor is dat hardwarematige gekalibreerde schermen gamut mapping ondersteunen: door middel van de LUT het kleurbereik beperken, ongeacht de kleurinformatie van de content. Hierdoor verschuiven de fysieke RGB-combinaties van het paneel ten opzichte van de RGB-combinaties zoals die zouden moeten zijn voor het kleurbereik dat je weer wilt geven. Doordat er een nagenoeg oneindige hoeveelheid verschillende kleurbereiken ingestelde kunnen worden in de applicatie voor hardwarematige kalibratie heb je dan ook een heel erg grote LUT nodig om te zorgen dat je afrondingsfouten beperkt tot een minimum.

Het voordeel van gamut mapping is dat het voor alle content geldt. Het kleurbereik van veel wide gamut schermen is iets groter dan Adobe RGB. Zou ik het scherm niet kalibreren (en per definitie dan dus ook niet het kleurbereik aanpassen), dan wordt bij alle content zonder kleurprofiel de pixel door het scherm worden weergeven zoals deze door het programma werd opgegeven.

Stel nu echter dat ik het gamut heb gemapped naar Adobe RGB en dat het native kleurbereik van het paneel als volgt is:

Rx = 0,680
Ry = 0,310
Gx = 0,210
Gy = 0,700
Bx = 0,147
By = 0,054

(gamut van LG Display LM270WQ3-SLA1 paneel)

Als een programma dan doorgeeft aan de videokaart dat een bepaalde pixels de RGB-kleur [200;0;0] heeft, dan wordt er van uit gegaan dat dat Rx = 0,640 Ry = 0,330 is van Adobe RGB. Maar het kleurbereik van het scherm is groter dan Adobe RGB dus die [200;0;0] wordt dan met behulp van de LUT omgezet naar [200;55;28], zodat het ook echt als de rode primair van Adobe RGB wordt weergegeven en niet als de rode primair van het paneel zelf.

Maar als je nu een afbeelding opent in Photoshop die als kleurprofiel sRGB heeft toegewezen, dan kan het niet in één keer worden omgezet. De videokaart zet het dan eerst om van sRGB naar Adobe RGB, want die denkt dat het scherm een kleurbereik heeft gelijk aan Adobe RGB op basis van het ICC-profiel van de kalibratie. Vandaar dat ik eerder ook "het ingestelde..." er bij had gezet, want het gaat dus niet om de native eigenschappen van het scherm.

Laten we dan zeggen dat we de RGB-kleur [135;218;56] hebben in sRGB. Dan maakt de videokaart daar eerst [164;218;73] in Adobe RGB van en vervolgens wordt dat in het scherm op basis van de LUT omgezet naar [163;214;71] voor weergave door het paneel.

Zou je een LUT hebben die maar een bitdiepte heeft van 8 bits, gelijk aan het paneel, dan zou daar best wel eens iets anders uit kunnen komen, doordat het al is omgezet van sRGB naar Adobe RGB. Als je dan Adobe RGB niet heel uitgebreid in die LUT hebt staan krijg je twee keer afronden op hetzelfde aantal significante cijfers als het eindresultaat, want dan een significant verschil kan geven in het eindresultaat. Als je een LUT hebt met een lage bitdiepte, zou dat bij vloeiende kleurovergangen voor extra banding kunnen zorgen. Eizo ColorEdge schermen en ook de NEC SpectraView schermen hebben een 16-bit LUT, de ASUS ProArt schermen hebben een 14-bit LUT.
Zou je een LUT hebben die maar een bitdiepte heeft van 8 bits, gelijk aan het paneel, dan zou daar best wel eens iets anders uit kunnen komen, doordat het al is omgezet van sRGB naar Adobe RGB. Als je dan Adobe RGB niet heel uitgebreid in die LUT hebt staan krijg je twee keer afronden op hetzelfde aantal significante cijfers als het eindresultaat, want dan een significant verschil kan geven in het eindresultaat.
Dit is het gedeelte dat ik niet begrijp..
De videokaart doet de omzetting van sRGB naar Adobe RGB, wat is de bitdiepte van het resultaat?
8-bit? Wat heb je aan meer dan 8-bit in de monitor LUT?
10-bit? Wat heb je aan meer dan 10-bit in de monitor LUT?
12-bit? Ondersteunt DP dat? Edit: ja
En in alle gevallen: waarom kun je de transformatie die de monitor LUT doet, niet direct in de videokaart doen?

Twee keer transformeren betekent twee keer afronden, dus je zou denken dat geen monitor LUT juist een voordeel zou zijn.

[Reactie gewijzigd door Olaf van der Spek op 27 april 2020 12:38]

Windows zelf of de GPU zou dit toch net zo goed moeten kunnen als het scherm zelf?
De GPU stuurt voor iedere pixel de RGB-kleurcode door. Op de meest courante schermen (= 8-bit input schermen) zijn er zo 16777216 verschillende codes.

Een scherm zonder hardware calibratie toont voor iedere kleurcode een vaste kleur. Met softwarematige calibratie, weet de computer welke kleuren effectief getoond worden bij welke kleurcode. Als de kleur bij een bepaalde code te veel afwijkt van de standaard, dan kan de software die kleurcode vervangen door een andere kleurcode. In dat geval, zullen niet alle 16777216 kleuren van je scherm uniek weergegeven worden. Dat kan zich uiten in "banding" en "uitgebrande" kleuren bij schermen die veel afwijken van de standaard. De kleurweergave volgt dan beter de standaard (= de kleuren zien er correcter uit), maar je verliest kleurresolutie.

Bij een scherm met hardware calibratie kan je de kleur die het scherm toont voor iedere kleurcode aanpassen. Zo'n scherm kan dan nà calibratie nog steeds hetzelfde aantal unieke kleuren weergeven.

[Reactie gewijzigd door apa op 27 april 2020 08:20]

Bij een scherm met hardware calibratie kan je de kleur die het scherm toont voor iedere kleurcode aanpassen. Zo'n scherm kan dan nà calibratie nog steeds hetzelfde aantal unieke kleuren weergeven.
Ik vrees dat ik het nog steeds niet begrijp. Stel het paneel is 8-bit. Stel de GPU doet de correctie. De link tussen GPU en monitor is ook 8-bit (per kanaal), dan kan de GPU toch elk van de 256 waarden uitsturen?

Met een 10-bit paneel heb je een 10-bit link nodig, maar dat is tegenwoordig ook geen probleem.
Stel het paneel is 8-bit. Stel de GPU doet de correctie. De link tussen GPU en monitor is ook 8-bit (per kanaal), dan kan de GPU toch elk van de 256 waarden uitsturen?
Stel dat je in een meting (met een colorimeter of spectrofotometer) vaststelt dat de getoonde kleur voor kleurcode 127,0,0 (middel-rood) minder op middel-rood lijkt dan 128,0,0.

Softwarematige calibratie zal ervoor zorgen dat de monitor 128,0,0 (= de output-kleurcode) zal krijgen wanneer de gewenste kleur 127,0,0 is (= de input-kleurcode). Het kan dan zijn dat je 2 (of meer) input-kleurcodes hebt die dezelfde output-kleurcode 128,0,0 produceren. In dat geval heb je dus verlies aan kleurresolutie.

Met hardwarematige calibratie wordt de output van het scherm bij output-kleurcode 127,0,0 aangepast zodat het in lijn komt met de standaard. Input-kleurcode en output-kleurcode zijn dan gelijk en je hebt geen verlies aan kleurresolutie.
Via de gpu zou waarschijnlijk met hetzelfde resultaat moeten kunnen als met hardwarematige calibratie in het scherm zelf
Nee, zo is dat niet: het wijzigen van de geproduceerde kleur voor een gegeven (output-)kleurcode, vereist ondersteuning voor hardwarematige calibratie.
alles ziet er hetzelfde uit in alle programma's?
Het doel (van calibratie en profiling) is de kleuren weer te geven zoals ze bedoeld zijn.

Voor color-managed software (zoals bv. Photoshop), zal je gewoonlijk de volledige kleurenruimte (gamut) van je scherm willen benutten. Je "profileert" (niet hetzelfde als "calibreren"!) dan je scherm wat resulteert in een monitor-profile waarin exact beschreven staat welke kleur het scherm weergeeft bij welke input-kleurcode. De software mapt de kleurcodes uit de foto (waarvan de kleuren in een image-profile beschreven staan) naar de kleurcode uit de monitor-profile op basis van de beste match. Zo bekom je een zo accuraat en volledig mogelijke kleurweergave. Color-managed software zal steeds een zo accuraat mogelijke weergave produceren van kleuren, ongeacht de kleurruimte van de foto of die van de monitor.

Andere software gaat impliciet uit van een standaard kleurweergave voor iedere kleurcode (zoals "sRGB" voor het web). Je "calibreert" in zo'n geval je scherm zodanig in dat die de kleurcodes van die kleurenruimte zo accuraat mogelijk weergeeft (= zoals beschreven voor die kleurenruimte). Je krijgt dan een accurate weergave van een beeld wanneer de image-profile overeenkomt met de kleurenruimte waarmee je calibreerde. Open je een beeld met een andere image-profile (bv. AdobeRGB), dan zullen verkeerde kleuren getoond worden.

Idealiter was alle software color-managed. Jammer genoeg is dat niet het geval (ook Windows zelf is trouwens niet color-managed)...
Met hardwarematige calibratie wordt de output van het scherm bij output-kleurcode 127,0,0 aangepast zodat het in lijn komt met de standaard.
Hoe dan?
Gebeurd dat in het analoge of in het digitale domein?
Dat zou dan toch betekenen dat het paneel meer dan 256 kleuren / kleurcodes (per kanaal) zou kunnen weergeven?

[Reactie gewijzigd door Olaf van der Spek op 27 april 2020 16:24]

Dat zou dan toch betekenen dat het paneel meer dan 256 kleuren / kleurcodes (per kanaal) zou kunnen weergeven?
Zoiets.

De monitor kan een deel van het zichtbare kleurenspectrum weergeven. Dat deel noemen we de gamut van die monitor. Kleuren buiten die gamut kunnen door de monitor nooit weergegeven worden.

De kleurcodes zijn "discreet" wat betekent dat niet alle kleurtinten binnen de "continue" gamut weergegeven kunnen worden: een 8-bit monitor kan zo 16777216 individuele kleurpunten binnen die gamut weergeven.

Bij een monitor met ondersteuning voor hardwarematige calibratie, kan je de locatie van die punten binnen de gamut wijzigen.
Ondersteunt het scherm dat niet, dan kan je die punten niet van locatie wijzigen.
kan je de locatie van die punten binnen de gamut wijzigen.
Gebeurt dat in het analoge of in het digitale domein? ;)
En zou je niet hetzelfde bereiken met 10-bit in plaats van 8-bit aansturing (tussen computer en monitor)?

[Reactie gewijzigd door Olaf van der Spek op 27 april 2020 16:48]

Gebeurt dat in het analoge of in het digitale domein?
Ik ben niet zeker dat ik begrijp wat je bedoelt.

In werkelijkheid is de aansturing van de individuele (sub)pixel in de monitor digitaal. Het ondersteunt gewoonweg veel meer discrete kleuren dan het aantal wat aangestuurd kan worden vanaf de PC/GPU.

Anders gezegd, ondersteunen schermen met ondersteuning voor hardware-calibratie veel meer punten binnen de gamut dan het aantal dat aangestuurd kan worden vanaf de PC/GPU. Bij het calibreren kunnen andere punten toegewezen worden aan kleurcodes.
En zou je niet hetzelfde bereiken met 10-bit in plaats van 8-bit aansturing (tussen computer en monitor)?
Deels.

Bij het weergeven van 8-bit beelden op een 10-bit monitor zou je potentieel idd minder kleurresolutie verliezen. Je kleurresolutie zou in de praktijk dan niet hoger uitkomen dan 8-bit. Verder vereist dat ook een kwalitatieve monitor die behoorlijk accuraat die 10-bit kleuren kunnen weergeven; anders heb je aan die 10-bit aansturing niet veel.

Ik heb geen weet dat dat in de praktijk gedaan wordt. Doorgaans wordt 10-bit kleuren gebruikt om fijnere kleur-overgangen (= "meer gradaties") te kunnen weergeven om zodoende "banding" tegen te werken. "Banding" komt meer voor bij wide-gamut schermen (= schermen met een gamut groter dan sRGB), omdat de kleurpunten verder uit elkaar moeten staan op de grotere oppervlakte van gamut-grafiek.

Schermen met ondersteuning voor hardware-calibratie hebben intern meestal een stuk meer dan 10-bit kleuren (14-bit of meer), waardoor de calibratie accurater kan gebeuren. Die ondersteuning vereist een TFT paneel met veel fijnere aansturing van de individuele sub-pixels. Het vereist bovendien ook een betere backlight (RGB LEDs of GB-r LEDs i.p.v. witte LEDs) die de primaire kleuren (rood, groen en blauw) zuiverder kan weergeven. Zo'n schermen ondersteunen meestal ook andere technieken die het beeld verbeteren (zoals lokale helderheid correcties om tot een uniformer/egaler beeld te komen (op basis van een LED array backlight i.p.v. LEDs in de randen van de schermen). Dit alles verklaart waarom zo'n schermen zo veel duurder zijn (hogere ontwikkelkosten, hogere component-kosten, lagere afzet vanwege de hogere prijs, ...).

Er bestaan in ieder geval geen shortcuts: je kan de kleurgetrouwheid van high-end (gecalibreerde en geprofileerde) graphics monitoren niet evenaren met goedkope consumenten-monitoren.
IMHO is dat voor velen niet noodzakelijk. Een degelijke consumenten monitor (IPS-panel + 8-bit native + ~99% sRGB) samen met een colorimeter voor calibratie/profiling laten toe een behoorlijke kleurgetrouwheid te bereiken voor web-publishing doeleinden.
Ga je voor print-publishing, dan kies je IMHO idealiter voor een scherm met >=95% AdobeRGB + 10-bit native. Dat laatste (10-bit aansturing) vereist bovendien het gebruik van specialistische software (lees: Photoshop). In dat geval is het prijsverschil met een scherm met ondersteuning voor hardware-calibratie wellicht niet zo groot meer.

Merk ook op dat de meeste high-end grafische monitoren vaak niet uitblinken op andere punten (zoals resolutie of hoge refresh-rates): ze streven kleurgetrouwheid na zonder compromis...
Schermen met ondersteuning voor hardware-calibratie hebben intern meestal een stuk meer dan 10-bit kleuren (14-bit of meer), waardoor de calibratie accurater kan gebeuren. Die ondersteuning vereist een TFT paneel met veel fijnere aansturing van de individuele sub-pixels.
Dit was het ontbrekende stukje van de puzzel, bedankt!
De vraag is dan welk panel er in deze ProArt schermen zit en wat die precies qua aansturing ondersteund.

En waarom ie niet met 14-bit of meer aan te sturen is. :p

[Reactie gewijzigd door Olaf van der Spek op 28 april 2020 16:40]

De gebruikte panelen zijn van AU Optronics:

PA27UCX: een variant van M270QAN02

PA329C: M320QAN02.1
PA32UCX: M320QAN02.5
PA32UCG: M320QAN02.6

Het is overigens mogelijk dat er bij de UCX en UCG modellen gebruik wordt gemaakt van een custom backlight unit i.c.m. een los paneel in plaats van de volledige paneel assembly. Sommige panelen kunnen door beeldschermfabrikanten (of ODMs die de schermen voor hen maken, wat meestal het geval is) ook los gekocht worden namelijk, zonder backlight unit.
De vraag is dan welk panel er in deze ProArt schermen zit en wat die precies qua aansturing ondersteund.
Scherm ondersteunt in alle geval hardware-calibratie (de nodige software en de x-rite colorimeter worden meegeleverd). Precieze specs van de LUT (= de look-up tables waar de calibratie mee gebeurt in de monitor) kon ik niet meteen vinden.
En waarom ie niet met 14-bit of meer aan te sturen is.
Omdat er nagenoeg geen software, GPU's of interfaces (DisplayPort, HDMI, ...) beschikbaar zijn die meer dan 10-bit aansturing ondersteunen. Extra bits doorsturen vereist een hogere bandbreedte bij gelijke resolutie en refresh-rate. Meer dan 10-bit heeft momenteel weinig meerwaarde...
Via de gpu zou waarschijnlijk met hetzelfde resultaat moeten kunnen als met hardwarematige calibratie in het scherm zelf; alles ziet er hetzelfde uit in alle programma's? Alleen volgens mij bieden de gpu bakkers deze optie gewoon niet? Waarschijnlijk weet een gpu ook niet "alles" itt het scherm zelf?

Via windows is een ander verhaal, dan heb je een software profiel en moeten apps color managed zijn. Dit is in de praktijk dus niet altijd handig, merk ik zelf ook.
Hardware-matig kalibreren is altijd beter dan software-matig (dat zie je ook op drukpersen die software matig kunnen kalibreren, dan haal je er hardware matig nog altijd fouten uit achteraf). Dat is toch onze ervaring in de drukkerij bij ons.
Je kunt wel color managen met een ics profiel, maar elke software gaat er anders mee om; ik zit hier nu nog op een ouder scherm wat ik gecalibreerd heb vanaf een flinke afwijking; dezelfde files zien er flink anders uit afhankelijk van waar je ze in opent. Beswel irri eigenlijk.
Met een softwarematige kalibratie vertelt het ICC-profiel dat bij de kalibratie is gegenereerd aan de applicatie wat het kleurbereik van het scherm is, als dat een color managed applicatie is en de content een kleurprofiel heeft toegezewen kunnen de kleuren van de content worden gemapped naar de kleuren van het scherm.
Dus bij een "softwarematige kalibratie" genereer je softwarematig een ICC-profiel en verklein je vervolgens het bereik, om wat voor reden dan ook. Maar wat bedoel je nou eigenlijk met een "softwarematige kalibratie"? Hoe kun je nou iets in software kalibreren? Hoe kun je daar een ICC-profiel uit krijgen zoals je schrijft?
Softwarematige kalibratie wil zeggen een kalibratie waarmee je alleen een ICC-profiel genereerd voor de kleurcorrectie door middel van kalibratiesoftware + een kalibratiesensor, bijvoorbeeld X-Rite i1Profiler met een X-Rite i1Display Pro colorimeter. De kleurcorrecties worden dan uitgevoerd door de videokaart, dat gaat dan zowel om kleurbereiktransformaties als kleurcorrecties op basis van de kalibratie.

Met een hardwarematige kalibratie is de kalibratiesoftware meestal van de schermfabrikant, al zijn er ook kalibratieprogramma's zoals Portrait Displays Calman die er met verschillende hardwarematig kalibreerbare schermen overweg kunnen. Het scherm is dan niet alleen met bijvoorbeeld HDMI of DisplayPort verbonden via het scherm, maar ook USB.

De kalibratiesoftware genereert nog steeds een ICC-profiel, maar dat is alleen om aan color managed software zoals Adobe Lightroom en Photoshoop, aan te geven wat het ingestelde kleurbereik en gammacurve zijn. De correcties op basis van de kalibratieresultaten worden direct weggeschreven in de lookup table (LUT) van het scherm, inclusief de transformatie van het native kleurbereik van het scherm naar een kleurbereik waarnaar je gekalibreerd hebt.

Deze ASUS ProArt schermen hebben bijvoorbeeld een gigantisch kleurbereik, veel groter dan Adobe RGB. Mocht je nu toch Adobe RGB als working space willen gebruiken, dan zitten de kalibratiecorrecties en de transformatie van native kleurbereik naar Adobe RGB in de LUT van het scherm. Open je vervolgens een sRGB afbeelding in Photoshop dan weet Photoshop dat de afbeelding het sRGB kleurprofiel heeft en dat het scherm het Adobe RGB kleurprofiel heeft op basis van het gegenereerde ICC-profiel. De transformatie van sRGB naar Adobe RGB wordt dan door Photoshop afgehandeld, zoals normaal ook het geval is, alleen de videokaart doet dan vervolgens niets meer aan transformaties.
kan iemand een duidelijke uitleg geven waarom er zoveel verschillende kleurweergave-standaarden zijn?
Heel kort: vooruitgang in beeldscherm- en sensortechnologie. Vooral de compleet verschillende beeldschermtechnologiën maken veel verschil.

NTSC en Rec. 601 komen uit CRT tijdperk van TVs. sRGB en Adobe RGB ook, maar dan voor monitoren.

Rec. 709 is de standaard voor HD TV (720p / 1080p) en maakt gebruik van dezelfde kleurruimte als sRGB, maar wel andere gammacurve.

DCI-P3 was ontworpen voor bioscoopprojectoren. En Rec. 2020 is de standaard voor UHD TV.

Groot verschil tussen overgang van Rec. 601 naar Rec. 709 met die van Rec. 709 naar Rec. 2020 is dat het bij die laatste vooral ging om "better pixels" i.p.v. alleen maar "more pixels". Die standaard heeft gigantische verbeteringen m.b.t. frequentie, bitdiepte, kleurbereik, dynamisch bereik, HDR, gamma response, etc.
Zijn deze met resp. 83% en 89% dan al wide-colour gamut te noemen? M.a.w. hoe verhouden deze zich qua kleurbereik tot de gemiddelde professionele monitor voor kleurbewerking e.d.?

En is dat beter of slechter dan een gemiddelde UHD TV?
Wide gamut is hier een understatement, deze ASUS ProArt schermen zou je haast als widest gamut schermen kunnen omschrijven. Dit komt doordat deze ASUS ProArt gebruiken maken van Quantum Dots van Nanosys in plaats van fosfors in de backlight.

Ik heb ooit een artikel geschreven voor TFT Central over de weergave van reflectieve kleuren door beeldschermen waarbij dus subtractieve kleurmening van toepassing is in plaats van additieve zoals je met directe lichtbronnen hebt: The Pointer's Gamut - The coverage of real surface colors by RGB color spaces and wide gamut displays. Daarbij had ik ook gekeken naar de panelen met de destijds grootste kleurbereiken. Helemaal onderaan het artikel kan je de dekking van de belangrijkste kleurruimtes door elkaar en door deze panelen terugvinden in zowel de CIE 1931 xy als CIE 1976 u'v' chromaticiteitreferentieruimtes.


De standaard voor het opgeven van kleurbereik van panelen/schermen is de CIE 1931 xy referentieruimte. Als je dan de Mitsubishi LaserVue niet meeneemt (niet bepaald een standaardpaneel met z'n laser backlight) zie je dat er drie panelen zijn met 80-82% Rec. 2020 dekking en de rest zit in de 76-78% range. Dat waren echt de widest gamut panelen op dat moment, dus 83% is echt groot en pakt daar de kroon.

Kijk je naar DCI-P met z'n monochrome rode primair van 615 nm dan zaten alle panelen in de 91-95% range. Hier winnen deze ASUS ProArt schermen dus ook de kroon met 99% DCI-P3 dekking. Deze schermen hebben dus echt een gigantisch kleurbereik en op laser backlights (die monochromaire primairen kunnen realiseren) na is er op het moment geen technologie die een groter kleurbereik kan realiseren dan quantum dots.
Heel interessant artikel! Ik wist niet dat er toch wel een behoorlijk groot verschil is in kleuren tussen additieve en subtractieve/directe lichtbronnen. Aan de andere kant zit Pointers gamut wel in de regio waar dus weinig perceptieverschil is in kleuren (lange ellipsen).

Het grootste deel van de dag kijken we naar indirecte lichtbronnen, dus het Pointers gamut bevat dan ook het belangrijkste deel van de zichtbare kleurruimte. Ik vroeg me altijd al af waarom sRGB eigenlijk altijd wel volstaat voor de meeste doeleinden, terwijl dat maar een zeer klein deel is van de zichtbare kleurruimte.
Omtrent dit topic is best wat te vinden op het internet. Stel je vraag aan google en krijg je antwoord.
Heb ik dat mis of wordt HDR niet ondersteunt op een displayport 1.2 ?
Je ziet wel vaker dat het als DP 1.2 gelabeld wordt terwijl er functies in zitten uit hogere versies. Staat ook kort stukje over op de Wikipedia pagina van DisplayPort:
HDR extensions were defined in version 1.4 of the DisplayPort standard. Some displays support these HDR extensions, but may only implement HBR2 transmission mode if the extra bandwidth of HBR3 is unnecessary (for example, on 4K 60 Hz HDR displays). Since there is no definition of what constitutes a "DisplayPort 1.4" device, some manufacturers may choose to label these as "DP 1.2" devices despite their support for DP 1.4 HDR extensions. As a result, DisplayPort "version numbers" should not be used as an indicator of HDR support.
Deze monitoren worden waarschijnlijk duurder dan een lg c9 55". Ik vind de prijsverhouding tussen dit soort monitoren en een goede oled tv echt heel vreemd.
Compleet andere toepassing natuurlijk. Stel zo'n scherm gaat je €2500 kosten (ik noem maar wat), dan kijk je of je dat ook terugverdient in je werkzaamheden. Zo'n OLED TV echter, is gewoon een consumptieproduct
Dat verklaart waarom er toch een markt voor bestaat. Toch is er iets mis: Als het in een televisie van ~1000 euro mogelijk is om dit soort technologie te stoppen, dan zou de verwachting zijn dat in de monitormarkt iemand zijn kans ziet en dit soort technologie naar betaalbaardere monitoren gaat brengen. Als dat niet gebeurt, dan functioneert de markt niet goed.
Helaas werkt de realiteit heel anders. Het is niet de technologie wat de aankoop drijft, maar fulfillment van het use case. Voor consumenten is dat inderdaad heel recht toe recht aan. Voor professioneel gebruik wil je echter dat een monitor kleuren altijd accuraat en uniform weergeeft, zodat je klanten altijd dezelfde ervaring krijgen, om maar iets te noemen. Hoe dan ook, het gebruik van die monitor de komende 5(?) jaar bepaalt wat je ervoor over hebt. Die investering wordt op papier ook gewoon terugverdiend, want die kostprijs komt ergens in je uurloon terug. Het zijn je klanten die er uiteindelijk voor betalen en dan kan de prijs opeens flink omhoog. Vergis je niet, de kwaliteitseisen en -controle bij dit soort schermen drijven de kostprijs enorm op, dat is ook nog een factor. Maar er zit dan nog een heel dikke marge op, omdat de gebruikers gewoon geen goedkopere keuze hebben die hetzelfde biedt. Dan ga je toch ergens op inleveren. Kan heel goed dat je dan een andere keuze maakt, daarvoor moet je je investering en de meerwaarde die het in je marge biedt goed uitzoeken. Maar de tech is niet het koopargument hier, dat is echt de betere beeldkwaliteit voor een bepaalde toepassing. De tech is slechts het middel om dat te realiseren. Het zal de gebruiker niet interesseren of dat met micro-led, OLED of een kleitablet gebeurt, als het maar het juiste beeld geeft.
Je hebt het nu over de extra's als kelurcalibratie waar professionelen geïnteresseerd in zijn en consumenten niet. Ik heb het over de verbeterde techniek in het algemeen. Dus FALD/miniled in dit geval en OLED anderzijds. Uiteraard zijn ook consumenten in beeldkwaliteit geïnteresseerd.

Speelt ook zonder meer voor mij: Mijn LCD's dateren nog uit het eerste decennium van deze eeuw. Moderne LCD's zijn groter, maar geven geen beter beeld... dus blijven ze gewoon staan. Als fabrikanten mij naar de winkel willen krijgen, dan weten ze wat ze moeten doen. In een goed functionerende markt gebeurt dat ook.
Ik heb het meer over hoe de markt werkt. Je vroeg je af waarom professionele panelen zoveel kosten en ik leg uit hoe die prijs tot stand komt. Heeft niet zoveel met de techniek of productiemethode te maken, dat waren slechts enkele voorbeelden van wat er anders is. Fabrikanten zijn voor consumentenpanelen meer richting high refresh rate, ultrawide, hogere resolutie, curved, G-/FreeSync en zeker ook beeldkwaliteit gegaan. Natuurlijk ook HDR specificatie voor het commerciële aspect. Je vind tegenwoordig prima IPS-panelen, waar je tien jaar geleden voor dat geld enkel nog TN kon krijgen. Maar inderdaad, voor monitoren was de vooruitgang nogal iteratief. Echter om te zeggen dat er geen ontwikkeling is, klopt gewoonweg niet en beter beeld is dankzij de adaptive sync en betere panelen gewoon waargemaakt. Of het doorslaggevend is, is een ander verhaal. Maar als je kijkt hoeveel nieuwe features er geïntroduceerd zijn, zie je dat er concurrentie is en de markt zich gewoon ontwikkelt. Ik zit zelf ook nog op een tien jaar oud paneel en dat voldoet nog gewoon, maar als ik nu tot €300 neerleg krijg ik er toch echt iets beters voor terug. Het is echter geen upgrade die mij €300 waard is.
Ik heb IPS-schermen en ja ze zijn meer dan 10 jaar oud ;) Natuurlijk verlies je wat dingetjes, zoals dat ze 60Hz zijn, wat kleiner, maar ze staan uit eigen observatie in beeldkwaliteit nog hun mannetje in vergelijking met moderne monitoren.

Ik snap je commentaren over professionele monitoren volledig. In het beeldbuistijdperk had je al PVM broadcastmonitoren versus consumentenmonitoren. Maar in essentie gebruikten beiden dezelfde techniek, mogelijk zelfs dezelfde beeldbuis. Moraal van het verhaal is: Dat er professionele features zijn voor veel marge is logisch. Dat de techniek stilstaat en betere schermtechnieken niet doormigreren naar de consumentenmarkt, terwijl diezelfde technieken dat in de televisiemarkt wel doen, is niet logisch.
In een televisie zijn er compromissen en onzekerheden. Koop je een LCD, dan heb je onzekerheid welk paneel je krijgt. Soms is hetzelfde model TV zowel met IPS als met MVA geleverd. Daar sta je dan in je studio.
De kijkhoek is soms ook een probleem. Ja, het ziet er okee uit, maar gecalibreerd is het echt niet.
En bij OLED heb je weer te maken met de helderheid die terugvalt als er veel wit in het beeld zit en waarschijnlijk ook problemen met 'pixelslijtage' bij gebruik als monitor.
Maar ook bij een LCD TV - dezelfde tchniek maar dan met betere garanties kost gewoon meer geld.
Maar hoeveel consumenten tv’s kunnen een waarde van 1000cd voorleggen ?
Is dat belangrijk? Mijn Dell scherm staat thuis op de minimale helderheid, op het werk rond de 40%.
Ik neem aan dat jij dan niet de doelgroep bent voor dit scherm.
Nee ik heb al een scherm en Asus heeft niet echt een goede naam.
Een oled blijft toch wel gevoelig voor "inbranden". Voor desktop-gebruik zou ik nog niet overschakelen naar oled. Ook zijn de oled panelen vermoedelijk niet zo accuraat naar kleurreproductie als deze schermen waar je mee wilt vergelijken.
Ik ben bang dat een professionele gebruiker heel hard gaat huilen van een lg oled tv qua kleurechtheid. :)
Zelfde aantal pixels op minder ruimte is moeilijk
Er zijn al een tijdje mobiele telefoons met 4k LCD schermen. 10 jaar geleden had je allicht gelijk. Tegenwoordig lijkt me 4k op 27 inch niet meer moeilijk (wat betreft LCD).
Is het niet vaak het midden segment wat moeilijk is?

Heel klein (zoals telefoon of tablet) is te doen, heel groot ook (40" TVs en groter), maar juist de midden formaten zoals 13", 15" (laptops) of 20/21" (kleine desktops), 24" (normale desktops), blijken in de praktijk lastig.
Waarom zou het middensegment moeilijker zijn om te produceren? Er zijn genoeg betaalbare 15 inch laptops met 4k schermen. Het is juist zo dat hoe kleiner de pixel is, hoe lastiger het wordt om te produceren. Zeker als je zaken als local dimming/minileds wilt toevoegen of elke pixel zijn eigen lichtbron heeft (OLED).
Apple propt er 6016 x 3384 pixels (20,4 miljoen pixels) in 32 Inch. Kost een paar euro...
Dat doet Apple niet, die koopt de schermen ook gewoon in bij LG of Samsung.
Hier staat de pa27ucxk voor $2.999,-.
Dat zijn inderdaad monitoren die ik wel wil aanschaffen voor foto-editing. Jammer dat er geen prijs bij staat.
Mogelijk dat je de prijs ook jammer gaat vinden. Ik kijk ook met spanning naar wat de prijs gaat worden, hopelijk niet te belachelijk duur.
Ik werk al 5j op 5k tenzij je dit als 2de monitor gaat gebruiken is het a no-go om terug naar 4k te gaan.
Je verliest 50% pixel ruimte. De apple XDR is fantastisch maar kost je een rib :( Ik wou dat de 5k's van Dell terugkwamen met deze specs. Ik heb zelf 2 weken liggen zoeken naar een Dell/Philips/HP 5k monitor en ik heb er maar 1tje gevonden. Deze hangt nu aan m'n Threadripper naast mijn iMac. Dus perfect 1:1 dezelfde pixels tussen mac en windows. Ik werk ook voor TV dus die REC colormodes zijn zeker welkom.
Krijgt Samsung hier een koekje van eigen deeg?
OLED=/=QLED
MicroLED=/=MiniLED

Edit: Ik bedoelde met =/= 'is niet gelijk aan'

[Reactie gewijzigd door BlaDeKke op 26 april 2020 18:21]

Sowieso zou ik 576 dimzones nog in de categorie "FALD" rekenen, het woord "miniled" is dus nu al aan inflatie onderhevig. Ook van 1152 zones val ik nog niet stijl achterover, dat is eerder geleidelijke vooruitgang van techniek dan revolutie wat een nieuw naampje rechtvaardigt. Pas als het echt vele duizenden zones worden wordt het interessant.

Ze slopen met hun bedrogmarketing hun eigen geloofwaardigheid.
Wat je wel mee moet rekeken is dat dit op een veel kleiner oppervlakte dan een TV is, de hoeveelheid zones per cm2 is veel groter.

Met zoveel zones kan heel over het algemeen al lastig uit elkaar halen op een monitor.
Ik zou eerder zeggen dat, omdat je er met je neus bovenop zit, het juist meer opvalt dan op een TV. Maar goed, ieder zijn visie.
+1Anoniem: 951889
@dmantione26 april 2020 16:08
Dat zijn maar 34x34 backlight zones? Dat is niet eens weinig indrukwekkend, dat is gewoon ronduit slecht. Als je toch zo'n dikke bak maakt, pleur dan meteen de hele backlight laag vol met individueel adresseerbare witte smd ledjes.

Ik verwacht dat dit scherm veel last gaat hebben van het halo effect.
QLED is een LED backlit LCD met quantum dot filter.
MiniLED is de evolutie van QLED en werkt met zelfde principes

OLED is een organische LED matrix dat zijn eigen licht direct uitstraalt.
MicroLED is de evoluite van OLED en werkt met zelfde principes.

Als je dan toch alles op een hoop wil gooien met het argument dat het allemaal hetzelfde is had je toch echt het volgende moeten zeggen

OLED=/=MicroLED
QLED=/=MiniLED (<-- allebei zijn samsung technieken dus de asus scherm bevat een samsung paneel)

[Reactie gewijzigd door Caelestis op 26 april 2020 15:50]

+1Anoniem: 951889
@Caelestis26 april 2020 16:01
Da's leuk en aardig maar de marketing afdeling is duidelijk weer lekker evil bezig geweest. Mijn niet techie vrienden horen mij enthousiast over microled praten, zien later een miniled scherm en kopen hem denkende dat het dat kleine led gebeuren is waar hatagashira het over had. Vervolgens zijn ze natuurlijk not impressed want het is niet eens een evolutie te noemen, full array local dimming was al veel langer een ding.
Samsung weet heel goed dat miniLED, in zijn huidige vorm, niet kan tippen aan sommige aspecten van microLED maar dat is een bewuste keuze geweest net als met QLED.
OLED/MicroLED zijn nou eenmaal gevoelig voor degradatie vanwege het organisch aspect.
QLED/MiniLED is veel robuuster zonder kans op inbranden en heeft een veel langer levensduur.

Het is letterlijk het Plasma vs LCD oorlog versie 2. Uiteindelijk heeft het inferieur product gewonnen vanwege kosten en gemak.
Vergeet niet dat de quantum dot filter een behoorlijk hoogstaand stukje techniek is wat voor betere kleuren echtheid zorgt dan OLED of MicroLED. Vandaar ook dat ASUS hun pro lijn hiermee uitvoeren.
micro leds zijn niet organisch, dit zijn gewoon kleinere leds. Je kan dus ook niet zeggen dat microLED een evolutie van OLED is, ze werken alleen wel hetzelfde individuele led for iedere pixel.
Je heb gelijk MicroLED is per definitie niet organisch. Ik had het ook eigenlijk anders moeten verwoorden, maar we moeten nog wel zien hoe robuust MicroLED werkelijk is.
Waar het om gaat is het fundamentele verschil in aanpak.
Ga je voor directe licht of quantum dot filter?
Het zijn twee verschillende groepen met hun respectievelijke technieken en kunnen totaal niet met elkaar vergeleken worden.
Samsung maakt all gigantisch veel AMOLED's voor telefoons en tablets dus het is niet alsof ze niet het kunnen. Ze kiezen gewoon andere voor en nadelen.

We zullen zien wie de beste strategie heeft over 5 jaar.
Miniled een Samsung techniek? Bron?
Ik ben gewoon blij dat Samsung zijn marketing afdeling een koekje van eigen deeg krijgt. Meer niet.
60Hz is voldoende, zelfs voor casual gaming. De nadruk ligt hier echter helemaal niet op gaming maar op correcte weergave qua kleur en contrast. Als er ooit dergelijk scherm uitkomt dat OOK de eigenschappen van een goeie gamingmonitor heeft, spring ik er waarschijnlijk wel op (indien "betaalbaar"), tenzij ze het dan ook vormgeven als een transformer zoals maar al te vaak gebeurd.
Ik werk al een tijdje op een 144hz scherm en elke keer dat ik terug ga naar een 60hz scherm verbaasd me hoe laag die framerate eigenlijk is. Het is bizar hoe snel je aan 144 of hoger went. Je ziet het bij alles. Wanneer je je muis beweegt, drag en drop etc. Het is echt niet alleen een gaming dingetje.

Ik vind het persoonlijk dan ook best wel jammer dat deze schermen maar 60hz zijn. Ik ben al een tijdje aan het uitkijken naar een professionele monitor, maar 120hz of hoger is voor mij inmiddels echt wel een must geworden. Het is een beetje als wanneer je van SSD's weer terug gaat naar een PC die op HDD's draait dat je pas merkt hoe langzaam het eigenlijk was. Datzelfde heb je ook een beetje met hogere refresh rate schermen. Naar een 60hz scherm kijken voelt dan echt een beetje ouderwets aan ofzo.

[Reactie gewijzigd door ro8in op 26 april 2020 18:16]

Het is bizar hoe snel je aan 144 of hoger went. Je ziet het bij alles. Wanneer je je muis beweegt, drag en drop etc. Het is echt niet alleen een gaming dingetje.

Ik vind het persoonlijk dan ook best wel jammer dat deze schermen maar 60hz zijn. Ik ben al een tijdje aan het uitkijken naar een professionele monitor, maar 120hz of hoger is voor mij inmiddels echt wel een must geworden. Het is een beetje als wanneer je van SSD's weer terug gaat naar een PC die op HDD's draait dat je pas merkt hoe langzaam het eigenlijk was. Datzelfde heb je ook een beetje met hogere refresh rate schermen. Naar een 60hz scherm kijken voelt dan echt een beetje ouderwets aan ofzo.
Je slaat een spijker op de kop hier. Ik zit bijna nooit achter een scherm dat meer dan 60Hz doet. Ben dus niet beter gewend. Maar inderdaad, naast elkaar is het verschil dag en nacht
+1Anoniem: 1350842
@PhatFish28 april 2020 10:03
Maar niemand betwist ook dat er een verschil is toch, het gaat er meer om dat 60 hz gewoon prima is voor zo goed als alle toepassingen. Dan moet je als fabrikant ook een afweging maken om het scherm veel duurder te maken voor die 0,1% die 120 wil, of het als een breder product in de markt te zetten.
Want hoewel je het verschil ziet, is doen alsof 60hz slecht is ook heel overdreven. Een beetje net als mensen die zeggen dat alles onder 60fps onspeelbaar is qua games. Ja het is beter, maar het wordt niet onbruikbaar omdat het niet het beste van het beste is.
Komen wat mogelijke kandidaten... (als ze ooit komen)

32 inch, 120Hz+, 4K, HDR1000+, miniled

Acer Predator X32
ASUS ProArt PA32UCG
ASUS ROG Swift PG32UQX
Ben echt heel erg benieuwd wacht al een lange tijd hierop.

Vooral die asus proart pa32ucg ziet er uit naar waar ik naar op zoek ben. Helaas staat er alleen nog variable refresh rate bij en niet of het gsync gaat zijn. Maar ben heel erg benieuwd!

[Reactie gewijzigd door ro8in op 27 april 2020 15:48]

the mass production of the AU Optronics panel used for this screen is currently not due until Q2 2020, so don’t expect to see this display released until H2 2020
(https://www.tftcentral.co...d-backlight-and-hdr-1400/)
ASUS ProArt PA32UCG ... AMD FreeSync support with a 48-120Hz VRR
https://www.displayninja.com/new-monitors/

De PG32UQX komt met G-Sync Ultimate.

[Reactie gewijzigd door Miesepies op 28 april 2020 16:30]

+1Anoniem: 1350842
@Marctraider26 april 2020 16:11
Als jij 60 slides per seconde presenteert zou ik eens gaan kijken naar je slideshows.
Dit is natuurlijk onzin, 60hz is zo goed als de norm en voor de meeste toepassingen ook helemaal prima. Professioneel gebruik is hoogstwaarschijnlijk video, daar ga je niet zo heel snel hoger dan 60fps in normale producties. Foto's moet je ook wel vlug werken wil je er meer dan 60 per seconde bewerken.

Dat jij als elite uber gamer de frames kunt tellen zolang het onder de 240hz is zal vast, maar de meeste mensen hebben echt voldoende aan 60hz, niet alleen als je 'naar wallstreet nummers kijkt' zoals jij het bedrijfsleven voor je ziet.
Tsja, je kunt de professionele IT-er wel wegzetten als 'Ubergamer', maar ik zit ook al geruime tijd te wachten op een hoge kwaliteit 4k 32" monitor voor productiewerk. Je zit met het huidige aanbod gewoon altijd tegen de 60hz te hameren, terwijl je productie werkt (niet eens perse gaming) is >60hz+ helemaal niet zo'n overbodige luxe zoals jij het nu afschildert.
+1Anoniem: 1350842
@Scorp28 april 2020 10:00
Maar ik kan me echt niet voorstellen dat je als IT'er tegen de 60hz aan loopt. Welk deel van IT is zo bewegingsgevoelig dat je echt tegen 60hz aanloopt?
En ik reageerde ook meer in de trent dat het wordt afgeschilderd alsof 60 hz een verouderd iets is, terwijl het voor 99% nog te norm is.

Op dit item kan niet meer gereageerd worden.


Apple iPad Pro (2021) 11" Wi-Fi, 8GB ram Microsoft Xbox Series X LG CX Google Pixel 5a 5G Sony XH90 / XH92 Samsung Galaxy S21 5G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True