Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Nvidia past stilletjes hdr-eis aan voor G-Sync Ultimate

Nvidia blijkt de eisen voor monitoren om voor een G-Sync Ultimate-certificaat in aanmerking te komen te hebben verlaagd, zonder hier enige ruchtbaarheid aan te geven. Niet langer is een maximale schermhelderheid van 1000cd/m² vereist.

Waar Nvidia in zijn communicatie bij de aankondiging van G-Sync Ultimate in 2019 nog sprak van 'Best HDR 1000 nits', is die tekst bij de huidige site van dat label aangepast naar 'Lifelike HDR', constateerde PC Monitors. Niet alleen dat, tijdens de CES 2021 kondigden fabrikanten ook enkele monitoren aan die het G-Sync Ultimate-certificaat hadden ontvangen, maar die een lagere maximale schermhelderheid hadden.

Nvidia lichtte er zelf een aantal uit, zoals de MSI MEG MEG381CQR en LG 34GP950G, die beide een maximale schermhelderheid van 600cd/m² hebben. Op de lijst van monitoren met G-Sync Ultimate-certificaat staan meer modellen met een lagere helderheid, zoals de Dell Alienware AW2721D, eveneens een DisplayHDR 600-monitor.

G-Sync Ultimate is de naam die Nvidia introduceerde voor high-end monitoren met zijn hardwarematige G-Sync-module en hdr-ondersteuning. Beeldschermen zonder die module maar wel met ondersteuning voor Adaptive Sync van de VESA, beschouwt het bedrijf als 'G-Sync Compatible'. Monitoren die wel een G-Sync-module hebben maar minder high-end specificaties dan de Ultimate-modellen, mogen van Nvidia simpelweg een G-Sync-aanduiding dragen.

Links de tabel voor G-Sync Ultimate van voor november 2020, rechts van daarna

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Olaf van Miltenburg

Nieuwscoördinator

18-01-2021 • 18:20

45 Linkedin

Reacties (45)

Wijzig sortering
"Lifelike hdr"... de brightness van de zon buiten gaat zonder al te veel moeite over de 12k nits heen, dus deze marketing verandering is nog verder van de waarheid af gaan staan. Ik zou mijn ontsteltenis en teleurstelling laten blijken, ware het niet dat ze nog altijd zinniger zijn dan AMD. Gsync ultimate is dus een marketing gimmick, dat is toch wel vaak zo met woorden als Super, ultimate Max en Extreme".
Dat is precies de reden dat je nooit in de zon moet kijken. Een paneel dat tussen de 2000 en 3000 nits kan weergeven is levens echt genoeg voor HDR in daglicht. 5000 tot 7000 voor HDR in zonlicht
Maar dat is serieus veel licht. Naast dat het heel erg lastig is om dergelijke brightness te weergeven ga je dan ook last krijgen van overspraak, waar de helderheid van een bepaald gebied de donkerte ernaast beïnvloed.

De lichtbundels uit een backlight zitten veelal te dicht bij de kleurenfilters om ze perfect parallel te krijgen.

Een paar pixels van 7000nits aan hebben is overigens ziek veel licht. Daar kun je je hele huis mee verlichten. Dat is bijna 24.000 ansi lumen.

Om een dergelijke lichtsterkte te kunnen krijgen met iets als ledverlichting moet je het delen door 120 voor een ruwe schatting.

Met 24.000 dus een kleine 200 watt. Als je dat aan lampen hebt hangen heb je echt serieuze hoeveelheden licht. Ik heb hier denk ik de helft hangen en daar kan ik “day-like” verlichting mee creëren.
Volgens mij verwar je hier wat termen, een bepaalde hoeveel nits uit een paar pixels is niet echt iets zinnigs om te zeggen. Nits is een term die aanduid hoeveel candela een bepaald object per M2 kan uit sturen. Een 7000 nit scherm waarbij een paar pixels maximaal aanstaan stuurt dus zeker geen 7000 candela je kamer in. Waar het met deze schermen om gaat is dat ze bepaalde highlights extreem fel en daarmee levensecht kunnen weergeven, dat betekent echt niet dat je bij een 7000 nit scherm met normale HDR content opeens een zonnebril moet gaan dragen als.je een filmpje met wat daglicht scènes gaat kijken.
Oke dat is wel zo, nits is candela per vierkante meter.

Probleem is echter dat een scherm met een diagonaal van 55” (redelijk gangbaar toch?) al een oppervlakte heeft van 0,84 vierkant meter. Met 7000 candela per vierkante meter hebben we het dan dus over een totaal van 5810 candela. Right?

Normaal gesproken worden testen met 25% white coverage gedaan. Voor TV’s een redelijk gangbaar ding. Rekenen we dat om komen we wel op een schappelijker getal uit, maar nog steeds erg veel.
Maar dan ga je er weer vanuit full screen brightness of zelfs 25% of maximale brightness iets is wat gangbaar is in een gemiddeld Hdr signaal. Bij een 4000 nit gemasterde film gaat vaak om een paar highlights verspreid door de film die de 4000 nit halen en dan misschien 1 a 2 % van het scherm beslaan, wellicht nog een paar highlights rond de 1 a 2k nits en het grootste deel van het beeld rond 100-300 nit. Kijk maar eens wat Hdr film analyses van hdtvtest. 50%, 25% en 10% window test zijn meer benchmark tools om genormaliseerd te kunnen analyseren hoe agressief bepaalde schermen grotere heldere oppervlakken dimmen. Is een scherm bij een hoger average picture level nog steeds in staat om hoog te pieken op bepaalde elementen? Door is een window een goeie van scherm tot scherm vergelijkbare maatstaf maar niet perse representatief voor real world content.
Maar hoe gaat dat dan in een film die zich in de sneeuw afspeelt? Of een animatiefilm als Ice Age of Frozen waar wit ook de boventoon voert? Nu zijn die beide volgens mij niet HDR, maar stel dat je een scene in de sneeuw in HDR zou filmen, dan hebben we het over veel meer dan een highlight die ontzettend wit moet zijn voor het HDR-effect.
Anders dan bij een SDR signaal staat een puur wit HDR signaal niet gelijk aan maximale helderheid. De kleur van een pixel en de helderheid worden onafhankelijk van elkaar vastgelegd in een HDR film. In het voorbeeld wat je noemt zal de film dus waarschijnlijk aan het scherm doorgeven dat de sneeuw rond de 400 nit moet worden weergegeven. Nogmaals, kijk vooral eens wat HDR analyses van hdtvtest. Mad Max is een voorbeeld van een film met relatief veel scènes in een heldere woestijn met een relatief hoge gemiddelde helderheid. Je ziet dan goed uiteengezet welke elementen daadwerkelijk de maximale piek helderheid van 9000 nit halen in de film en dat zelfs in dergelijk super heldere scènes het grootste deel van het scherm bij lange na niet in de buurt komt van de maximale helderheid van 9000 nit. Waar het bij de waarheidsgetrouwheid van beeld weergave om gaat, en waar traditionele schermen op falen, is dat in de echte wereld allerlei objecten hele kleine highlights hebben die extreem helder zijn, het grootste deel van wat we om ons heen zien is echter niet zo extreem helder als die highlights. Wil je een beeld er dus 'echt' uit laten zien dan moet je dus zowel het gemiddeld heldere overgrote deel van het beeld accuraat kunnen reproduceren, alsook de paar hele kleine maar extreem felle highlights. Die highlights doen uiteindelijk veel.meer dan je denkt voor hoe 'echt' je het beeld ervaart.

[Reactie gewijzigd door africangunsling op 19 januari 2021 10:45]

met scènes die relatief veel zijn ? Er mist iets?
Klopt, dank, heb de post gewijzigd en nog wat verdere uitleg toegevoegd.
Daar moet je dan ook niet inkijken.
Je vergeet pro en gaming en ... en... ;p
Hoe lang kijk je per dag in de zon? Zou je dat graag willen? Een monitor die zo vel is dat je na 5 minuten staren zwarte vlekken op je ogen krijgt?
Heb zelf de AW2721D maar de HDR is nou niet echt 'lifelike' je hebt allemaal verticale zones dus je cursor laat nog steeds heel veel van je monitor branden ondanks dat het een klein ding is.

Verder wel echt een topscherm :)
Same here met de AW2521H, heb HDR(400) even uitgeprobeerd, maar het ziet er echt niet uit met die verticale zones.
HDR400 schijnt eigenlijk ook te laag te zijn en wordt over het algemeen afgeraden want ontoereikend voor een goede HDR-ervaring. HDR600 is wat je minimaal zou moeten hebben. HDR1000 is nog beter natuurlijk, maar ook weer veel duurder.
De aw2721D is ook HDR600
Dat had ik gezien. Wat jij trouwens beschreef over de cursor lijkt op wat deze YT-reviewer ook meemaakte toen hij games speelde met de HDR-modus in Windows ingeschakeld terwijl de games zelf geen HDR-support/HDR-content hadden: https://www.youtube.com/watch?v=lmWdKc6W4Q4

[Reactie gewijzigd door choogen op 18 januari 2021 19:44]

Mja, gebruik nu gewoon geen HDR, verder heb ik eigenlijk geen andere opmerkingen over die monitor
Valt mee, het voegt zeker iets toe over SDR, maar het is inderdaad niet de "full experience". Op mijn SW320 heb ik HDR400, maar dan zonder local dimming, en daar is het wel tof.
Eigenlijk vallen dat soort schermen onder de HDR'ent (aren't HDR, woordgrapje) hooguit leuk voor de kleurruimte misschien maar een HDR400 (of zelfs 600) geeft geen geweldige weergave, je moet ook het liefst heel veel dimming zones hebben of een OLED
Hoer Hier een c32hg70 van samsung, hdr stelt niets voor, hij heeft 8 zones voor local dimming en hdr ziet er flets uit, je ziet meer detail in donkere delen omdat ze lichter en uitgewassen zijn, niet omdat het contrast nou zo hoog is. Sdr geeft een veel mooier beeld.

[Reactie gewijzigd door HKS-Skyline op 18 januari 2021 19:14]

Hoer een c32hg70 van samsung
Juist, en daarna stuur je hem afgetopt retour naar Zuid-Korea.
Mijn LG GN850 heeft HDR 400 maar vind het ook niet echt wat.
Scherm heeft enorm goede SDR weergave.

Voor een HDR scherm heb je toch echt een full array local dimming feature nodig met veel zones.
En minstens 600 nits voor flashes enzo.
De apple XDR scherm kan bijvoorbeeld 1600 nits behalen.
ProArt scherm van Asus is ook heel erg mooi.

Maar een betaalbare gaming monitor met full local dimming en 1000nits onder 1000 euro kunnen we geloof ik nog jaren op wachten.
Denk dat de kans groter is dat je oled of microled als monitor onder de 1000 gaat vinden dan full local dimming.
De lg oled tv komen al erg dicht in de buurt daarvan.
ConceptD van Acer is de goedkoopste nu, 1609 euro
Ik vraag me af of er meer monitors wel zijn gecertificeerd maar toch niet voldoen aan de eisen. Ik heb bijvoorbeeld een Odyssey G7 maar pas na een tweetal updates was het beeld flicker-vrij met G-Sync aan. Niet echt de "No artifacts" waar ze mee adverteren...

[Reactie gewijzigd door badmeesterbart op 18 januari 2021 19:00]

Zou iemand hier écht naar 1000 willen kijken?

Ik vraag het me af omdat mijn huidige schermen tot 350 gaan en ik zit voornamelijk met de brightness op 0. Die gaat pas naar 100 als ik met de zon recht achter me zit te werken en dan zie ik alles prima.

Als ik het dan zo zie, is 1000 nits niet verblindend fel??
Het is niet de bedoeling dat je hele scherm zo fel is. 1000 nits is bedoeld voor highlights.
Dit geld dan ook voor mijn huidige schermen, toch? Of is dat dan weer wel voor het hele scherm? Oprechte vraag.
Jou huidige scherm zal waarschijnlijk een full screen brightness specificatie hebben (plus uniformity). Maar goed 1000 nits is vooral in een donkere ruimte vrij jammer. Maar de gemiddelde OLED TV haalt toch wel 700-800 nits en dat gaat eigenlijk prima op een TV afstand. Fel maar niet onoverkoombaar. Maar als het overdag is dan is die 1000 nits natuurlijk wel weer een stuk belangrijker, want nu heb je een achtergrond level wat al veel hoger is.
De meeste schermen hebben geen local dimming dus dan wordt het hele beeld fel. Met hdr zou je zones moeten hebben zodat alleen zones oplichten als ze iets fels laten zien. De rest van het beeld zou dan donkerder zijn.

Dit zeg ik zo even op basis van wat ik denk te weten zonder uitgebreid uit te zoeken. Dus verbeter mij als het verkeerd is.
Ik heb zelf een Acer X27 en die is HDR 1000.
Hij tikt het niet vaak aan, maar als hij dat doet voel je dat echt wel in je ogen. Een beetje alsof je te snel van een donkere kamer de zon in gaat. Maar vaak gaat het om high lights en dan werkt het meer als extra contrast. Games hebben wel soms de gewoonte om gewoon een fullscreen 1000nit flits te doen als effect en die zijn wel "intens" (Ik vind het wel tof :P )
Dan kunnen ze meer verdienen aan monitoren voor dat G-Sync nutteloze stickertje....
Het G-sync stikkertje betekent dat er een daadwerkelijke hardware G-sync scaler inzit, dus zo nutteloos is dat niet.
Daarmee weet je zeker dat G-sync fatsoenlijk werkt, en het zorgt er voor dat je variable overdrive hebt, wat beduidend beter beeld geeft dan g-sync compatible schermen.
Ik wacht nog steeds op een adapter die ik tussen mijn kabels kan hangen, zou de beste oplossing zijn.
Die snap ik niet helemaal, wat voor adapter?
“I wanted lifelike HDR and now I’m blind...” Voor lifelike HDR kan je het beste in de zon staren :+
Kunnen ze het niet beter gsync-je-scherm-is-duurder-door-deze-sticker noemen als ze de eisen steeds gaan verlagen?
Monitoren die wel een G-Sync-module hebben maar minder high-end specificaties als de Ultimate-modellen, mogen van Nvidia simpelweg een G-Sync-aanduiding dragen.
Minder dan

Op dit item kan niet meer gereageerd worden.


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 5 Sony XH90 / XH92 Samsung Galaxy S21 5G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True