Oledtelevisies van LG krijgen het G-Sync Compatible-certificaat

LG gaat zijn oledtelevisies uit de C9- en E9-serie voorzien van het G-Sync Compatible-certificaat. LG gaat de ondersteuning toevoegen via een firmware-update. De update wordt in de komende weken 'in bepaalde landen' geleidelijk uitgerold.

Met compatibiliteit voor G-Sync ondersteunen de oled-tv's nu officieel variabele verversingssnelheden met de videokaarten van Nvidia. De 2019-modellen oled-tv's van LG ondersteunen al Adaptive Sync van VESA via hdmi 2.1. Adaptive Sync is vergelijkbaar met AMD's FreeSync-technologie. Deze technologie werkte al wel met de gpu's van Nvidia, maar gebruikers moesten Adaptive Sync handmatig aanzetten.

De huidige videokaarten van Nvidia ondersteunen enkel hdmi 2.0b. Gebruikers zullen dus maximaal 4k-beelden kunnen weergeven met een verversingssnelheid van 60Hz. 1440p- en full-hd-content kunnen wel worden weergeven met een verversingsfrequentie van 120Hz.

LG OLED65C97LA

De 65"-LG C9

G-Sync-compatibiliteit wordt toegevoegd aan de LG E9- en C9-oledschermen. De E9-televisies krijgen schermen van 65" en 55". De C9-serie is beschikbaar met schermen van 55, 65 en 77 inch. Deze televisies bieden verversingsfrequenties van 120Hz. LG belooft een inputlag van 6ms bij het weergeven van 1440p-content met 120Hz. In 4k-modus met 60Hz hebben de televisies volgens de fabrikant een lag van 13ms.

LG is niet de eerste fabrikant met een groot G-Sync-scherm. Tijdens de CES introduceerde Nvidia de Big Format Gaming Display-serie. Het gaat daarbij om schermen met een schermdiagonaal van 65" en hoge verversingsfrequenties. In juni kwam HP met zijn Omen X Emperium-scherm. Dat model heeft een 65"-scherm met een verversingssnelheid van 144Hz en kost 4299 euro. Later dit jaar volgen onder andere Asus en Acer met hun eigen 'BFGD'-schermen.

LG oled G-Sync

Door Daan van Monsjou

Nieuwsredacteur

10-09-2019 • 10:14

68

Reacties (68)

68
68
41
1
0
23
Wijzig sortering
Kunnen we stoppen met het 'Ondersteuning voor G-sync' te noemen?

De TV heeft adaptive sync, en heeft van NVIDIA het 'G-sync compatible' certificaat gekregen. Verder is er niets veranderd aan de mogelijkheden van de TV

[Reactie gewijzigd door WCA op 23 juli 2024 12:51]

De TV heeft adaptive sync, en heeft van NVIDIA het 'G-sync compatible' certificaat gekregen. Verder is er niets veranderd aan de mogelijkheden van de TV
De mogelijkheid is dat je nu ook Adaptive sync kan gebruiken met Nvidia kaarten en dat dit automatisch geactiveerd wordt omdat de TV bij toekomstige nieuwe drivers in de lijst met compatible monitors zal staan.

Veel niet gecertificeerde adaptive sync monitoren hebben een hoop problemen met G-Sync in de vorm van flickering of andere problemen.
Je kon het al gebruiken, en het was al probleemloos. Het enige verschil is dat deze TV nu in het lijstje komt te staan.
volgens mij gaat de inputlag ook fors omlaag, van ~15 naar door LG beloofde 6ms in Full en Quad HD. Dat is merkbare prestatie winst.
De ~6ms input lag is ook zonder g-sync prima haalbaar ;) In dat opzicht is er geen prestatie winst, het staat gewoon een beetje onduidelijk in dit artikel.

[Reactie gewijzigd door Caayn op 23 juli 2024 12:51]

Ah ik dacht in meerdere reviews gelezen te hebben dat de input lag 15 ms was. Maar wellicht is dit met nieuwere firmware al naar minder gegaan. Maar al met al helemaal geen gekke waardes zeker voor een TV!
De waardes varieren per resolutie en framerate combinatie, hier een lijstje met de huidige prestaties:

1080p @ 60 Hz 13.5 ms
1080p @ 60 Hz Outside Game Mode 100.8 ms
1440p @ 60 Hz 13.9 ms
4k @ 60 Hz 13.4 ms
4k @ 60 Hz + 10 bit HDR 13.4 ms
4k @ 60 Hz @ 4:4:4 13.3 ms
4k @ 60 Hz Outside Game Mode 50.6 ms
4k @ 60 Hz With Interpolation 96.7 ms
1080p @ 120 Hz 6.8 ms
1440p @ 120 Hz 6.6 ms

Bron: https://www.rtings.com/tv/reviews/lg/c9-oled#comparison_2486
yep 3x bijgewerkt na oorspronkelijke review ivm met firmware updates :)
En de optie automatisch geactiveerd wordt bij deze TVs.
Dat gaat vanzelf weg zodra de Adaptive Sync van VESA genoeg aanwezigheid heeft. Ik krijg de indruk dat dat best snel gaat, Nvidia mixed het immers al.
"best snel" hoellang heeft het tot nu geduurt voordat nvidia g-sync ging mengen?
Sneller dan de IPhone een USB-C poort krijgt :+
Anoniem: 703521 @CEx10 september 2019 13:34
Zelfs langzamer dan fatsoenlijke HDR :+ support op de pc
De 8 serie heeft dus ook soort gsync?
Volgens mij is variable refreshrate toegevoegd in de 2019 / 9-serie. De versies daarvoor hebben dit niet.
Betekend dit dat free-sync ook werkt? (Met name interessant met de komst van de next-gen game consoles en amd gpu’s op de pc markt)

[Reactie gewijzigd door johnkessels87 op 23 juli 2024 12:51]

Ja en neen:

De TV heeft AdativeSync/Freesync en dit werkt goed genoeg volgens NVidia voor het GSync label en om Adaptive Sync (of GSync of hoe je het ook noemt) in het Nvidia Control Panel automatisch te activeren...

Maar het is niet zoals de "pure" GSync monitors dat je een NVidia kaart nodig hebt om variable refresh rate te gebruiken.
Dus het is eigenlijk gewoon een Nvidia Tax? Kosten voor certificeren en gebruik van logo's op het product? Want Nvidia doet dit ook niet voor niks natuurlijk...
Nee dit is geen tax, de schermen in kwestie die het label compatibel krijgen hebben geen dure gsync module. Nvidia doet dit (met tegenzin) om ten gunste van zijn (potentiële) klanten een breder aanbod van monitoren te verschaffen. Dit zette Nvidia dus weer op gelijke/betere voet dan AMD, die dit met veel succes als eerste implementeerde. Kopers van Nvidia kaarten hoeven zich nu minder vaak te bedenken of zij wel voor Nvidia willen gaan i.p.v. AMD omdat de keuze vrijheid van monitoren voor gamers toch wel een doorslag gevende keuze kan zijn.
AuteurAverageNL Nieuwsredacteur @WCA10 september 2019 10:35
In het artikel zelf stond het wel goed aangegeven, maar de titel was inderdaad onduidelijk/onjuist. Ik heb het aangepast. Bedankt voor het melden!
Feit is alleen dat nvidia heel veel tests uitvoert om te kijken of het echt goed werkt. dus geen kleurafwijkingen, geen brightness verlies, geen flickering, geen donkere plekken of alle andere mogelijk effecten die je op veel freesync schermen ziet.
g-sync compatibele is dus een hoge standaard en is zelfs van meerwaarde als je geen nvidia gpu heb omdat je weet dat het gewoon een goed scherm is dat grondig getest is.

er zijn gewoon heel veel brakke freesync panelen op de markt en als een standaard is het dus waardeloos.
kunnen we beter stoppen met waardeloze features op een tv waar 80% van de mensheid uberhaubt iets van af weet ?, hoeveel mensen weten wat g-sync is ? hoeveel mensen hebben een pc die dit zelfs ken trekken , meeste mensen hebben gewoon een oplichtings pc van mediamarkt, die amper een video kaart heb, en wie gebruik er nou een pc op de tv, tegenwoordig alleen maar consoles en mobieltjes, dit is gewoon een geld klopper
Het is adaptive sync, praktisch gratis om te implementeren, en door een bepaalde doelgroep (waaronder ik) zeer gewenst.
Wat ik hier mooi vind is dat er eindelijk een hele belangrijke spec wordt aangegeven. Input lag! Normaal gesproken moet je diep in het internet graven bij top monitor reviewers om deze spec te vinden en wordt meestal enkel verwarring gezaaid met de gray to gray responstime die absoluut niet hetzelfde betekend.

Hopelijk dat meer fabrikanten input lag gaan opgeven voor hun schermen.
De inputlag bij de laatste generaties tv's en met name in game mode, zeker op full HD, zit vaak rond de 10-15ms.
(https://www.rtings.com/tv/tests/inputs/input-lag)
Bij goede game monitoren zit dit vaak tussen de 1 en 15ms.

De TV's hebben reeds heel wat bijgebeend, zeker als je weet dat de oudere modellen tot een paar jaar geleden zelfs geprijsd werden voor input lag onder de 40ms.

Ook response times zitten goed tegenwoordig met waarden van 1-4ms, eigenlijk net zoals de huidige standaard game monitoren.
(https://www.rtings.com/tv...on-blur-and-response-time).

Sidenote: Opvallend is wel dat net deze OLED modellen G-Sync gaan krijgen. OLED staat echt nog steeds bekend om burn-in issues te ervaren na lange tijd statische beelden.. Zeker bij gaming is dit een heel gevoelig iets (denk aan crosshairs, minimaps, actionbars, menu's, pauze schermen etc etc).
(https://www.rtings.com/tv/learn/real-life-oled-burn-in-test)

[Reactie gewijzigd door Waarez op 23 juli 2024 12:51]

Sidenote: Opvallend is wel dat net deze OLED modellen G-Sync gaan krijgen. OLED staat echt nog steeds bekend om burn-in issues te ervaren na lange tijd statische beelden.. Zeker bij gaming is dit een heel gevoelig iets (denk aan crosshairs, minimaps, actionbars, menu's, pauze schermen etc etc).
Anekdotisch: Ik game al sinds 2015 op OLED en heb nog geen last van burn-in gehad, ondanks dat het scherm vrijwel exclusief voor gaming is gebruikt waaronder enkele marathon sessies.

Normaal gesproken ben ik fan van rtings, maar bij hun burn-in test stel ik nog wel een aantal vragen. Volgens mij heeft Vincent Teoh ook al aangegeven dat hij het niet eens is met de burn-in test methode van rtings.

Edit: Video in kwestie van Vincent https://m.youtube.com/watch?v=SlP2kwNqXNA

[Reactie gewijzigd door Caayn op 23 juli 2024 12:51]

Interessant. Zoals al zoveel gezegd hangt dit ook heel veel af van de ingestelde brightness.
Hoe feller het paneel is ingesteld, hoe sneller en zwaarder de burn in. Mogelijk dat daar het verschil op zit met zijn resultaten tegenover die van rtings.com. Bijkomend heeft Vincent veel afgewisseld in content, iets wat de real life test van rtings net niet doet.

Als je in de avond zou gamen op redelijk low brightness (200 nits), zal er niet snel menig probleem opduiken. Daartegenoverstaand, in een zeer lichte omgeving kan dit wel wat worden.
Mijn plasma was daar ook zo gevoelig voor. Ik probeer hem al jaren 'stuk' te gamen, maar is nog niet gelukt.
Jouw partner kan er enkel maar tevreden mee zijn dat er niet in de portemonnee dient gekrabbeld te worden :-). Plasma zou er nog veel gevoeliger voor zijn dan OLED! Praise be.
Ook ik heb al jaren een plasma tv maar heb geen last van burn in. Voornamelijk kodi/Netflix e.d. Via een Windows pc-tje. RTL en NPO logo’s die inbranden heb ik dan weinig mee te maken.

Soms zie je het een paar minuten lang nadat ik langdurig zit te browsen bijv. Maar dat is na verloop van tijd ook wel weer weg, niks blijvends tot nog toe.
Nou, een beetje 'input lag xx ms' zet ook geen zoden aan de dijk, ik wil de button to pixel ms weten, pixel transitie tijd, g2g, etc.

Dit is een beetje zo als '1MS response tijd!' marketing term op een scherm met 15+ms signal processing delay wat totaal ongeschikt is voor beetje competitive gaming.

Nee, er komt meer bij kijken dan één getalletje. Alsnog foei voor de fabrikanten.

Laat ze de waarden zien op het niveau van wat tftcentral doet, dan pas is het acceptabel.

[Reactie gewijzigd door Marctraider op 23 juli 2024 12:51]

Laat dat logge EU apparaat daar eens zijn werk doen. En ons als consument beschermen tegen deze valse marketing trucs.
Latency is Latency.
1 ms zou moeten betekenen. Ik ram er een "x" signaal in en 1ms later is dit waarneembaar op het scherm (ipv in de 1e opamp voor de signaalverwerking + 10ms hier + 20 ms daar).

Als ze Gouda kaas uit Gouda willen hebben, wil ik m'n 1ms scherm op 1 ms hebben en geen scheet langer.
Inderdaad. de meeste 1ms schermen zitten gewoon tussen de 5.5 en 12 ms werkelijke latency en daar komt frametime , muis input en zo voorts allemaal nog bij.
en bij online gaming nog 2x je gemiddelde latency.

In werkelijkheid is rond de 30 a 35ms ongeveer zo laag als momenteel haalbaar is.

en voor iedereen die denkt dat dat niet veel is die moet maar even een logitech g933 kopen met een 50 ms audio delay.
Het geluid leek prima maar toen ik het naast mijn speakers hoorde merkte ik pas hoeveel 50ms is.

marketing is en blijft een misleidend zooitje wat voor een bedrijf je ook het ze laten altijd de beste getalletjes zien ook als die niet realistisch haalbaar zijn.

[Reactie gewijzigd door computerjunky op 23 juli 2024 12:51]

Geluid latency en optische latency verschilt nogal (in waarneming).
Bij geluid merk je dit minder goed dan bij beelden. Misschien logisch omdat waarneembare geluidsgolven (20 Hz - 20KHz) relatief traag zijn t.o.v. licht(golven) 430–770 THz.
Dat is volgens mij totaal niet relevant.

Ten eerste is de afstand tussen mijn oren en de headset een cm of 2 geen 60 cm.
Het geluid hoeft dus bijna geen afstand af te leggen. Daarnaast is deze latency het verschil tussen vaste speakers en wifi gestuurde audio.
En dus is die 50ms die ik aan geef alleen een indicatie van hoe merkbaar een verschil van 50ms is. Voor de rest is het geluid namelijk exact hetzelfde inclusief de vertraging naar mijn oor.
Een extra 50 ms vertraging naar mijn oog of oor geeft dus hetzelfde effect.
Met als resultaat dat het zeer merkbaar Is.
Als audiotechnicus kan ik je vertellen dat je een paar ms geluidvertraging niet merkt. Maar ik heb geen praktijkervaring met lichtmetingen etc. Wel heb ik een vermoeden dat het er wel degelijk toe doet dat licht vele malen sneller propageert in een medium dan geluid.

Als het je echter om het niet-synchroon lopen gaat, dan zou een extra latency van 50ms op je monitor het probleem theoretisch verhelpen.

[Reactie gewijzigd door crazylemon op 23 juli 2024 12:51]

50ms is geen paar en je merkt het zeer zeker...

En een extra latency van 50ms merk je ook gegarandeerd.
Mijn tv heeft namelijk een latency van 47ms en ook dat merk ik meteen.
Het heeft dan ook niets met wel of niet synchroon lopen te maken maar het merken dat het geluid achter bijvoorbeeld de muisklick aankomt ipv dat dit bijna gelijk is zoals je mag verwachten.
Als je een latency van 50 ms niet meer merkt zou ik ik me toch zorgen maken om mijn medische toestand want het is gewoon best veel.
50 ms is ook geen paar ms...vanaf ca. 5 ms maar bij de meeste mensen vanaf ca. 10 ms, begint men latency te ervaren/merken op hun oortje. Ze geven dan meestal aan dat het geluid "bol" staat.

Je hebt een analoge versterker nodig als je geen latency wil. Dus iets zonder DA converter en iets zonder draadloze verbinding.
En daarmee is meteen het einde van de BFG schermen aangekondigd. BFGs zijn gewoon veel te duur voor de kwaliteit die ze leveren.
Dat klopt, de C9 serie is prima als monitor te gebruiken. :)
Hoe blij ik ook met mijn OLED ben, ik heb er met stilstaande beelden nog steeds geen goed gevoel over als het om inbranden gaat. Dat is zeker geen non issue.

Mijn persoonlijke invulling en mening, dat dan weer wel.

[Reactie gewijzigd door Suomi76 op 23 juli 2024 12:51]

Een Oled paneel als monitor gebruiken zou ik ook niet snel doen, ondanks het feit dat mijn 2016 Oled wel gewoon gebruikt wordt met de PS4, maar volledig statische beelden zou ik niet gerust op zijn.
Gebruik mijn 2017 E7 OLED inmiddels al een krap jaar meerdere uren per dag en soms de hele dag als monitor. Ik heb wat basismaatregelen getroffen als de taakbalk verbergen maar heb nog geen inbranding, niet eens tijdelijk, gehad. Al een paar keer per ongeluk hetzelfde beeld uren achter elkaar aangehad en niets aan overgehouden.

Ik heb mijn helderheid niet al te hoog, en als de TV detecteert dat het beeld statisch is voor langere tijd gaat hij naar minimale helderheid. De 2018+ versies hebben volgens mij een ietwat verfijnde versie hiervan en kunnen selecties van het beeld in helderheid verminderen.
Eindelijk beginnen TV's ook goede schermen te woorden om op te gamen met een PC, zonder grote input lag, was hier al jaren naar het uitkijken.
Ik heb met BFG een heel andere associatie, en idem voor velen van mijn generatie, maar dat terzijde :P

https://g.co/kgs/56oUYV
Uiteraard volledig toevallig ook dat Nvidia deze afkorting gekozen heeft O-)
Vraag mij af of dit LG nog geld kost.
Eigenlijk is het helemaal niet nodig en zou nVidia Vesa Adaptive sync gewoon altijd kunnen ondersteunen.

Echter kiezen ze er voor toch eerst te willen vallideren voor het GSync compatible label. Zolang LG er niet per TV voor hoeft te betalen is het prima. Maar anders zou ik er als ik LG was mooi van af zien.
Is het niet dat de G-Sync compatible spec lagere frequenties ondersteund dan de Adaptive Sync spec? Dus een Adaptive Sync monitor die binnen de VESA spec blijft kan wel een variabele refresh weergeven met een NVidia kaart maar die ondersteund niet het volledige G-Sync frequentie spectrum dus krijgt dan geen GSync compatible certificaat. Dus zo'n certificaat is wel handig voor een consument die opzoek is naar een nieuwe monitor.

[Reactie gewijzigd door ashwin911 op 23 juli 2024 12:51]

Adaptive Sync kan ook laag. Alleen zijn er geen eisen opgelegd dus fabrikanten kunnen schermen maken met een range van bijvoorbeeld 60-75Hz en daar heb je weinig aan. Maar je hebt ook schermen die een grote range hebben. Maar je bent afhankelijk van de fabrikant wat ze er van maken. nVidia stelt met Gsync eisen aan wat een scherm moet kunnen. Maar daardoor zie je geen hele goedkope gsync schermen.
Het zou mij niet verbazen als dit een samenwerking is voor extra naamsbekendheid in een andere markt. G-Sync op TV's stelt niks voor en met de opkomst van VRR met HDMI2.1/Vesa's Adaptive Sync zal Nvidia snel iets moeten doen willen ze hun "premium" behouden.

LG kan een extra sticker op de doos plakken en Nvidia kan een nieuwe markt betreden.

[Reactie gewijzigd door Caayn op 22 juli 2024 20:27]

Leuke extra, nu alleen nog videokaarten met HDMI2.1
In het artikel:

“We are excited to bring G-SYNC Compatible support to LG’s 2019 OLED TVs and HDMI Variable Refresh Rate support to our GeForce RTX 20-Series GPUs,”

Ik vermoed dat dit dus op de huidige reeks kaarten gaat werken.
Gtx 1xxx kaarten en rtx kaarten.
De titel klopt simpelweg niet. Hij krijgt geen ondersteuning voor G-Sync, want daar heb je een hardwarematige module voor nodig die in deze televisie ontbreekt. Hij krijgt alleen het label G-Sync compatible, wat eigenlijk gewoon een door Nvidia geverifieerde implementatie van Adaptive Sync van VESA is.

Edit: Hij is inmiddels aangepast, stukken beter! :)

[Reactie gewijzigd door MiBe op 23 juli 2024 12:51]

Dit is wel gaaf, we gaan eindelijk toe naar een wereld waarin alle schermen en videokaarten dezelfde standaard voor variabele refresh rate ondersteunen, al geven ze het zo nu en dan een ander marketing naampje.

Sinds eind 2014 een GTX 970 bijzonder tevreden mee maar het begint na bijna 5 jaar wel wat minder goed mee te komen. Ik ga echter geen videokaart zonder HDMI 2.1 meer komen, was wel enigszins teleurgesteld dat Navi (de RX 5700) er niet over beschikt.

Hopelijk zitten op de 2020 kaarten in ieder geval HDMI 2.1 maar ook DisplayPort 2.0, met op z'n minst UHBR 10. Dat zou de effectieve data rate van DisplayPort verhogen van 25,92 naar 38,69 Gb/s, genoeg om 4K in 10-bit met 144Hz zonder chroma-subsampling of andere trucjes toe te passen.

[Reactie gewijzigd door Balance op 23 juli 2024 12:51]

En... input latency...? Dat is vaak zo lastig te vinden bij TV's
LG zou beter hun macroblocking probleem oplossen.
LG zou beter hun trouwe klanten die een OLED kochten blijven ondersteunen ipv dit fake feature !
ik heb een B6 OLED (begin 2017) en de B6 laatste firmware is echt bagger !!
(+je kan niet meer downgraden!)
Het OLED zwart op de B6 is nl. niet meer 100% zwart !!! + ook pixelation problemen.
en dat is nu net waarom je en OLED koopt : het perfecte zwart & contrast bij in het donker kijken.

voor mij nooit geen LG meer ...tenzij ze het toch fixen.
Ik,heb een B6 en ik heb geen probleem. Ik doe dan ook niet blind upgrades.
Dan vraagt de TV telkens je die aanzet om een update te doen.....ook irritant.
Ik heb een B7 dus ik vraag me meteen af: Wat bedoel je precies? Hoe kan zwart nu opeens niet meer zwart zijn? Dat betekent dus dat de pixels oplichten? Is er niet iets aan de hand met de hardware?

Dat moet ik natuurlijk niet hebben :|

Overigens mag ik wel zeggen dat ik meer dan tevreden ben over LG televisies.
B7 heeft dat probleem niet, enkel de B6 ....en enkel zichtbaar in pikkedonker (dan zie je de tv plots, vroeger niet ;-)
waarom wil je downloaden met je tv o.o, daar heb je een computer of tablet voor, hallo, het is een tv geen pc of hardcore g-sync gaming tv waat een ps4 op aangesloten is met hdmi , en geen ene apparaat die g-sync heb op de markt alleen een pc/laptop, mensen verwachten te veel van een tv, mensen weten neit dat het een monitor is met een tv tuner, het is niet net zo als vroeger hoor waar de naam tv nog een betekenis had

Op dit item kan niet meer gereageerd worden.