Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

LG brengt Nvidia G-Sync-ondersteuning naar oled-tv's met firmware-update

LG start met de distributie van een firmware-update naar 2019-modellen van zijn oledtelevisies om Nvidia G-Sync-compatibiliteit toe te voegen. Als eerste komen klanten in Noord-Amerika aan de beurt, gevolgd door andere regio's, waaronder Europa.

De G-Sync-compatibiliteit komt naar LG's oledmodellen E9, C9 en B9 van 2019. Nog voor het einde van het jaar komt de firmware-update beschikbaar voor Europese klanten, belooft de Koreaanse fabrikant. Een precieze planning voor de uitrol geeft het bedrijf niet. Wel meldt LG dat bezitters van tv's die in aanmerking komen handmatig kunnen updaten, maar onduidelijk is in hoeverre ze dan eerder kunnen bijwerken dan via de automatische update.

LG kondigde begin september aan dat oledtelevisies van 2019 het G-Sync Compatible-certificaat zouden krijgen. Toen had het bedrijf het over de E9- en C9-modellen. Daar zijn de tv's in de B9-serie bijgekomen. LG belooft een inputlag van 6ms bij het weergeven van beelden in een 1440p-resolutie met een verversingssnelheid van 120Hz. Bij 4k-weergave met 60Hz zou de inputlag 13ms bedragen.

De betreffende televisies ondersteunen al Adaptive Sync van VESA via hdmi 2.1, dat net als G-Sync tearing en stotteren van gamebeelden bij gebruik in combinatie met een videokaart moet voorkomen. Omdat de huidige videokaarten van Nvidia hdmi 2.0b en geen hdmi 2.1 hebben, ligt de verversingssnelheid bij 4k-weergave op maximaal 60Hz en niet op 120Hz.

Door Olaf van Miltenburg

Nieuwscoördinator

01-11-2019 • 08:24

121 Linkedin Google+

Reacties (121)

Wijzig sortering
Voordat we hier in een hele Freesync / G-sync discussie komen, wil ik zeggen dat ik wel onder de indruk ben van LG mbt tot hun TV range welke opties ze er in stoppen. Als een van de eerste ondersteunen ze ook HDMI 2.1 waardoor je je TV op een zinvolle manier als Media HUB kan gebruiken omdat eARC ondersteund wordt. Daardoor kan ik van alle input devices DolbyATMOS naar mijn geluidsysteem doorzetten.
Natuurlijk krijg je met deze TV de OLED/LCD inbrand discussie (er zijn net zo veel meningen als mensen, dus ik heb echt geen idee of zo'n OLED unbehaupt en zo ja hoe snel inbrand) , maar qua input/output en technische features bezit deze TV alles wat je als echter nerd nodig hebt. Zeker nu LG ook deze feature via firmware update er in stopt. TOP.

[Reactie gewijzigd door jobvr op 1 november 2019 09:12]

LG is heel vaak het eerst met veel dingen, echter heb ik het gevoel dat andere fabrikanten afwachten totdat LG iets uitbrengt en dan kijken hoe consumenten het ontvangen.
Is het ook niet zo dat HDMI 2.1 hogere refresh kan tonen 60hz of is dat al met 2.0 ? Dit zou ook heel fijn zijn als de tv 120hz of meer is voor het gamen.
Ja, ik zit er ook naar te kijken. De B9 is ook net uitgekomen, die moet nog even in prijs dalen, maar in het verleden was de B versie altijd ongeveer 200,- goedkoper dan de C versie.
Die HDMI 2.1 is voornamelijk een software dingetje dat de maximale bandbreedte beperkt. Mijn Sony dolby ATMOS soundbar kreeg 4 maanden geleden een firmware update waardoor hij ineens eARC had. Op dit moment is de audio bandbreedte in hdmi 2.0 a/b gewoon een beperk deel van de totale bandbreedte. Als je die beperking eraf haalt heb je eARC. alle componenten moeten die hogere bitrate natuurlijk wel aankunnen.
Het zou dus goed kunnen dat een hoop videokaarten best eARC aankunnen alleen niet de data voor een 10K scherm. Maar goed. Deze TV is geen 10K, maar 4K. Mijn huidige videokaart (geen duur model) geeft gewoon netjes Dolby Atmos door. De videokaart hoeft ook geen eARC te hebben. Deze geeft gewoon het audiosignaal naar een systeem door. eARC is alleen voor een systeem dat audio ontvangt en het daarna weer naar een ander systeem moet doorgeven. Dus als jij een computer hebt die 4k+dolby atmos moet doorgeven naar een LG C9 TV en de TV moet het doorgeven aan een dolby ATMOS audio systeem, zit je nu al goed met elke HDMI 2.0 video kaart.
eARC =! HDMI 2.1. Dit staat los van elkaar, ook al staat eARC wel in de HDMI 2.1 specificatie. ARC/eARC gebruikt gewoon extra data lijntjes die in de HDMI connector aanwezig zijn. Dit moet inderdaad te patchen zijn via firmware.

HDMI 2.1 is op zich zelf alleen een verzameling van bepaalde technieken zoals VESA Adaptive Sync en eARC die nu al over HDMI 2.0b te doen zijn en dus via software te realiseren zijn. Maar je hebt ook de eerste upgrade voor de HDMI kabel in jaren, Cat 3, die dus voor de hogere bandbreedte zorgt.

[Reactie gewijzigd door 24hourpartypal op 1 november 2019 16:29]

HDMI 2.1 heeft een hogere bandbreedte waardoor je bijvoorbeeld 4K op 120hz en 4:4:4 kunt doorsturen. Oftewel, beeld zonder enige vorm van compressie. In het verleden moest er compressie worden toegepast om 4K 120 hz door te sturen. In films en games is dat niet zo erg. Maar als je bijvoorbeeld kleine tekst op een Windows desktop omgeving op bekijkt is het verschil duidelijk te zien. Maargoed, ik denk dat de doelgroep die daar iets aan heeft op het moment niet bijster groot is ;)
Is het ook niet zo dat HDMI 2.1 hogere refresh kan tonen 60hz of is dat al met 2.0 ? Dit zou ook heel fijn zijn als de tv 120hz of meer is voor het gamen.
Hmm, 120 Hz full hd gaat prima. Op 4K gaat dat ongetwijfeld niet, maar voorlopig zijn er ook niet echt videokaarten die dat kunnen aansturen. Niet zonder in te leveren op details.
OLED tv's kunnen inbranden, maar dan moet je er wel onzorgvuldig mee omgaan. We hebben er een paar in de winkel staan die continu dezelfde paar demo filmpjes afspelen en 's avonds gaat de stroom eraf waardoor ze niet de herkalibratie routine kunnen draaien voor het verversen van de pixels. Tussen de 6-12 maanden zijn er een aantal licht ingebrand.

Ik verwacht echter niet dat de gemiddelde gebruiker hier last van zal hebben, tenzij je het continu op statisch beeld laat staan.
Ben benieuwd of de Xbox One X vanaf dat moment ook variabele framerate naar de TV kan sturen. Ik was al heel content met het feit dat de Instant Gaming Response werkte op de C9, maar dit zou echt het kersje op de taart zijn. Gezien de Xbox One X toch de 60 frames met moeite haalt in 4k beelden, zal de max 60hz van de tv ook niet echt een beperking zijn.
Volgens mij werkt VRR op de Xbox al een tijdje prima i.c.m. de C9 serie.
bij mij blijft die op dit moment grijs.. maar dat kan ook door de versterker komen idd.
Inbranden valt reuzemee. Draai hier al ruim 2 jaar met een C7.

En best practice is over het algemeen om je input devices aan je receiver te hangen. Tenzij je geen 4k / hdr capabele receiver hebt natuurlijk.
Ja, klopt, maar mijn soundbar heeft maar 2 hdmi inputs, en dat loopt een beetje knijp, met de ziggo box, htpc, xbox
Even nieuwsgierig: waarom is dat best practice?
Ik zou verwachten dat je zo min mogelijk signaalverlies tussen TV en input wil hebben, dus dat je zoveel mogelijk rechtstreeks aansluit op de TV en dan het geluid met (e)ARC naar je versterker stuurt? Of maak ik hier een denkfout?
Dat geldt enkel voor wanneer je receiver/versterker geen uhd/hdr kan doorgeven, want dan laat je dat de tv doen door je bronnen daar op aan te sluiten.

Receivers zijn echter speciaal bedoeld om tussen bronnen te switchen; geluid zonodig per bron aan te passen; audio te up-/downmixen over het aantal aangesloten speakers; dmv lip sync de audio en video gelijk te laten lopen en eventueel bronnen zelfs tegelijkertijd over verschillende afspeelapparaten (tv, beamer, zone 2, luidsprekers, multiroom audio) af te spelen. Daarnaast kon aan hdmi 2.1 + eARC geen enkele tv HD audio doorgeven aan de receiver, aangezien optical en hdmi 2.0b en eerder allen beperkt waren tot non-HD audio varianten van Dolby en DTS. Geen TrueHD, Atmos, DTS hdma of DTS X dus. Stond een van deze termen toch op de tv, dan gaf dat enkel aan dat de tv een aangesloten bron met zo'n audiosignaal kon weergeven als normale Dolby of DTS. Doorsturen naar een soundbar of receiver kan niet. Tv's met ingebouwde atmos-soundbar kunnen dat geluid emuleren, maar niet echt laten horen. Pas met hdmi 2.1 met eARC kan de tv het wel doorgeven aan een receiver.

Dit terwijl receivers wel capabel zijn om dit te laten horen op de speakers, ook al is er geen hdmi 2.1. Daarnaast is het aantal apparaten met hdmi 2. 1 in de pricewatch zeer klein. Toprange oled tv's van LG en Panasonic en topreceivers van Denon. Verder niks.

Het signaal dat een tv doorgeeft aan de receiver of de receiver aan de tv is via hdmi en via optisch gewoon 1-op-1. Zolang de codec/container/filter ondersteund wordt, is er geen enkel verlies. Dat geldt voor ieder digitaal signaal, dus zowel audio als video.

Eventueel stel je in dat de receiver niet de upscaling doet, maar de tv.

[Reactie gewijzigd door Jorgen op 2 november 2019 21:30]

Panasonic OLED's hebben nog geen HDMI 2.1, enkel LG heeft dat tot op heden
De Panasonic 55GZW954 heeft géén HDMI 2.1, enkel de functie allm.
De specs op Tweakers zijn incorrect.
Ehm, in dat artikel staat in het overzicht (eerste tabelletje) ook dat de Pana geen HDMI 2.1 heeft?
De Panasonic heeft enkel ALLM, één functie van HDMI 2.1, maar that's it. Heeft bijvoorbeeld ook geen eARC.
;)
Ging mij erom dat er volgens die tabel meer tv's zijn met hdmi 2.1.

[Reactie gewijzigd door Jorgen op 3 november 2019 19:23]

Een paar ja, maar geen OLEDs. Enkel een paar Samsung QLEDs en één Sony 8K tv.
HDMI 2.1 heeft 48Gbps, dus weet niet welke lagere bandbreedte je bedoelt, 18Gbps is HDMI 2.0.
Sorry, verkeerd gelezen.
Ik gebruik al twee jaar vrij intensief een LG OLED C8 2017 met een PC en soms PS4. Het enige waar ik met betrekking tot inbranden rekening mee hou is het automatisch verbergen van het de taakbalk. Ik heb tot nu toe niks van inbranden oid kunnen bespeuren.

[Reactie gewijzigd door dezwarteziel op 1 november 2019 16:53]

Klopt, ik vergis me, het is een C7
Idd ik wil de c9 heel graag kopen om m als tv/monitor in te zetten, helaas zijn er nog geen videokaarten met HDMI 2.1 ;/
Dit soort initiatieven moeten het mogelijk maken zonder dat je een nieuwe videokaart hoeft te kopen: https://www.anandtech.com...t-14-to-hdmi-21-converter

Hopelijk komen er snel overloopjes beschikbaar.

[Reactie gewijzigd door Flupkees op 1 november 2019 10:08]

Mjah thnx voor de link maar dat had ik al gelezen, als je het hele artikel leest zie je op t eind dat niet helemaal 1 op 1 werkt dus dat wordt gewoon wachten op nieuwe videokaarten hopelijk met de volgende generatie dat er 2.1 op komt, maar heb er niks over gehoord dus is vrees een beetje het ergste. ...
4k/120 moet wel gewoon lukken en zonder chroma subsampling of andere ongein aangezien DSC 1.2 wordt gebruikt
DSC, wat compressie met zich meebrengt. Dan dus echt liever echte hdmi 2.1.

In jouw geval kan je dan net zo goed chroma sub sampling gebruiken en een video niet perse in 4:4:4 maar bijv. in 4:2:2 zien.

Daarnaast werkt dit verloopje alleen voor beeld en kan je het niet voor HD audio middels eARC gebruiken.

Het is dan alleen nuttig om via hdmi of displayport een signaal van je videokaart naar de tv te brengen. Voor andere apparaten is het nut qua audio en video zeer beperkt, lijkt me.

[Reactie gewijzigd door Jorgen op 2 november 2019 21:39]

Ik vraag me af of Adaptive Sync via deze kabel werkt, aangezien het een actieve kabel is..
Binnenkort zou een displayport 1.4 naar HDMI 2.1 verloop beschikbaar zijn.
Kwam pas voorbij op hwi
Dat zou al een mooie oplossing kunnen zijn.
Nu alleen nog videokaarten met HDMI 2.1 en zo'n TV wordt een serieus alternatief voor een monitor.. :P

Voor bijna de helft van de prijs van een Asus PG35VG koop je een 55" LG C9..
videokaart met HDMI 2.1 is nergens voor nodig. HDMI 2.0 kan elk audio format als output geven. Ik neem niet aan dat je videokaart eARC hoeft te doen. deze hoeft aleen maar audio te verzenden.

eARC is alleen voor een systeem dat audio ontvangt en het daarna weer naar een ander systeem moet doorgeven. Dus als jij een computer hebt die 4k+dolby atmos moet doorgeven naar een LG C9 TV en de TV moet het doorgeven aan een dolby ATMOS audio systeem, zit je nu al goed met elke HDMI 2.0 video kaart.

Alleen je TV die het doorgeeft naar het audio systeem en het audio systeem dat het ontvangt moeten HDMI 2.1 hebben, of in ieder geval eARC ondersteunen.

[Reactie gewijzigd door jobvr op 1 november 2019 09:46]

Ik denk dat het hem niet om de audio maar de video (en FPS) gaat:
De betreffende televisies ondersteunen al Adaptive Sync van VESA via hdmi 2.1, dat net als G-Sync tearing en stotteren van gamebeelden bij gebruik in combinatie met een videokaart moet voorkomen. Omdat de huidige videokaarten van Nvidia hdmi 2.0b en geen hdmi 2.1 hebben, ligt de verversingssnelheid bij 4k-weergave op maximaal 60Hz en niet op 120Hz.
Je ogen werken niet met FPS, maar als je het om zou rekenen is het zeker hoger dan 25 ;) Zie ook:
https://www.quora.com/Wha...p-noticing-the-difference
The nerves in your eye are not exempt from this limit. Your eyes can physiologically transmit data that quickly and your eyes/brain working together can interpret up to 1000 frames per second.
Daarnaast zijn er monitoren met 4K en 120Hz en die werken prima, maar dat is omdat de meeste monitoren gewoon met DisplayPort 1.4 komen. Televisies zijn helaas bijna altijd alleen maar voorzien van HDMI en als je dan 120Hz 4K wil wordt het lastig.
Ah, ik ben meer van de audio, dus ik had met nog niet zo verdiept in displaypoort specs, maar ik zie idd dat DP 1.4 4k op 120hz kan doen. Dan wordt die 120hz ineens intressant. Ik vraag me nogsteeds af of je dit verschil gaat merken, maar goed, ik ben geen gamer, dus dit is ook zeker niet voor mij bedoelt ;-)
Ampere wordt echt insane. Dit staat er in de wachtrij om toegevoegd te worden:
  • 46% meer transistors per mm2 dankzij 7nm
  • HDMI 2.1
  • DisplayPort 2.0
  • AV1 ondersteuning in hardware
  • Verbeterde RT-cores
Hier wacht ik ook op. Ampère maakt vloeiend 4k gamen mogelijk. Ook de aansluitingen zullen weer helemaal bij de tijd zijn.

7nm drukt het stroomverbruik.
Nu denk ik niet dat ze echt zoveel meer prestatie gaan geven. Ze hebben niets te vrezen van amd op gpu gebied en al helemaal niet van intel. Dus 20 a 30% prestatie en de rest houden ze lekker achter de hand voor een volgende release of mogelijke reactie op amd.
Waarom al je kaarten op tafel leggen en geen reactie meer over hebben.
Voor bijna de helft van de prijs van een Asus PG35VG koop je een 55" LG C9..
CoolBlue
- Asus PG35VG 120hz 1.199,-
- LG OLED55C9PLA 1.899,-

Ik denk dat je eerder omgekeerd bedoelt?

Ik koop liever een monitor, 55'' lijkt mij veels en veels te groot.
Uiteraard, mensen die graag op de bank gamen en/of voorkeur bieden voor een controller is dit natuurlijk wel ideaal. Htpc bouwen met een dikke kaart erin, deze in tv meubel plaatsen... Of een Nvidia shield TV en gewoon streamen vanaf je pc.
De 55C9 zit met cashback nu rond de €1.200, dus net zo veel als de Asus monitor.

Het is wel erg groot natuurlijk, maar vanaf de bank met controller verdomd mooi!
Waar als ik vragen mag? De goedkoopste die ik kan vinden is 1.319,- bij TVreus. Goed het komt aardig in de buurt... Ken alleen verder die partij niet.

Ah, oke zie reactie hieronder van @westergas

[Reactie gewijzigd door Xm0ur3r op 1 november 2019 11:37]

€1899 hoef je niet meer te betalen voor een 55" C9. Uit mijn hoofd ben je voor €1100 €1175 klaar (na cashback) Zie [Zero Tolerance][Prijs-discussie] OLED Televisies - deel 2

[Reactie gewijzigd door westergas op 1 november 2019 11:19]

Dat is de PG349Q, het "oude" model zonder HDR en FALD etc.
Ik heb het over deze: pricewatch: Asus ROG Swift PG35VQ Zwart
Hier wacht ik dus ook op, een voordeel de tv's worden goedkoper..
Zeker straks met de 48”-modellen. Perfect contrast, kleuren, i/o, refresh rate (en afmeting?)
Andersom. G-sync compatible = freesync. Alleen met een Nvidia keuring eroverheen. Snelle check in Pricewatch geeft van Asus totaal 52 schermen met Freesync ondersteuning, en 13 met G-Sync (waarbij ik G-sync compatible expliciet niet meetel). Als ik naar premium segment kijk, €600+, dan hebben ze 9 Freesync en 9 G-sync schermen. Oftewel lijkt wel mee te vallen met dat alle gaming monitoren van Asus geen Freesync hebben en wel G-sync.

Overall noemen sommige mensen het een vies spelletje van Nvidia, dat ze overal Freesync eraf krijgen en vervangen door G-sync compatible. Persoonlijk vind ik het niet vreemd gezien AMD gewoon een enorm gat heeft laten liggen in hun marketing: teveel Freesync monitoren zijn bagger, met een nutteloze Freesync range*. Als AMD slim was geweest hadden ze zelf al lang een programma voor iets als "Freesync compatible", oftewel Freesync support, en "Freesync premium", waarbij er bijvoorbeeld minstens een factor 2.5 zit tussen maximale en minimale Freesync range. Maar dat hadden ze niet, en dus is Nvidia in dat gat gesprongen door monitoren met fatsoenlijke Freesync range te labellen als Gsync compatible.

* Daarmee bedoel ik zulk soort schermen: pricewatch: Dell UltraThin S2719DC Zilver, 48Hz tot 60Hz Freesync range, lekker zinvol.
Of een Asus MG279Q, 144Hz, Freesync werkt tot 90Hz... Ja daarvoor koop je een 144Hz scherm. Nu in de praktijk kan je met wat creativiteit met drivers hem wel werkende krijgen tot 144Hz, dus dat doen een hoop, maar het laat gewoon het probleem zien aan het gebrek aan Freesync certificatie. En dan krijg je onderstaande uitspraken uit een review van deze monitor:
Naturally, FreeSync implementation isn’t as seamless as G-Sync implementation is
En dat heeft AMD aan zichzelf te danken.

[Reactie gewijzigd door Sissors op 1 november 2019 08:57]

ere wie ere toekomt #thxAMD
AMD is inderdaad veel te laks omgesprongen met de certificering (als je daar al van mag spreken).

Ze hadden een minimum refresh rate moeten stellen. Dat hebben ze niet gedaan, en daardoor zijn veel indrukken van de technologie gebaseerd op ervaringen met slechte implementaties.
Heldere uitleg, bedankt! Heeft 'true' g-sync tegenwoordig dan nog meerwaarde ten opzichte van 'g-sync compatible'? Kan het dingen die 'compatible' niet kan?
Ik geloof een paar dingen ja: https://www.nvidia.com/co...itor-stack-comparison.png

Zoals bijvoorbeeld overdrive afhankelijk hebben van de refresh rate (dat zorgt ervoor dat pixels sneller kunnen switchen van waarde, maar wel met het risico dat ze te ver doorschieten tijdens het schakelen). Ik weet niet of Freesync / G-sync compatible schermen dit niet kunnen, of dat ze gewoon het meestal niet implementeren.

Persoonlijk zou ik onder de streep het eerder houden op G-sync compatible, zodat je niet vast zit aan Nvidia kaarten. Maar als je echt bij het geld is geen bezwaar gedeelte bent aangekomen denk ik dat je nog steeds iets beter af bent met G-sync (ultimate).
48Hz tot 60Hz Freesync range, lekker zinvol
Ik snap wat je bedoelt, toch ben ik het niet helemaal met je eens. In mijn ervaring is de stap van geen variable refresh rate naar een dergelijke beperkte Freesync-range groter dan van een ondergrens van 48 naar 30 Hz. Tuurlijk, als je in die situatie onder de 48 fps komt irriteert het nog even erg, maar een aanzienlijk deel wordt al wel gladgestreken. Echter is er imho anno 2019 geen excuus meer om een monitor met een beperkte range op de markt te brengen.
AMD heeft dat programma toch in fe vorm van Freesync 2.0.
Laat niet weg dat ze dom zijn deze onzin van. Nvidia toe te laten.
Freesync (VESA - Adaptive Sync) is onderdeel van de standaard, dus nee, Freesync is zeker niet dood.

Voor zover ik begrijp: Freesync = "G-Sync Compatible" en zeker niet gelijk aan de g-Sync waar je een hardware-uitbreiding op je monitor voor nodig hebt (Zoals enkele dure monitors).
https://www.rockpapershot...le-what-you-need-to-know/

[Reactie gewijzigd door misterbennie op 1 november 2019 08:52]

Naamgeving is misleidend. Het gaat om “G-sync compatible” want er wordt gewoon freesync gebruikt.
niks misleidends aan. Er staat "G-Sync-ondersteuning" lijkt mij vrij vertaald "g-sync compatible”
In het artikel ja. Op de persfoto’s en renders staat gewoon “nVidia G-Sync”. En ik bedoel eerder verwarrend dan misleidend.
free sync = 75% vd schermen, gsync = 25% als t niet minder geworden is..
Maw AMD-Freesync met nVidia Gsync compatibiliteit uitbreiding.
Dat is de vraag, ondersteunen deze ook 'freesync' als je er een AMD kaart aan hangt of echt alleen met Nvidia? Bij de eerdere aankondiging voor deze ondersteuning leek het erop dat het (helaas) alleen voor Nvidia kaarten gaat werken.
Adaptive Sync van VESA = AMD-Freesync
Hoewel dat klopt, staat er nergens expliciet (vanuit LG) dat het Adaptive Sync gebruikt. De TV's ondersteunde namelijk al "VRR" via HDMI 2.1. Dus wellicht dat dit een samenwerking tussen Nvidia en LG is geweest waarbij ze VRR via HDMI 2.0b gaan gebruiken en dit hebben toegevoegd aan de "G-sync compatible" branding. VRR staat namelijk voorzover ik weet nog NIET gelijk aan freesync, alsin VRR ondersteuning betekend Freesync ondersteuning.

Ook dit van het persbericht van LG: "The addition of G-SYNC Compatible support allows gamers with GeForce RTX 20-Series or GTX 16-Series GPUs" vind ik verwarrend in dit geval.

Ik weet dat het hele "G-sync compatible" het "Freesync (2/HDR)" om zeep heeft geholpen maar het zou bijvoorbeeld fabrikanten sieren als ze wel gewoon zeggen welke techniek nu wordt geimplementeerd. Zo van "2019 LG Oleds will become 'G-sync compatible' by implementing VESA Adaptive Sync support". Maar ik vermoed dat een grote zak met geld van Nvidia's marketing afdeling daar een stokje voor steekt. In dat geval zou ik het fijn vinden als tech journalisten van b.v. Tweakers (of FlatpanelsHD, of polygon, of etc...) het zouden uitzoeken bij de fabrikant en het als dus rapporteren in het artikel. In plaats van simpel en alleen de marketing blaat over te nemen.

Totdat ik dus hoor of zie van iemand met een AMD Navi/Vega/Polaris aan z'n LG B9/C9/E9 dat hij nu freesync heeft blijf ik afwachten. Ik hoop het namelijk wel, want onze Samsung Q9FN (2018) welke specifiek gekocht is wegens als enige TV freesync te ondersteunen begint steeds meer kuren te vertonen. Zou hem dan ook graag laten omruilen (pixel garantie) en te koop aan bieden zodat we zelf op een OLED met freesync verder kunnen.
Freesync = Vesa adaptive sync dus dat zou idd gwn moeten werken. Verder heb je wel volledig gelijk. Men mag dat gegeven best aangeven op een techsite.
Nee, dit werkt voor beide. Ook AMD kaart gebruikers kunnen uit deze certificering een voordeel halen omdat het laat zien dat de Freesync implementatie relatief goed is, terwijl er ook tientallen monitoren zijn met belabberde Freesync implementaties.
Maw AMD-Freesync met nVidia Gsync compatibiliteit uitbreiding.
Dit dus. Nvidia doet bijzonder haar best om Freesync over te nemen in de marketing. Helaas pikken veel media dit op. Deze TV ondersteunt geen G-Sync. Daar heb je extra hardware voor nodig. Deze TV ondersteunt Freesync en Nvidia ondersteunt dat tegenwoordig ook. De titel van dit artikel is daarom misleidend.

Kennelijk bevat de firmware update aanpassingen aan het Freesync gebeuren om 'goed genoeg' te zijn voor het predicaat G-Sync compatible. Wat vervolgens niets meer is dan dat Nvidia in haar drivers Freesync standaard aan wil zetten voor deze TV.
Maar wat is er nu exact zo misleidend dan? G-Sync compatible maakt inderdaad gebruik van Freesync, volgens mij is dat nooit anders beweerd, ook niet in dit artikel. Nvidia doet daar een certificering overheen en je mag het predicaat "G-Sync Compatible voeren", het is inderdaad niet super spannend, echter ik zie de misleiding niet.

Ik ben eigenlijk wel blij met de ontwikkeling dat Nvidia Freesync nu ook aan het certificeren is. Er zijn bergen "Freesync compatible" monitoren met enorm belabberde implementaties, door een Freesync monitor te kiezen die "G-Sync compatible" is, kun je ook als AMD kaart bezitter er nu relatief zeker van zijn dat die schermen een fatsoenlijke implementatie hebben. En bijvoorbeeld niet slechts Freesync tussen de 40 en 60Hz.

Dat Nvidia dit qua marketing gebruikt is logisch en was ook te verwachten. AMD heeft daar helaas echt steken laten vallen door niet vanaf het begin Freesync flink te marketen met eigen kwaliteitscontroles en certificeringen. Nvidia springt nu in dat gat en dat heeft AMD in deze echt enkel en alleen aan zichzelf te danken. Nu zul je gaan zien dat het label "Freesync" op den duur alleen nog geadverteerd gaat worden bij de modellen waar de implementatie niet goed genoeg is om "G-Sync Compatible" te mogen zijn.
Maar wat is er nu exact zo misleidend dan?
Het misleidende deel is dat er op steeds meer (marketing)materiaal van monitorfabrikanten 'Nvidia G-Sync' komt te staan terwijl het G-Sync Compatible betreft. Zo ook bij deze aankondiging van LG in de titel van hun persbericht én in de titel van dit nieuwsbericht én met name allerlei afbeeldingen van monitoren/tv's met een 'G-Sync' logo.

Als je als consument überhaupt al weet dat je met een G-Sync Compatible scherm ook gewoon AMD VRR kunt gebruiken (want dit werd voorheen gewoon FreeSync genoemd en is een VESA standaard), dan krijg je nu nog steeds de indruk dat dit enkel met Nvidia videokaarten werkt.

[Reactie gewijzigd door r100 op 1 november 2019 11:00]

Gsync compatible is wel wat anders dan freesync. Freesync is het vrr protocol van amd, en gsync compatible is de certificering van nvidia dat het ook werkt met hun videokaarten binnen de door hun opgegeven eisen.
LG is echt niet snel met update's google assistent werkt nog steeds niet op de c8 in het Nederlands en zal er denk ook nooit komen , schandalig wel promoten maar niet updaten, en er is ook geen update gekomen voor de c8 om dolby Atmos door te geven. LG laat na aankoop hun klanten gewoon in de steek.
En mijn LG 49SM9000 Nanocel tv dan?
Nee helaas, je kunt toch lezen om welke modellen het gaat.
Nvidia blijft het vuile spelletje verder spelen zo te zien.
Vanaf er gsync op de doos staat, mag er geen freeaync of adaptive sync meer op de doos staan waarschijnlijk.
Deze TV's blijven gewoon VRR ondersteunen, daar veranderd het G-sync label niks aan.
Dat is nog maar af te wachten. Aan het gsync label hangt nvidia een waslijst aan eisen... vooral marketing technisch dan om de concurrenten een hak te zetten.
Wat maakt het nou uit wat er op de doos staat? Op elke website is te lezen dat ze alles ondersteunen. Er staat wel meer niet op de doos.
Ik kan me overigens ook niet herinneren dat er op de doos van mijn TV staat dat de tv freesync en VRR support.
Het lijkt mij dat een DisplayPort 1.4 naar HDMI 2.1 kabel wel gewoon G-Sync met 4K 120Hz aankan?

[Reactie gewijzigd door amsterdamned op 1 november 2019 08:48]

VHS en BetaMax verhaal dit :)

Ben wel benieuwd naar wat je als PC gebruiker hiervoor moet inleveren qua beeld/kleur kwaliteit.
Moet een goede zak geld van Nvidia zijn geweest. Als tv fabrikant zou ik liever een Freesync logo dragen dan een Gsync logo.
Er zijn meer mensen met een Xbone met Freesync dan mensen die hun tv aan een pc aansluiten.

De gemiddelde consument zal denken oh, geen Freesync, dan maar een Samsung tv die het wel heeft.


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 Elektrische auto

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True