Monitors krijgen ingebouwde G-Sync-ondersteuning via MediaTek-scalers

Chipmaker MediaTek gaat alle Nvidia G-Sync-functies inbouwen in zijn scalers voor monitors. Daarmee krijgen monitors automatisch zonder losse module ondersteuning voor Nvidia's schermtechnologie.

MediaTek x Nvidia G-SyncDe eerste drie monitors met deze scalerchips staan op gamescom, meldt Nvidia. Het gaat om een deal tussen beide bedrijven waardoor de scalers de G-Sync-functies zullen hebben. Het is onbekend of Nvidia MediaTek betaalt voor de deal of vice versa.

Tot nu toe werkt G-Sync met een losse module en dat betekent een meerprijs voor fabrikanten om de technologie in te bouwen. Nvidia wil met deze stap dat G-Sync-functies zoals Pulsar in veel meer monitors komen te zitten. De scalers van MediaTek zitten nu al in veel verschillende monitors.

Door Arnoud Wokke

Redacteur Tweakers

20-08-2024 • 20:10

38

Reacties (38)

38
37
15
1
0
10
Wijzig sortering
Wat is het verschil precies tussen G-sync Pulsar en G-sync Compatible (Wat ik nu heb)?
G-sync compatible is een baseline (VRR - Variable Refresh Rate) systeem.

Dit betekent dus dat er VRR in een monitor zit.

Certified G-sync compatible betekent dat Nvidia ze goedgekeurd heeft alszijnde het voldoen aan de minimum eisen. (De minimum eisen hier zijnde, dat het scherm inderdaad VRR heeft. Volgens mij vanaf minimaal 30hz -- Niet heel veel meer dan dat, maar hier ben ik niet volledig zeker over)

Verdere G-sync classificaties zijn daadwerkelijk door Nvidia geteste schermen met garanties dat ze kunnen wat ze claimen. Dit is niet per sé G-sync gerelateerd maar b.v. ook HDR gerelateerd.
Voornamelijk dus garanties van Nvidia dat de makers niet liegen, I guess.

Ik ben geen expert in het onderwerp, maar daar lijkt het op.

G-sync Pulsar is weer één van de specifieke G-sync versies. De nieuwste, met weer incrementele verbeteringen. Een G-sync Pulsar certificatie is dus gewoon een garantie dat een scherm kan voldoen aan de eisen van Nvidia.
Er zullen G-sync compatible schermen zijn van makers die niet willen betalen voor certificering of dergelijke zaken, dus een verschil is niet gegarandeerd natuurlijk. Je hebt met G-sync Compatible gewoon geen garanties.

[Reactie gewijzigd door NoobishPro op 21 augustus 2024 00:22]

Van nVidia dan neem ik aan. Als G-sync compatible wordt geclaimed door de fabrikant kunnen ze moeilijk zeggen dat het niet gecertificeerd is en dus niet hoeft te werken. Maar goed, mogelijke problemen zijn mogelijke problemen voor de consument, garantie of niet.
Nee, er is geen garantie dat G-sync compatible doet wat een "echte" G-sync doet. Dat is het hele punt.

De G-sync compatible beeldschermen hebben geen G-sync module.

Je kunt je eigen scherm maken die b.v. van 1 tot 120hz kan gaan, maar dat betekent niet dat het G-sync's manier is. Een VRR maakt het in principe G-sync compatible, maar dat betekent dat G-sync "er wat mee kan" --- niet dat het er alles mee kan wat G-sync hoort te kunnen.

G-sync kan helemaal down to 1hz. De meeste VRR schermen maar tot b.v. 30. Hier zijn niet echt standaarden aan gekoppeld. De 'jumps' tussen verschillende framerates zijn dan ook relatief onvoorspelbaar bij G-sync compatible schermen. Hiermee dus ook veel andere onderdelen welke G-sync omvat. Het betekent weinig meer dan "Onze schermen hebben een variable refresh rate".
Bedankt voor de uitgebreide reactie, het is een stukje duidelijker geworden.
Echte G-sync monitoren kunnen ook de overdrive aanpassen.
Schermen zonder G-Sync module draaien op een vaste overdrive.
Als je fps dan zakt klopt je overdrive setting niet meer goed en kan je last krijgen van ghosting.
Verdere G-sync classificaties zijn daadwerkelijk door Nvidia geteste schermen met garanties dat ze kunnen wat ze claimen. Dit is niet per sé G-sync gerelateerd maar b.v. ook HDR gerelateerd.
Voornamelijk dus garanties van Nvidia dat de makers niet liegen, I guess.
Volgens mij klopt dat 100%, heb zelf een AOC Agon Pro AG254FG, welke G-sync ultimate classificatie heeft, naast dus een nvidia gecertificeerd processor, houd dit in dat de contrast, grey to grey, latency, screen tearing, VRR, HDR allemaal hoort te werken zoals geadverteerd wordt. (tot heden doet ie dat ook)
Zit overigens ook NVIDIA Reflex Analyzer op, maar volgens mij had of heeft dit niks met g-sync te maken, mogelijk wel met de nvidia processor.

[Reactie gewijzigd door Shizukana08 op 21 augustus 2024 09:28]

Huh wat? Er is weldegelijk een verschil tussen G-Sync Compatible, G-Sync en G-Sync Ultimate. G-Sync Compatible betekend gewoon dat het scherm VESA VRR heeft en werkt met Nvidia kaarten. Dan heb je de echte G-Sync implementaties met een aparte G-sync module die Variable Overdrive in de chip heeft wat op IPS of VA schermen best wel een grote invloed kan hebben (de befaamde "single overdrive experience" waar je niet tussen instellingen hoeft te wisselen aan de hand van je refresh rate). Ook gaat de refresh rate een stuk lager zonder dat er Low Frequency Compensation aan te pas komt. G-Sync Ultimate was eerst een HDR certificering met duidelijke minimale eisen, maar wat ze daar nu mee bedoelen is niet heel duidelijk en lijkt het eerder op THX certificering voor degene die er voor wilt betalen inderdaad. Wel is er nog steeds een G-Sync module aanwezig.

G-Sync Pulsar is een nieuwe specifieke implementatie van backlight strobing (ULMB bij Nvidia, DyAC+ bij Benq) waar de pulse-lengte van de strobe wordt gesynchroniseerd met de refresh rate wat nu mogelijk is omdat de pixel response precies onder controle wordt gehouden door een verbeterde vorm van Variable Overdrive. Dit zorgt er voor dat een sample-and-hold scherm zich meer gedraagt als een scanning strobe zoals een CRT en je dus een aanzienlijk lagere persistence blur hebt.

[Reactie gewijzigd door 24hourpartypal op 21 augustus 2024 09:35]

Ik weet niet zeker wat je bedoelt met
Huh wat? Er is weldegelijk een verschil tussen G-Sync Compatible, G-Sync en G-Sync Ultimate.
Ik heb toch letterlijk verschillen lopen benoemen? Ik weet niet zeker waar jij op denkt te reageren, maar mijn comment legt uit dat er verschilzit tussen G-sync compatible en andere G-sync versies.

Mijn comment legt ook uit dat verschillende G-sync varianten, verschillende eisen hebben (zoals bijvoorbeeld voldoen aan bepaalde HDR normen. Backlight strobing kan er weer bijgekomen zijn in een nieuwere versie/implementatie... Zo heeft iedere specificatie/implementatie/versie dus normen/waarden waar schermen aan moeten voldoen.

Dat is vrij letterlijk wat ik uitlegde.

Jouw informatie is wat specifieker.

Ja, de G-sync module doet zaken, maar dat wil niet zeggen dat een schermfabrikant deze zaken niet na kan maken in hun eigen product, zonder de G-sync stempel. (Ofwel; een heel goed geregelde VRR). Het is dan enkel dus geen officiële G-sync module.

G-sync certificeringen zijn garanties dat het werkt zoals G-sync moet werken. Dat is wat ik stelde. Dat is toch niet fout?
Ja ik had jouw comment helemaal verkeerd gelezen, excuus. Ik dacht dat je vooral G-Sync meer als een label als THX of HiRes Audio benoemde, wat dus in het geval van G-Sync Ultimate deels lijkt te kloppen. Waar ik het vooral niet begreep was bij het stukje over G-Sync Pulsar, want dat is buiten de discussie over de G-Sync chip, wel een afzonderlijke techniek van VRR en heeft dus meer met backlight strobing te maken (weliswaar in combinatie met een variabele refresh rate, Asus heeft het eerder geprobeerd met ELMB Sync maar dat liet wat te wensen over)

Verder was er veel onduidelijkheid en verkeerde informatie in de algehele discussie, al had ik beter op iemand anders kunnen reageren zie ik nu.
Ja, de G-sync module doet zaken, maar dat wil niet zeggen dat een schermfabrikant deze zaken niet na kan maken in hun eigen product, zonder de G-sync stempel. (Ofwel; een heel goed geregelde VRR). Het is dan enkel dus geen officiële G-sync module.
Dit klopt dan weer niet. Voor zover ik weet is er geen Freesync display met Variable Overdrive. Wel zijn er een aantal monitors die een response rate hebben die dusdanig goed is dat je de overdrive helemaal niet hoeft aan te passen aan de refresh rate. Ook is de lage minimale refresh rate best een voordeel, gezien je met frame doubling bij LFC altijd extra motion blur krijgt. Misschien niet heel belangrijk als de meeste spellen 60+ zijn op PC, en 1 frame aan blur is op zichzelf geen ramp, maar is een wezenlijk verschil de keren dat je wel met lage framerates werkt. Technisch is alles mogelijk te implementeren, maar het lijkt er op dat tot dusver de chips die gebruikt worden dit niet doen, mogelijk omdat Nvidia hier patenten op heeft of de R&D is te duur. Voor OLED monitors is een G-Sync chip dan ook onbelangrijk, gezien die geen gebruik kunnen maken van display strobing (wel BFI maar dat werkt minder goed) en de response rate minder dan een milliseconde is.
Nvidia zal wel moeten. De concurrentie, VRR en Freesync, heeft geen merk specifieke hardware nodig.
G-sync compatible ook niet.
De laatste G-sync compatible schermen die ik had waren best wel flut met G-sync aan, eerlijk gezegd.

Ik kan wel getuigen voor maar één soort scherm, maar had toen met regelmaat dat de schermen even op zwart gingen tussendoor. Dat was dan ook opgelost door G-sync uit te zetten.

Intussen heb ik hele dure, maar hele goede QHD schermen met daadwerkelijke G-sync en daarmee heb ik die problemen niet meer.

Dus weet niet of G-sync compatible nou écht iets betekent. Mijn zeer gelimiteerde ervaring is er echter slecht mee.
G-sync compatible is gewone VRR waarop G-sync is toegelaten door NVIDIA, zonder speciale hardware in de monitor.
"Toegelaten door Nvidia" is dan weer 'certified' G-sync Compatible, niet?

Ik dacht dat G-sync compatible (zonder 'certified') iets was wat alle fabrikanten mochten claimen zonder controle. Kan er uiteraard naast zitten.
Je hebt G-sync, G-sync ultimate en G-sync compatible. De eerste twee hebben speciale hardware aan boord en de laatste is gewoon VRR op basis van FreeSync waarbij de monitor door NVIDIA is toegelaten en op deze lijst gezet is.

G-sync compatible is altijd certified, zonder toestemming van NVIDIA mogen fabrikanten die naam niet vermelden.
Anoniem: 334725 20 augustus 2024 21:54
Blijkbaar is er geen losse module nodig, zoals Nvidia zo vaak heeft geclaimed. Lekker alles duur laten maken met gebakken lucht.
Het was dus wel nodig, maar nu is de module ingebouwd. Ik gok zo dat Nvidia geen scalers bouwt voor schermen en dan was terecht een module nodig voor de echte g-sync.
https://old.reddit.com/r/...top_with_no_gsync_module/

Oh echt? En dan jarenlang geen displayport 1.2a supporten is vast ook toeval.

[Reactie gewijzigd door Anoniem: 334725 op 20 augustus 2024 22:22]

Volgens de comments zitten er best wat haken en ogen aan, zeker omdat het laptop scherm direct wordt aangestuurd door de videokaart zonder scaler. Verder had een echte g-sync module ook wel echt meer bereik dan standaard VRR. Mijn eerste scherm had een range van 1 tot 144hz, waar VRR/Freesync vaak boven de 30 begint, en soms zelfs hoger bij 240hz+ schermen.
Je springt gelijk naar de technische verschillen, maar dan geef je dus toe dat het wel werkt zonder. Natuurlijk gaat het niet dezelfde ervaring bieden, dit is niet officieel ondersteund. Het feit dat Intel en AMD wel zonder modules werken bewijst zonder twijfel dat de module niet technisch nodig is.

Voor 9 jaar hebben ze een FPGA in producten kunnen stoppen. Je gaat me niet zeggen dat ze dat ding niet op zijn minst om kunnen zetten naar een ASIC zodat het niet 100-150 euro per bordje kost.
Je kan al jaren G-sync gebruiken met een G-sync compatibel freesync scherm zonder module. Heb er zelf ook een. Verschil is dat je een bredere range hebt met zo’n module.
Normaal is het een 100 euro meer prijs toch?
Dit kon nog wel eens heel significant zijn als ze daardoor goedkoper goede g-sync schermen kunnen bouwen.
Dus zo significant gaat dit niet zijn.
Volgens mij komt de chip / scaler die in een monitor zit nauwelijks tot nooit aan bod in monitorreviews.
Dat kan wel zo zijn, maar kijkend naar de artikelen hier waar MediaTek genoemd wordt of die over MediaTek gaan, dan vallen mensen al over de naam. Dus ze hoeven maar ergens het woordje te lezen en boem.
Dus ze hoeven maar ergens het woordje te lezen en boem.
Het woordje komt dus gewoon nergens voor..
Kijkend naar dit artikel over MediaTek ben jij de enige die dit ter tafel brengt.
Toevallig wel, maar zoek maar eens andere MediaTek-artikelen op en dan is het toch echt anders.

Ik ben zelf fan van MediaTek.
Ik bedoelde daarmee te zeggen; wellicht is de trend aan het veranderen. Dus keep it positive en het probleem verdwijnt.
* zucht *... vermoeiend dat je dit onderwerp compleet uit context haalt.

Mensen zijn avers tegen MediaTek omdat telefoons en tablets met hun SoCs vaak slechte ondersteuning krijgen en wij Tweakers geen eigen ROM erop kunnen installeren.

De rest maakt ons echt niet uit. Eerder geweldig dat MediaTek hier initiatief neemt.

[Reactie gewijzigd door Z100 op 20 augustus 2024 22:57]

Nee hoor, mensen klagen ook over slome MediaTek-socs in tv's, beeldschermen en streamingapparaten.

En dat van die geen roms is allang niet meer waar.

[Reactie gewijzigd door TheVivaldi op 21 augustus 2024 10:08]

Ik hoef geen mediatek rommel, geef mij maar snapdragon. :Y) Zoiets bedoelde je toch? Maar dat zeggen mensen alleen bij Android telefoons, waar zie je mediatek nog meer?
Mensen zeggen dat ook bij tv's, beeldschermen en streamingapparaten, die veelal MediaTek aan boord tebben. Toevallig bij dit artikel dan niet.
Oh echt, was mij eerder alleen opgevallen bij Android toestellen. Al dacht ik wel dat de nieuwere dimensity chipsets vrij goed waren 7200 8200 en 9300.
Is ook zo. Ik ben fan van MediaTek, maar een hoop anderen helaas niet.
Geef mij inderdaad maar liever een dimensity 9300 dan een tensor :P

Op dit item kan niet meer gereageerd worden.