Nvidia introduceert G-Sync HDR

Nvidia heeft op CES de komst van beeldschermen met ondersteuning van de combinatie G-Sync met hdr aangekondigd. De panelen zijn in samenwerking met AU Optronics ontwikkeld en ondersteunen behalve G-Sync en hdr ook een groter kleurbereik, dat in de buurt komt van dat van dci-p3.

De eerste G-Sync-panelen die ook hdr ondersteunen, hebben een diagonaal van 27" en een resolutie van 3840x2160 pixels. De maximale verversingssnelheid ligt op 144Hz en om hdr te kunnen weergeven is de backlight verdeeld in 384 zones, waarbij er ondersteuning is voor hdr10. Daarnaast kan het paneel een kleurbereik weergeven dat in de buurt van de dci-p3-gamut komt, aldus Nvidia.

De eerste beeldschermen die van het nieuwe paneel gebruikmaken zijn de Acer XB272-HDR en de reeds aangekondigde Asus ROG Swift PG27UQ. Beide schermen zullen in het tweede kwartaal van 2017 beschikbaar komen voor een nog onbekende prijs. De huidige 27" 4k-monitoren van Acer en Asus, die dus geen hdr-ondersteuning hebben, kosten op dit moment respectievelijk 719 en 839 euro. Nvidia-concurrent AMD greep CES aan om G-Sync-alternatief FreeSync ook hdr-ondersteuning te geven onder de naam FreeSync 2.

Door Jelle Stuip

Redacteur

06-01-2017 • 10:58

73 Linkedin

Reacties (73)

73
73
43
10
2
15
Wijzig sortering
Zo jammer dat er nou twee standaarden voor adaptive sync zijn. Schiet de consument ook niets mee op. Mijn monitor heeft Freesync en dat werkt niet met mijn Nvidia videokaart natuurlijk. Wist ik van tevoren maar wel jammer. De videokaart die je hebt zou geen factor moeten zijn in de keuze van je monitor, of omgekeerd.
Correctie: er is slechts 1 standaard voor Adaptive Sync en dat is Adaptive Sync van VESA, als aanvulling op de DisplayPort spec. AS is een standaard die onder andere Variable Refresh Rate (VRR) mogelijk maakt, wat dan ook de bekendste feature is.

FreeSync is AMD's implementatie daarvan en tegelijkertijd de naam voor hun marketing/certificatie programma omtrent deze functionaliteit. FS werkt op eender welke AS monitor; ze krijgen momenteel allemaal het FS label omdat AS zelf nauwelijks naam heeft, maar als Nvidia of Intel AS zou gaan ondersteunen zou VRR op al die displays gewoon werken.

G-Sync is geen implementatie van AS. Het is ook geen standaard, want alles rondom GS is gesloten en niet beschikbaar voor derden - een standaard is per definitie beschikbaar voor derden. GS werkt alléén op GS monitors en vice versa, alleen Nvidia videokaarten kunnen met GS overweg omdat het allemaal gesloten is.

Dat jouw monitor op je Nvidia videokaart geen VRR kan doen ligt aan Nvidia. Die zijn te koppig om AS te ondersteunen, want dat zouden ze wel kunnen. Sterker nog, het vergt niets meer dan een driver update.

[Reactie gewijzigd door Werelds op 6 januari 2017 11:56]

Wat een onzinnige definiëring. Dat iets een gesloten protocol is maakt het dat het nog steeds prima een standaard kan zijn. Zo zijn er allemaal Third Party-schermen met de Nvidia Gsync-standaard. Dat dat geld kost en wellicht gesloten is doet daar niks aan af. Hetzelfde met bijvoorbeeld AirPlay wat je in licentie kunt nemen, of iets als OpenTherm voor je ketel.
Nee. AirPlay kun je inderdaad een licentie voor afnemen. Dat kun je zelf implementeren, zonder dat je daar hardware van Apple voor nodig hebt.

G-Sync zijn geen licenties voor. Het enige dat je af kunt nemen is een scaler die gefabriceerd wordt door Nvidia. Een standaard kun je zoals gezegd zelf implementeren, dat kan met G-Sync niet. Elk G-Sync scherm heeft exact dezelfde scaler aan boord en die komt van Nvidia.

Als Nvidia er wel een standaard van zou maken zouden Realtek, Novatek en MStar daar vast wel een licentie voor afnemen en dan zou je in theorie schermen met beide kunnen krijgen. Dat is echter precies wat Nvidia niet wil.

[Reactie gewijzigd door Werelds op 6 januari 2017 15:45]

Er is een verschil tussen specificatie en standaard. Er zijn een hele boel schermen die voldoen aan de specificatie van Nvidia GSync, maar dat maakt het geen standaard.

Een standaard is iets dat geratificeerd is door een standaardisatie orgaan zoals VESA, MPEG, ANSI, ISO, DIN, SI, ... Dit zijn meestal groepen van bedrijven en/of landen die samen tot afspraken komen voor interoperabiliteit tussen apparaten en diensten te kunnen garanderen.

In de praktijk hebben deze organisaties allemaal de vereiste dat om een specificatie tot standaard te maken, je het implementeren van de specificatie vrij (of voor een "redelijk" bedrag) beschikbaar moet maken voor andere leden van de organisatie (of voor iedereen in sommige gevallen).

Dat is bij GSync niet het geval: als Nvidia niet wil dat een bedrijf zoals AMD GSync gaat implementeren, dan kan Nvidia dat simpelweg verbieden. Dat kan niet met een standaard zoals AS (of FS).
Correctie: je kan weliswaar geen gebruik maken van FreeSync in combinatie met een Nvidia videokaart, maar de monitor zelf werkt verder prima. Het is niet alsof een FreeSync monitor helemaal niet werkt met een Nvidia kaart.

Hetzelfde geldt overigens voor G-Sync monitoren in combinatie met een AMD videokaart.
Hetzelfde geldt overigens voor G-Sync monitoren in combinatie met een AMD videokaart.
* in combinatie met ieder andere grafische kaarten bakker anders dan Nvidia.

Dat is een groot verschil. Nvidia is in deze echt de buitenbeen.
AMD is toch echt de enige GPU fabrikant die momenteel FreeSync ondersteunt. Net zoals Nvidia de enige is die G-Sync ondersteunt. Precies hetzelfde verschil.

FreeSync is weliswaar gebaseerd op een open standaard, maar dat het open is heeft alleen een waarde als er een andere fabrikant is die het ook in hun GPU's wil toepassen. Tot op vandaag is AMD de enige.
AMD is toch echt de enige GPU fabrikant die momenteel FreeSync ondersteunt.
Zoals @Werelds ook al aangeeft is FreeSync echter wel een implementatie van het gestandaardiseerde Adaptive sync. Daarmee is het dus een heel ander type dan G-sync.

FreeSync zal met iedere videokaart werken die AS ondersteund terwijl G-sync alleen zal werken met NVIDIA
Tuurlijk, maar AMD is nog steeds de enige die dat momenteel implementeert. Vandaag in de praktijk kan je de een niet met de ander gebruiken.

Wat er in de toekomst zal gebeuren is nog onbekend. Misschien implementeert Nvidia het ook, misschien sluit AMD een licentie voor G-Sync af, misschien blijft alles zoals het nu is.

En om terug te komen op mijn oorspronkelijke punt: of er nou G-Sync of FreeSync gebruikt wordt, de monitor functioneert met elke GPU nog steeds prima als een monitor zonder deze functie.
Intel heeft al gezegd het te gaan ondersteunen. Het zit nog niet in Kaby Lake omdat dat gewoon Skylake is en Skylake op zijn beurt al te ver gevorderd was om het nog ingebakken te krijgen. Blijkbaar is Intel's display controller niet in staat dit nu al te doen door middel van een driver update. Die van AMD en Nvidia zijn blijkbaar een stuk vrijer programmeerbaar.

[Reactie gewijzigd door Werelds op 6 januari 2017 14:57]

Intel's Cannon Lake gaat het ook ondersteunen.
Vandaag is dat inderdaad zo.

Intel, 's Werelds grootste GPU fabrikant, kan in de toekomst makkelijk AS/FS gaan ondersteunen. Dat is niet zo met G-Sync.
Klopt, mijn verwoording was incorrect, heb het even aangepast :+
Vraag me af of er geen driver hack mogelijk zou kunnen zijn om zoiets alsnog mogelijk te maken.
Denk het niet. G-Sync zal heel sterk op AS lijken, maar er zullen subtiele verschillen in zitten (lees: DRM) waardoor het niet zo eenvoudig is. In laptops is het een iets ander verhaal, daar wordt niet direct gebruik gemaakt van AS.
G-sync is toch wat uitgebreider en meer gekalibreerd dan freesync. En sinds wanneer is concurrentie slecht voor de consument?

Meer concurrentie betekent juist meer producten, ik denk dat een monopolie positie ons meer zo benadelen dan 2 verschillende manieren om verversingssnelheid te bepalen.

Lees je eens in over het verschil tussen g-sync. En freesync dan zul je zien g-sync veel meer doet als monitor FPS met videokaart FPS matchen:

https://www.google.nl/amp...client=ms-android-alcatel
Incorrect.

Dat artikel is waardeloos en er staat nauwelijks iets technisch in.

Dit is hun conclusie:
Given the price gap, you might wonder why anyone would prefer G-Sync. The answer is simple — it’s superior. If Nvidia’s adaptive refresh technology doesn’t suffer ghosting issues and delivers more consistent overall performance.
Op beide punten hebben ze het over de situatie bij framerates onder de limiet. In de tijd van dit artikel (midden 2015) zat hier een kern van waarheid in omdat AMD toen nog geen LFC had. Dat hebben ze nu wel en dat lost de ghosting problemen op lage framerates ook meteen op. Enige ghosting problemen die zich nu nog voordoen liggen aan het paneel en vind je dus aan beide kanten.

Waar dat artikel dan weer niet over rept is de input lag die Nvidia toen al had en nu nog steeds heeft op zulke refresh rates. Je hoort ze ook niet over het feit dat je aan je bovengrens V-Sync zult moeten gebruiken en dus wederom input lag krijgt, terwijl AMD je laat kiezen.

Dus nee, G-Sync is absoluut niet uitgebreider of "meer gekalibreerd" (geen flauw benul wat je daar mee bedoelt). Dat was anderhalf jaar geleden nog maar amper het geval (LFC was het enige dat AMD nog niet had), maar tegenwoordig dus echt niet meer.
Dat artikel is echter vrij oud. Het belangrijkste verschil, het feit dat Gsync kan compenseren voor lage framerates waar Freesync dat niet zou kunnen is niet meer waar. Althans, bij Freesync moet je opletten dat je een monitor hebt waarbij de maximale refreshrate minstens 2,5x de minimale refreshrate is (en veel goedkope monitoren hebben dat niet), maar als aan die voorwaarde voldaan is dan kan Freesync tegenwoordig ook bij lagere framerates blijven syncen. Dat doen ze door zodra de framerate onder de minimale refreshrate zakt elk frame twee keer (of nog vaker maar dan wordt het wel een diashow) te sturen. 24 FPS wordt dan 48 Hz bv.

Daarmee is het belangrijkste nadeel van Freesync volgens mij verholpen en zijn ze nu vrij gewaagd aan elkaar. Als dat niet zo is dan hoor ik het graag want ik heb nog altijd een half oog op wanneer ik eventueel weer mijn game PC bij de tijd wil brengen samen met een AS monitor. Op dit moment is het belangrijkste nadeel van Freesync volgens mij alleen nog dat Nvidia er niet mee werkt en Nvidia heeft wat mij betreft absoluut de voorkeur op dit moment wat betreft GPU's. Ik hoop met velen echter dat AMD binnenkort weer eens met competitieve kaarten komt en dan wordt de keuze een heel stuk lastiger (tenzij er dus zoals jij zegt nog een technische superioriteit in gsync zit, maar dan lees ik dat graag met iets recentere bronnen).
Ik zou eens weg blijven van amateur sites.
AMD’s FreeSync can only work within a certain range of frames per second, generally 20FPS to 144FPS, while G-Sync can go all the way down to 1FPS and up to 240FPS (when those monitors finally arrive sometime next year).
Ze zetten er zelf een afbeelding bij waar op staat dat FS 9-240 Hz kan doen. Hoe amateuristisch kun je zijn?

Daarnaast is het niet waar dat GS 1 Hz kan doen. Ze kunnen 1 FPS weer geven (en dat gebeurt dan op de minimale refresh rate van het paneel; 30, 36, 45 Hz) en dat kan FreeSync tegenwoordig ook. Er staat wel "Updated October 5, 2016" maar hun informatie stamt uit begin 2015 lijkt het.

Jij moet eens goed gaan lezen over beide in hun huidige staat. Je informatie klopt simpelweg niet.
Ik moet zeggen dat dit het eerste is dat ik hoor over ghosting veroorzaakt door Freesync, daar zou ik dieper in moeten duiken. Maar dat artikel heeft het ook weer over een minimum framerate wat volgens mij gewoon niet meer klopt, ondanks dat het claimt 3 maanden geleden nog bijgewerkt te zijn (low framerate compensation is er al ruim een jaar in het AMD kamp), dus ik weet niet of ik hun nou zo vertrouw.
Ze hebben het over 20-144, ik weet niet of dat een limiet is van Freesync, maar beide limieten zijn nou niet echt limieten waar ik me zorgen over zou maken. Als je framerate onder de 20 zakt dan gaat het er crap uitzien, ongeacht of je scherm mooi gesynct is of niet. En boven de 144, tja, die paar counterstrike pro gramers die 240 frames per seconde willen moeten dan maar bij Nvidia blijven maar voor de meeste mensen is 144hz/fps meer dan voldoende.

Overigens ben ik bepaald geen AMD fanboy hoor, ik zou eerder een Nvidia fanboy zijn. Maar Gsync monitoren zijn echt een heel stuk duurder, dus als ik een van beide wil gaan kopen dan wil ik wel zeker zijn van mijn zaak. Het ghosting probleem zou ik dieper in moeten duiken voor ik een beslissing zou maken, ik wil dat argument niet direct van tafel vegen, maar aangezien ik er nog nooit eerder over gehoord heb en toch vrij uitgebreid in heb zitten graven heb ik er wel mijn twijfels bij.

Wat betreft het laatste voordeel van Gsync, meer support bij laptops, dat lijkt me iets dat maar voor een kleine niche belangrijk is. Ik zal in ieder geval gewoon bij desktops blijven dus dat punt is irrelevant voor mij.

Het blijft hoe dan ook vervelend dat je keuze van monitor je op dit moment min of meer opsluit bij een bepaalde fabrikant als je je sync tech niet kwijt wil raken bij een GPU upgrade. Mijn huidige monitor gebruik ik momenteel al bijna 12 jaar en doet het nog uitstekend. Voor zo'n periode is het praktisch onmogelijk te overzien wat er gaat gebeuren in de technologiewereld.
Concurrentie is niet slecht, maar conflicterende standaarden wel. De eigen "standaard" van Microsoft Office is niet goed voor de consument - ze hadden beter de open standaard ODF kunnen omarmen en concurreren op kwaliteit van het product.

In dit geval creëer je een soort lock-in: als je eenmaal geïnvesteerd hebt in een dure G-Sync monitor zul je bij je volgende videokaart sterk overwegen om weer een nvidia te nemen omdat de AMD-kaarten niet met G-Sync overweg kunnen. Heb je al een nvidia kaart en wil je een nieuwe monitor dan zul je eerder geneigd zijn om een model met G-Sync te nemen. Terwijl de beide oplossingen hetzelfde bieden, zoals Finraziel en Werelds ook al uitgelegd hebben. Het zou dus niet uit moeten maken voor je ervaring en dus voor je hardwarekeuze, zodat de schermen weer kunnen concurreren op wat wel belangrijk is: beeldkwaliteit, resolutie, kleurweergave, refresh rate en lag.

Die lock-in is natuurlijk exact waarom nvidia met G-Sync gekomen is, dat is helemaal in hun voordeel. Maar niet het voordeel van de consument.
Maar zonder fabrikanten natuurlijk geen standaard. Je ziet in een nieuwe markt bijna nooit meteen een open standaard ontstaan, tenzij de markt zo competitief is dat de fabrikanten er niet omheen kunnen. Men dicteert hier altijd de utopische open standaard als beste optie. Dit is altijd enorm vanuit consumentenperspectief. Waarom zou een bedrijf een heel protocol ontwikkelen, daar dik geld aan uitgeven, R&D om vervolgens de concurrent gratie mee te laten profiteren? Dat is bedrijfskundig gewoon onhandig. Zie daarom ook dat de VR-markt waarbij er meerdere API's naast elkaar bestaan.

De praktijk is naar mijn idee vaker dat een reeds bestaande standaard een defacto standaard wordt, dan dat er ineens vanuit het niets een geheel alom ondersteunde standaard van iets verschijnt.
concurrentie zou hier betekenen dat beiden elkaars vorm van syncen zouden ondersteunen maar elkaar de markt probeerden uit te spelen door met betere/goedkopere producten te komen zodat de consument kon kiezen of hij G-sync of Freesync wilt gebruiken. Helaas ben je in deze markt gedwongen om Gsync te gebruiken als je Nvidia hebt en Freesync als je aan het rode front staat.
Dit noem ik geen concurrentie, vriend.
Wat pas jammer is dat ik mijn Acer Predator van 800euro nu weer weg kan gaan doen wanneer ik HDR wil. Als je eenmaal aan G-Sync gewend bent, wil je echt niet terug. Dem screentears :X :'(

Achja, dan maar weer sparen. De meerwaarde van HDR heb ik al gezien en dat wil ik heel graag op mijn bureau hebben.
Toch wel slecht dat Nvidia niet ook Freesync ondersteund.
"FreeSync is royalty-free, free to use, and has no performance penalty." - Wccftech.com.
Nvidia natuurlijk leuk winst maken aan het verkoop van de modules en certificeren van monitoren.

Is wel typisch iets voor Nvidia, eigen afgesloten ding gebruiken. Beetje nvidia hairworks vs amd tressfx. Hairworks is een gesloten api, tressfx is open source.
Jammer dat Nvidia superieure GPUs heeft, ben het namelijk niet eens met het bedrijf.
Wat heb je nou aan HDR als je geen oled schermen hebt. Het lijkt mij dan meer een beetje met marketingtermen gooien. :?
HDR werkt ook met LCD alleen de sterke punten ligt dan in de highlights; explosies, zon aan het strand e.d. De zwakte van LCD zit in de donkere scene's, de lowlights omdat LCD geen perfect zwart kan weergeven ivm bleeding van de backlight.

OLED is juist weer sterk in donkere scenes en minder goed in explosies en scenes met een fel licht. OLED heeft niet zon hoge lichtsterkte.

Als je kijkt naar de demo video's van LG OLED en Samsung LCD HDR zie je vaak dat LG de nadruk legt op donkere scenes en vooral Samsung de nadruk op scenes met veel fel zonlicht. Dit doen ze om de sterke punten van hun technologieen te benadrukken.

Dus HDR zonder OLED scherm is wel degelijk mogelijk.
Naar mijn idee is het hele punt van HDR dat je binnen een beeld zowel heel donker als heel licht kunt combineren. Zolang je niet voor elke pixel een lichtbron gebruikt ben je dan sterk beperkt in de mogelijkheden.

Zou je bijvoorbeeld een beeld hebben met afwisselend heel donkere en heel lichte strepen (bijvoorbeeld tralies ofzo) dan blijft het behelpen als je met zones werkt. Je kunt dan onmogelijk de lichte delen zo licht mogelijk maken en de donkere beelden zo donker mogelijk, behalve als deze precies uitlijnen met de zones van je backlight, wat natuurlijk in de praktijk een onmogelijke opgave is.
Anoniem: 474132
@Robbaman6 januari 2017 12:08
Je hebt gelijk dat HDR eisen stelt aan het contrast ("heel donker/heel licht"). De grap is dat OLED in theorie een oneindig hoog contrast heeft omdat heel donker -echt- zwart is (is gelijk aan 0, dus het contrast als deling met 0 als noemer levert altijd oneindig op, maakt niet uit wat je voor de maximale lichtopbrengst als teller invult).

Voor LCD is de zwartwaarde echter niet gelijk aan 0 en daarom moeten LCD's die HDR gecertificeerd zijn ook zo'n hoge lichtopbrengst hebben. Maar met een fellere backlight voldoen ze aan de HDR certificering.

Nadeel van LCD is inderdaad dat local dimming altijd meerdere pixels aanstuurt en dat dit bij OLED gewoon 1 op 1 is; een pixel staat aan of uit. Bij bepaalde content (idd bijvoorbeeld "tralies") kan dit verkeerd uitpakken voor LCD.

Nadeel van OLED is de mindere lichtopbrengst waardoor kijken in een fel verlichte kamer niet ideaal is. Al merk ik daar zelf (LG E6) in de praktijk niet veel van.
Ik dacht dat het juist was om zwartwaardes te verbeteren. Dankjewel voor de uitleg :)
Heb je het ook weleens gezien? Het ziet er vooral uit als een nepperig zootje met veel te veel saturation en soms zelfs als een overbelichte foto.

HDR op een IPS paneel = no go. Hoe je het wendt of keert. VA kan nog *redelijk* ingezet worden voor HDR mits er local dimming is, maar ook dat is verre van ideaal, ook al heb je vier tot vijf keer zoveel statisch contrast als bij IPS.

Superhoge helderheid kijkt enorm onrustig en is ook slecht voor je ogen, net zoals recht in de zon kijken niet prettig is, en dus heb je diep zwart nodig om goed HDR weer te geven. Deze panelen gaan tot 1000cd/m, en daar ga je echt wel van 'squinten' omdat het te fel is. Tegelijkertijd weet je dan ook al bijna zeker dat het IPS is. Ondertussen hebben we het over schermpjes van 800 euro en meer. *Avoid* like the plague dus.

Iets kan technisch nog wel voldoen aan een specificatie maar onze ogen zijn geen computer, die discussie is al zo oud als 'we zien maar zoveel FPS' enzovoort. Met andere woorden: blijf heel, heel erg kritisch op alles waar het stickertje HDR op komt te zitten, want als het geen OLED is, is het altijd een net-niet oplossing. En voor een net-niet oplossing is dit toch wel een erg hoog prijskaartje, maar daar kennen we Asus dan ook ondertussen wel van.

De komende 2-3 jaar ben je wat mij betreft nog altijd het beste af met een goede kwaliteit VA, eventueel met hoge refresh rate, en ja die zijn zeldzaam, maar ten opzichte van IPS een waar genot, en zonder eindeloos geklooi met alle specificaties die HDR rijk is en de content die er niet aan voldoet :)

[Reactie gewijzigd door Vayra op 6 januari 2017 13:47]

Zoals hier boven al wordt gezegd, met een hogere helderheid kan je beter lichtstralen van bijvoorbeeld de zon weergeven. En ja net zoals in het echt is het niet prettig kijken in de felle zon. Helemaal als je met je neus op de monitor zit. Gran turismo sport zou al tot 10.000 nits ondersteunen. Maar het ligt er dus maar net aan of je donkere of hele heldere content aan kijken/spelen bent. Kortom het perfecte scherm bestaat nog niet.
Jammer geen 21:9 versies, en zie liever OLED schermen.
Superhoge helderheid kijkt enorm onrustig en is ook slecht voor je ogen, net zoals recht in de zon kijken niet prettig is, en dus heb je diep zwart nodig om goed HDR weer te geven. Deze panelen gaan tot 1000cd/m, en daar ga je echt wel van 'squinten' omdat het te fel is.
Daar heb ik zelfs al last van met een 350cd/m paneel (PG279Q) op 50% brightness en contrast in de avond terwijl er een lamp aan is, vooral met witte kleuren.
Je zou soms bijna denken dat het hier zo spierwit wordt dat het hier een ziekenhuis is... :+
IPS doet andere dingen dan weer veel beter dan VA. Zo verliest een VA paneel wanneer onder een horizontale hoek wordt bekeken veel contrast en kleurverzadiging. De kleuren shiften ook allemaal. Een IPS paneel kan onder een scherpe horizontale hoek worden bekeken met bijna geen verlies in contrast en kleurverzadiging.

De kijkhoeken van veel TV's met VA-panelen zijn vrij slecht. Hier een Samsung UHDTV van bijna 2000 euro: http://i.cubeupload.com/pJ6hDL.png
Met 384 vlakjes op een 27" scherm is dat volgens mij nog best goed te doen
OLED is mooier, maar goed, dit is een mooi begin voor HDR op de pc
Het klinkt als hetzelfde als AMD maar dan voor meer geld.
Is het ook. Zoek maar eens op; gsync vs freesync. Bij GSync gaat het enkel om de licentiekosten.
Eigenlijk zouden bedrijven gewoon koppig moeten weigeren om GSync te ondersteunen en alleen maar Freesync moeten implementeren, dan kapt NVidia vanzelf met die uitzuigerij. Ik zou in ieder geval nooit een monitor met GSync kopen.
Waarom? Nu heb je tenminste nog een keuze. Als je vind dat Gsync wat extra toevoegd dan betaal je daar gewoon meer voor. Keuze is alleen maar goed voor concurrentie.
Het was keuzevrijheid geweest als zowel Gsync als Freesync werkten op zowel AMD als Nvidia. Dat is niet het geval, Nvidia heeft G-sync volledig afgesloten waardoor het niets meer dan een vendor lock-in is.
Doen ze al bijna. Er zijn haast geen monitors te koop met GSync, en degene die er zijn zijn pittig duur.
Nee Freesync heeft alleen licentiekosten. G-sync heeft ook hardware van ongeveer 200 dollar. Vandaar dat ze ook ongeveer 200 dollar duurder zijn.
Freesync heeft geen licentie kosten. G-sync heeft licentie kosten en een chip, die chip kost misschien 20 euro om te maken en dan denk ik nog dat ik de prijs grof overschat.
Vandaar dat g-sync schermen duurder zijn.

Er zijn wel geruchten dan AMD heel misschien Freesync2 als een premium label wil gaan gebruiken en om de certificatie te bekostigen wel licentiekosten wil rekenen.
Ik had nog even terug gelezen. En bleek om de standaard DP/HDMI licentie te gaan(waar Nvidia ook gewoon voor moet betalen). Maar heb je een bron dat de Chip zelf maar enkele tientale dollars is. En juist de licentie zo duur maakt?
Over het algemeen zijn zulke chips goedkoop om te maken, ik kan geen directe bron vinden maar het is een relatief kleine chip. Nvidia geeft zelf aan dat de kosten om de chip te maken relatief weinig zijn.
Nvidia’s answer: It’s about value, not cost

For those reasons, Petersen says any price disparity between comparable G-Sync and FreeSync monitors is not due to the module, whose cost he says is “relatively minor,” but due to monitor makers' decision to charge more.

“To me, when I look out and see G-Sync monitors priced higher, that’s more of an indication of value rather than cost,” he says. “Because at the end of the day, especially these monitors at the higher segments, the cost of the components don’t directly drive the price.”
bron:
http://www.pcworld.com/article/3129276/components-graphics/why-amd-freesync-is-beating-nvidia-g-sync-on-monitor-selection-and-price.html
Veel plezier met de marketings sprookjes van Petersen :D.

Dat mensen het zichzelf wijs maken dat het aan de extra kosten van de "superieure" chip ligt is een aanname zonder enige onderbouwing. Het zijn licentie kosten die Nvidia rekent en de extra kosten van de makers van de monitors, vooral het eerste als je ziet dat er identieke Freesync schermen zijn die 100-200 euro goedkoper zijn.
Thx. Wow wist niet dat iemand zoveel bullshit kon vertellen(ik doel op Petersen niet op jouw :) ). als G-Sync voor fabrikanten maar 40-50 euro was. Hadden ze echt niet met zijn alle massaal 200 euro gevraagd. Daar zorgt concurrentie wel voor.
Dat klopt, maar die hardware speelt uiteindelijk precies hetzelfde klaar als Freesync :)
Nu nog de freesync variant, en dan gewoon 1440p ... MG279Q opvolger?

[Reactie gewijzigd door DoubleYouPee op 6 januari 2017 11:19]

De nieuwe S-serie van Dell zou een optie kunnen zijn, al is dat wel "maar" 1080p (ips)
22/23/24/27 inch, met freesync en HDR

Los daarvan, er komen dit jaar nog genoeg leuke Freesync2 schermen uit.
Tja zou graag 1440p willen als ik dan toch geld uit ga geven aan een nieuwe monitor.
Ik wil gewoon 27" 1440p144 (of 100hz) freesync maar dan met VA/HDR.
De huidige 27" 4k-monitoren van Acer en Asus, die dus geen hdr-ondersteuning hebben, kosten op dit moment respectievelijk 719 en 839 euro.
Deze hebben ook geen 144hz. Dat is juist hetgene dat ik zoek... Ben benieuwd naar de prijs.
Kan ik eindelijk m`n 60hz scherm gaan vervangen voor wat knaps :Y)
Wordt iig hard sparen :) want ik gok dat m`n 980ti tegen die tijd ook wel vervangen moet worden voor een 1080ti of hoger om de 144hz/fps eruit te spugen. :+
Hangt er maar net aan wat je speelt:). Windows op 4K 144hz moet makkelijk kunnen :)
144Hz in 4K resolutie? Ben vrij zeker dat dat voor de 1080ti wel nog te hoog gaat zijn... Denk dat je dan sowieso gaat moeten minderen van resolutie... Als je ziet dat de huidige 1080 in 4K zelfs in medium instellingen nog geen 139,2 fps haalt is dat veel gehoopt dat de 1080ti dit wel makkelijk kan halen met deftige instellingen (dus niet medium, dan ben je denk ik beter af met een lagere resolutie en alles op high/ultra). En dit zijn dan nog maar de fps voor battlefield 4 dat ook al even oud is..

Bron voor fps
https://nl.hardware.info/...-benchmarks-battlefield-4
Nu is dus bekend dat de HDR ook werkt met de Gsync functie aan.

(Ik wist ook niet dat dit eerder niet mogelijk was :) )

[Reactie gewijzigd door roberto250b op 6 januari 2017 11:10]

Nu alleen nog het grote aanbod net als AMD aan kunnen bieden, als je kijkt hoeveel freesync 2 gaan ondersteunen binnen korte tijd.
Zullen zeer waarschijnlijk een hele vriendelijk prijs mee krijgen. Ik mag me alvast klaar maken om verschillende organen te verkopen ;)
Is het nu dat men dan ook een (propriety) nVidia API moet aanspreken om de tonemapping op de 384 vlakken correct via de videokaart te laten verlopen?
Als deze via het beeldscherm verloopt, is de latency namelijk wel hoger dan bij bijv. FreeSync 2. Houdt ook weer in dat software, zoals games en mediaspelers, de API moeten kunnen aanspreken en er dus voor ontwikkeld moet worden voor deze 2 concurrerende standaarden.
De trend qua design vind ik niks, ik zie liever een volwassen en clean design. Dit vind ik een gemis in de markt, ook al is het een kwestie van smaak.

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee