Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Nvidia ondersteunt vanaf 15 januari Adaptive Sync - update

Nvidia heeft tijdens zijn persconferentie tijdens CES bekend gemaakt adaptive sync van de VESA te ondersteunen. Dat is dezelfde techniek die bij concurrent AMD FreeSync heet. De fabrikant heeft twaalf monitoren gecertificeerd, maar bij niet-gecertificeerde FreeSync-schermen kan de optie ook ingeschakeld worden.

Nvidia heeft vierhonderd beeldschermen getest en twaalf daarvan bestempelt de fabrikant als 'G-Sync Compatible'. De twaalf schermen worden in de onderstaande afbeelding genoemd. Nvidia is nog ongeveer honderdvijftig andere schermen aan het testen, waarvan het goedgekeurde deel ook het G-Sync Compatible-label zal krijgen.

Afbeelding: hardware.info

Een snelle blik op de Pricewatch leert dat de bovenstaande G-Sync Compatible-schermen, gamingmonitors zijn met tn-panelen. Ze hebben allemaal groot FreeSync-bereik, bijvoorbeeld van 40 tot 144Hz, of 48 tot 240Hz. De goedkopere schermen met FreeSync-ondersteuning hebben vaak een kleiner bereik, bijvoorbeeld van 40 tot 60Hz. Bij schermen die wel over FreeSync beschikken, maar niet door Nvidia gecertificeerd zijn is adaptive sync ook in te schakelen, maar staat het standaard uit, blijkt uit een blogpost van Nvidia.

Nvidia's eigen G-Sync-techniek vereist behalve de certificering van Nvidia ook aparte hardware in het scherm, wat de G-Sync-monitoren een stuk duurder maakt dan FreeSync-schermen, die de open standaard van de vesa ondersteunen. De schermen die een aparte G-Sync-module hebben, bestempelt Nvidia vanaf nu als 'G-Sync Ultimate'. Behalve AMD en nu ook Nvidia is Intel ook van plan om adaptive sync te ondersteunen.

De Nvidia-driver die adaptive sync-ondersteuning op Nvidia-hardware biedt is vanaf 15 januari te downloaden en werkt op videokaarten uit de 10- en 20-serie.

Update, 9:19: Adaptive sync is ook te gebruiken op FreeSync-schermen die niet gecertificeerd zijn, het artikel is daarop aangepast.

Door Jelle Stuip

Redacteur laptops en componenten

07-01-2019 • 08:33

133 Linkedin Google+

Lees meer

Reacties (133)

Wijzig sortering
Volgens de blog van nvidia werkt dit op 10 en 20 series, en op niet geverifieerde monitoren kan het wel gebruikt worden, maar staat het niet standaard aan :)
To improve the experience for gamers, NVIDIA will test monitors. Those that pass our validation tests will be G-SYNC Compatible and enabled by default in the GeForce driver.

G-SYNC Compatible tests will identify monitors that deliver a baseline VRR experience on GeForce RTX 20-series and GeForce GTX 10-series graphics cards, and activate their VRR features automatically.


Support for G-SYNC Compatible monitors will begin Jan. 15 with the launch of our first 2019 Game Ready driver. Already, 12 monitors have been validated as G-SYNC Compatible (from the 400 we have tested so far). We’ll continue to test monitors and update our support list. For gamers who have monitors that we have not yet tested, or that have failed validation, we’ll give you an option to manually enable VRR, too.
https://blogs.nvidia.com/...1/06/g-sync-displays-ces/

[Reactie gewijzigd door WCA op 7 januari 2019 08:43]

Geweldig nieuws dat je het zelf aan kan zetten.

Helaas verwaarloost nVidia natuurlijk weer oudere kaarten, en krijgen eigenaars van de 700 en 900 serie een dikke middenvinger van nVidia. Maar dat is natuurlijk niets nieuws onder de zon.
Sorry hoor, maar laten we nou niet overdrijven. Voor de 900 serie is misschien nog iets te zeggen dat ondersteuning leuk is, maar de 700 serie gaat ondertussen richting de 6 jaar oud. Er moet wel een keer ergens een grens gelegd worden, en dat ze die niet meer van compleet nieuwe features voorzien kan ik begrijpen. Het is ook niet alsof je hem gekocht hebt met de belofte van Nvidia dat ze ooit nog weleens adaptive sync zouden toevoegen.
Het is volgens mij Nvidia ook niet te doen om mensen met een (oudere) Nvidia kaart te laten genieten van adaptive sync. Nvidia weet dat er tegenwoordig al aardig wat FreeSync schermen op de markt zijn, en het bedrijf wil niet dat die gebruikers Nvidia videokaarten laten links liggen.

Dit is extra van belang aangezien de mid- en low-range markt nog een AMD-foothold is, en dat adaptive sync voor die gebruikers soms het verschil kan uitmaken tussen speelbaar en niet-speelbaar op pakweg 1900x1080 of 2560x1440.

Nu kan Nvidia deze FreeSync gebruikers ook proberen weglokken van AMD, zonder dat ze daarvoor adaptive sync moeten opgeven of een (duurder) ander scherm moeten kopen.

Deze gebruikers gaan natuurlijk geen oude Nvidia kaart kopen, maar een 10xx of hoger/recenter.

Intussen heeft Nvidia ook genoeg verdiend aan hun eigen G-sync modules en is "het vet van de soep", zoals ze zeggen.

[Reactie gewijzigd door Jack77 op 7 januari 2019 11:16]

mensen kopen toch wel. nVidia voelt nog geen enkele behoefte om haar klanten aan zich te binden door nette bedrijfsvoering. Er zijn te veel mensen die het toch wel kopen.
Dat ze techniek van de "concurrent" gaan implementeren vind jij geen nette bedrijfsvoering of?

This logisch dat ze geen 5+ jaar oude modellen gaan valideren verifiëren of deze ook goed ondersteund kunnen worden,, dan word het lijstje wel erg lang. Daarnaast ze hoeven dit niet te doen, like you said it yourself: mensen kopen toch wel
"Dat ze techniek van de "concurrent" gaan implementeren vind jij geen nette bedrijfsvoering of?"
Adaptive sync zit gewoon in de standaard waar NVidia nu eindelijk eens ondersteuning voor biedt.
Daarom concurrent tussen "" gezien het een open standaard is die naar mijn inziens voornamelijk door hun directe concurrent word gebruikt, het blijft echter een open standaard
nou, inderdaad. Ze voelen nu inderdaad enige behoefte om iets voor de klant te doen. Het hing al even in de lucht natuurlijk, omdat zo veel zulke grote namen FS omarmden de laatste tijd.
Och, laten we nu alsjeblieft niet gaan doen alsof AMD/ATI nu zoveel beter is of in ieder geval was. Zo heb ik nog een X800 Pro liggen waar zonder pardon of waarschuwing ineens Tru-Form (Tesselation, ATI kon het al voor DX11 ;) ) uit werd gesloopt. Je mocht kiezen: oude drivers houden (met bugs die diverse spellen onspeelbaar maakten) of over naar nieuwe drivers, maar een stuk functionaliteit opgeven waar ik de kaart specifiek voor gekocht had.

Blijkbaar was het onderhoud van de betreffende functionaliteit te duur en daarom geschrapt, gewoon een kosten-/batenanalyse die de doorslag geeft. Beide kampen zijn uiteindelijk gewoon gedreven door economische factoren en 'netjes' zijn ze alleen als dat genoeg geld kan opleveren.

Edit: typo

[Reactie gewijzigd door Aganim op 7 januari 2019 15:38]

Zeker. Dat beweer ik ook niet hoor. Heb aardig heen en weer gehoor de afgelopen 20-25 jaar. Mijn eerste echt dure kaart, de eerste Radeon en dan ook nog met de Rage Theater chip en ViVo erop was ook buggy.
De mensen die een gsync scherm hebben gekocht hebben ook gelijk een middelvinger gehad ;)
Als het goed is moeten zelfs 700 serie kaarten deze adaptive sync supporten!
Ik zie zelfs 600 serie er tussen staan.
Bron

[Reactie gewijzigd door Sotem op 9 januari 2019 16:20]

Tnx, heb het toegevoegd :)
G-SYNC Compatible tests will identify monitors that deliver a baseline VRR experience on GeForce RTX 20-series and GeForce GTX 10-series graphics cards, and activate their VRR features automatically.
Dit betekent niet dat adaptieve sync niet beschikbaar komt op oudere hardware. Ze lijken alleen standaardprofielen te maken voor nieuwe GPU's in combinatie met geteste monitoren. Het zou dus zomaar kunnen dat oudere GPU's ook gebruik kunnen maken van adaptieve sync, maar dat het dan handmatig moet worden ingesteld.
Daar zat ik ook al over na te denken, maar toch denk ik dat wishful thinking is op basis van een ongelukkige verwoording. 't zou wel leuk zijn natuurlijk :)
Zag het bericht eerder op Hardware.info. Ik heb een Asus MG279Q (IPS variant op de wél ondersteunde MG278Q). Dus thnx voor je bericht!

Ben benieuwd hoeveel verschil ik zal gaan merken i.c.m. mijn GTX 1080 :)
They also validate that the monitor can operate in VRR at any game frame rate by supporting a VRR range of at least 2.4:1 (e.g. 60Hz-144Hz)
Dit betekent dat ze alleen de monitoren die LFC (PDF) hebben gaan ondersteunen. Alle FreeSync 2-monitoren moeten dit verplicht kunnen, maar veel orginele FreeSync niet. Van de 568 FreeSync-monitoren ondersteunen 330 LFC.
Sorry, maar waar heb je die info (quote van jou) vandaan? In de bronnen van het artikel, kom ik deze quote niet tegen. Of ik heb niet goed genoeg gezocht...

[Reactie gewijzigd door xBrndnn op 7 januari 2019 10:54]

G-SYNC Compatible testing validates that the monitor does not show blanking, pulsing, flickering, ghosting or other artifacts during VRR gaming. They also validate that the monitor can operate in VRR at any game frame rate by supporting a VRR range of at least 2.4:1 (e.g. 60Hz-144Hz), and offer the gamer a seamless experience by enabling VRR by default.
Hetgeen jij zegt klopt dus deels.
Om het “Gsync Compatible” te noemen moet het op zijn minst over LFR beschikken.

Mijn scherm heeft nog Freesync 1, wordt dus in principe niet ondersteund als zijnde “Gsync Compatible”, maar ik kan wel de adaptive sync functie aanschakelen.

Ik heb een Samsung U28E590D

[Reactie gewijzigd door xBrndnn op 7 januari 2019 11:36]

Let even op dat Freesync 2 een marketing certificering is en het niet zozeer een opvolger is van Freesync 1. Om een Freesync 2 certificering te krijgen moet een scherm onder andere LFC (low framerate compensation), bepaald breed kleurbereik, hdr en 400+ nits helderheid ondersteunen.

Het originele freesync werkte in veel gevallen niet lekker omdat veel van de goedkopere monitoren een dergelijk klein Hz bereik hadden dat je er zelden baat van had. Jouw monitor is daar een voorbeeld van, die loopt van 40 Hz tot 60 Hz. Technisch wordt dat het VRR window genoemd. Daaronder, in jouw geval onder de 40 fps, krijg je alsnog tearing (geen v-sync) of judder. G-sync had dit nadeel niet omdat die een frame doubler hebben (hardwarematig in de monitor). Zo wordt 29 fps op een g-sync monitor vervolgens 58 Hz en wordt dat dus soepel weergegeven. Bij een goedkope freesync monitor is dat niet het geval. https://www.pcper.com/rev...side-and-Outside-VRR-Wind

Deze enorme beperking van Freesync is later opgelost met LFC (low framerate compesation) waarmee AMD aan de driver kant hetzelfde doet als de hardware van Nvidia; frames dupliceren. Echter dit vereist een groter Hz bereik om te werken, om precies te zijn 2.5x de minimum Hz:
Also, AMD's LFC can only be enabled on monitors in which the maximum refresh rate is 2.5x (or more) higher than the minimum variable refresh rate. Do you have a monitor with a 40-144Hz FreeSync range? You're good. Do you have one of the first 48-75Hz displays? Sorry, you are out luck.
TLDR: De monitoren die niet met Nvidia's adaptive sync werken waren eigenlijk ook nooit echt geschikt voor Freesync. Het Freesync 2 label is echter geen vereiste want je hebt geen HDR, geen breed kleuren bereik en geen 400 nits helderheid nodig. Het gaat vooral om het Hz bereik.

Bronnen:
One disadvantage that AMD has had when going up against the NVIDIA technology was prominent at low frame rates. AMD has had "variable refresh rate windows" that have varied from a narrow 48-75Hz (our first 21:9 IPS panel) to a much wider 40-144Hz (TN 2560x1440). When you went above or below that refresh rate with your game render rate (frame rate) you would either revert to a non-variable refresh rate state of either having V-Sync enabled or V-Sync disabled, at the users selection. The result, when your frame rate when below that minimum VRR range, was an experience that was sub-par - you either had tearing on your screen or judder/stutter in the animation. Those were the exact things that VRR technology was supposed to prevent!
NVIDIA G-Sync solved the problem from the beginning by doing something called frame doubling - when your in-game FPS hit that low VRR window range, it would double the frame rate being sent to the screen in order to keep the perceived frame rate (to the monitor at least) high enough to stay inside the range. That gave us no effective minimum variable refresh rate range for NVIDIA G-Sync monitors - and for users that really wanted to push the fringe of performance and image quality settings, that was a significant advantage in nearly all gaming environments.

[Reactie gewijzigd door sdk1985 op 7 januari 2019 14:37]

Precies hoe ik het ook al begrepen had, maar jouw uitleg maakt het nog eens allemaal 100 keer duidelijker!

Dankjewel hiervoor!
Zo betekent dit dat een scherm als deze pricewatch: BenQ EX3501R Zilver, Zwart goed is om g-sync te vervangen? De mijne was namelijk net kapot en ik kan een nieuwe uit zoeken deze leek mij wel wat ik heb een gtx 1080 ti zo power is geen probleem. Ik had een normaal 16x9 scherm en wil naar een ultrawide.

[Reactie gewijzigd door tim-1996 op 8 januari 2019 21:16]

Dus als ik het goed begrijp:
Nvidia heeft zijn eigen G-Sync, waarbij er een hardware module in het scherm moet zitten om te werken, wat geld kost want eigendom van Nvidia, maaaaarrrr,

Nu werken dus ook freesync schermen met Nvidia G-sync. In ieder geval 12 voor de komende tijd, wat er waarschijnlijk meer worden.

Wat is het voordeel hier voor Nvidia dan? Zij hadden juist het voordeel dat zij dus een eigen techniek hadden waarmee ze geld konden verdienen, en dat hele business model doen ze nu teniet?
Ik lees in een reactie hier boven dat ook afgekeurde schermen het ondersteunen, het staat alleen niet automatisch aan.

Zoals ik het nu zie benoemen ze 3 tiers:

- G-Sync Ultimate (met G-Sync module)
- G-Sync Compatible (Freesync auto-enabled in driver)
- Afgekeurde Freesync schermen (te laag bereik voor hun standaard, maar je kunt het handmatig wel alsnog aanzetten in de driver settings)

Dat wordt hun business model dus:
Beste ervaring met hun dure technologie, maar ook geen reden om naar AMD over te stappen als je minder aan je scherm wenst uit te geven.

[Reactie gewijzigd door grasnek op 7 januari 2019 09:04]

Maar wat gaat vanuit het perspectief van de klant dan het verschil zijn tussen G-Sync Ultimate en Compatible? Beide zijn getest en gevalideerd door Nvidia en beide werken out of the box. Ik verwacht dan ook dat ze Ultimate gaan uitbreiden met nieuwe features, of Compatible op enige manier beperken om zo de meerwaarde (= meerprijs) van Ultimate te rechtvaardigen.

Of misschien moet ik Ultimate eigenlijk lezen als Legacy, en zullen er vanaf nu nog niet of nauwelijks nieuwe schermen uitkomen die daadwerkelijk een G-Sync module aan boord hebben? Ben benieuwd hoe het zich gaat ontwikkelen.

[Reactie gewijzigd door Wekko306 op 7 januari 2019 09:24]

Het bereik van Ultimate is nog iets ruimer dan de nu gepresenteerde schermen. Ik heb bijvoorbeeld de Dell S2417DG, deze heeft een GSync bereik van 0 tot 165 hz (voor zover 0 hz bestaat dan).

De nu gepresenteerde ondersteuning voor deze 12 schermen zitten tussen 48 en 144 hz. De niet ondersteunde schermen hebben zelfs nog een kleiner bereik (tot zelfs 48-60 hz).

Kortom, Nvidia garandeert met deze 2 standaarden 2 verschillende niveaus van Adaptive Sync. De Ultimate is wat Nvidia eerst hun eigen standaard hebben geïntroduceerd. Nu introduceren ze dus ook ondersteuning voor het, wat minder goede, maar nog steeds heel waardevolle adaptive sync wat nu dus G-Sync heet.

Nvidia heeft dus haar eigen standaard naar beneden bijgesteld, ook wellicht omdat ze zien dat er meer freesync dan g-sync monitoren verkocht worden en dat wanneer AMD in de buurt komt ze daarmee in het nadeel zijn, ineens werken mensen hun schermen beter met AMD kaarten dan hun vorige Nvidia.

Daarnaast komen er nu ook TV's uit die adaptive sync ondersteunen, alleen Nvidia zou dat dan niet ondersteunen. Dat is natuurlijk een gemiste kans en geen enkele TV fabrikant gaat G-Sync modules inbouwen.
Dus dat zou betekenen dat in principe alle Freesync schermen zouden moeten werken met G-Sync. Voorde laatste tier is het natuurlijk de vraag of het lekker werkt, maar de middelste (en dus die 12 en counting) zou dus goed moeten werken.
Hopen dat het snel wordt uitgebreid.
Wellicht nu geen reden meer om over te stappen, tenzij je een hoger dan gemiddeld moral hebt.
Want waarschijnlijk zonder dat AMD deze open standard (gratis) in hun pakket had Nvidia er waarschijnlijk nog nog voor langere tijd mee wegkunnen komen, de concurrentie van AMD heeft dit mogelijk gemaakt.
Nadeel voor Nvidia is dat mensen AMD kaarten kopen zodat syncing wel werkt met hun huidige scherm (of ze een stuk minder duur scherm hoeven te kopen). Daarnaast kunnen ze nu ook op de dozen pronken met nog een standaard dat ze ondersteunen.
OF mensen kunnen nu meer open staan om een Nvidia kaart te kopen ipv AMD. Ik weet dat dit voor mij wel geldt iig. Heb al ene tijdje een freesync monitor maar was aan het wachten op een kaart die vergelijkbaar was met de 1080 van het amd kamp wat waarschijnlijk pas de Navi reeks zou worden.
volgens mij heb je al OC Vega 56 of stock Vega 64 die net zo goed dan wel beter performen dan een 1080? waarom wachten? die kaarten zijn al meer dan een jaar uit.
Prijs is te hoog icm het stroomverbruik. Of dr prijs moet lager of het stroomverbruik. Hopelijk komt daar in 2019 verschil in.
Stroomverbruik? Boeit het jouw wat die gpu verstookt gedurende 1-2 uur per dag dat je gamed? Het is niet dat je gpu continue 300+W verstookt als je YouTube aan het kijken bent ofzo. Vind het argument van stroom verbruik van een onderdeel altijd dikke onzin, als je afgelopen paar jaar een nieuwe unlocked Intel cpu koopt met een tdp van 95W weet je ook als je standaard turbo aanzet hij minimaal 130-150W verstookt.... Koop je die cpu dan ook niet omdat hij teveel verbruikt? Die nieuwe RTX kaarten zijn ook niet zuinig in hun turbo boost en dan zijn deze nu nog begrensd in hun power limit.
Als je de rekensom maakt tussen stock vega 56 en 1070ti is het stroomverbruik verschil 45W en als je per dag 8 uur doet gamen is het extra verbruik van een vega 56 op jaarbasis 132,4 kWh oftewel €32,85. Bij iets meer realistisch scenario van 3 uur per dag gemiddeld zit je op €12,32 op jaar basis. Sorry als je hierover moet gaan liggen zeuren moet je maar overstappen op een console....

Aanschaf prijs is wat van te zeggen HIER in Nederland waar de voorraad altijd laag is geweest van de vega, als je kijkt in Duitsland of de VS zie je toch andere prijzen en beschikbaarheid, een vega 64 kon je tot voor kort gewoon rond de 550 (Sapphire Nitro) wat vergelijkbaar was met de gtx 1080 prijs bij voldoende voorraad, laat de vega 64 nu ook betere performance hebben dan een gtx 1080, wel hoger stroom verbruik mja.
De vega 56 is nu vergelijkbaar met een 1070ti oftewel RTX 2060 en de vega 56 kan je gewoon kopen voor €370. Probeer daar maar eens een nieuwe 1070ti voor te krijgen nu.

Edit:
De reden dat GeForce dus nu freesync gaat ondersteunen is Waarschijnlijk om deze reden om de mainstream markt naar zich toe te trekken, waar het meeste geld zit. Waar als je nu 1080p wilt gamen adaptieve sync de beste keuze een RX580 of vega 56 met een goedkope freesync 1080/1440 monitor (is vaak tot €300 goedkoper dan g-sync monitor en GTX1060 / 1070(Ti) )
De timing van CES vind ik ook verdacht, vandaar dat Nvidia NAVI niet vertrouwd.

[Reactie gewijzigd door Richo999 op 7 januari 2019 17:32]

Nee stroomverbruik is wel wat van te zeggen. Zeker als het een videokaart betrrft waar je minimaal 6 a 8 jaar mee wilt doen. Daarnaast op je vraag of dat boeit; klaarblijkelijk wel voor menigeen, aangezien je zelf erkent dat er meerderen zijn die deze gedachtegang van mij delen.
6-8 jaar met een gpu 8)7 ? Wow, mijn gpu mag al blij zijn als ie 3-4 jaar red en 4 jaar is maar 1 keer voor gekomen en dat was bij mijn Fermi waarna het snel gegaan is van Maxwell, Pascal en nu vega. Vind 4 jaar al erg lang voor een gpu.... 6 jaar voor cpu lukt mij al niet. Maar dat terzijde stroom verbruik op een pc heeft mij nooit geboeid, het is een hobby en dan vindt ik stroom verbruik wel het minst belangrijke aspect van een aankoop. Zal ik eerder besparen op andere dingen die wel de moeite waard zijn. €12 op jaar basis als dat het toch is. Maar jij disabled dus ook turbo boost op je cpu? Want voor 5% extra performance kost je namelijk 40% meer stroom, zelfde geld voor je gpu heb je daar ook je turbo uit staan? Je geheugen heb je ook xmp uitstaan namelijk? RGB verlichting staat ook uit? Dit kost namelijk allemaal extra stroom hé.... Denk dat je met het uitschakelen van al die onzin meer per jaar bespaart en er verder weinig van merkt in games. Maar laten we het helemaal makkelijk maken, koop je een Dell van €350 voor je internet dingetjes en koop een console die verbruiken namelijk maar zo rond 160-180W + 110W van je tv zit je op max 290W tegenover verbruik van 350-400W van je game pc. Dit scheelt je namelijk €75-108 per jaar op je stroom rekening.(op basis van 8 p/day gaming, deel door 2,6 en je realistisch te kijken)
/Troll

Nu ff serieus, zie wat het verschil is als je even gaat tellen. Uiteindelijk is het verschil niet zo veel, ja op 8 jaar tijd is het verschil bijna €100,-.... Maja als je daarover moet gaan liggen muggenziften heb je ergens iets verkeerds gedaan in mijn optiek.
Om af te sluiten begrijpen mensen niet hoe stroomverbruik werkt 300W staat niet gelijk aan de prijs van 1 kWh.
1 kWh staat gelijk aan 1 kW verbruik gedurende 1 uur (3600 seconde).
1 kW = 1 kJ/s en 1 kWh = 1 kJ * 3600. (3600kJ)
Honderden euro's is niets? Wees liever stil als je niets nuttigs te zeggen hebt hierover. Hou liever op met het bagateliseren van wat ik zeg. Je hoeft je niet in te leven in mensen die mijn mening delen. Weet gewoon dat er zat mensen die deze delen en je levert zelf bewijsstukken dat dit gegronde redenen zijn. Dus tja...
waar zeg ik honderden euro's? ik zeg op 8 jaar tijd kost het je net geen €100 aan stroom, want dat is het verschil tussen die 2 GPU met de huidige energie prijs in het meest ongunstige geval voor de Vega 56 (laten we natuurlijk ook ff toevoegen dat die vebruikte energie in warmte omgezet word die jouw kamer verwarmd). Dus ja ik noem dat onbelangrijk, je verwarming 1°C lager zetten levert je meer op :Y)
Inderdaad lever ik gegronde bewijsstukken aan die bewijzen hoe mensen liggen te muggen ziften over een niet noemenswaardig detail. Daarnaast lever ik ook bewijs aan dat jij je gaming pc linea recta de vuilbak moet ingooien omdat die teveel energie slurpt, een playstation of Xbox is de betere optie aangezien die veel minder energie verbruiken. *zoekt hippie emoticon*
en om af te sluiten, ik zet mijn verwarming lekker uit als ik ga gamen, mijn PC blaast dan ff tegen de 700W aan warmte mijn kamer in (hulde aan mijn 5930K en Vega 64! :+ ) en in de zomer tja dan zet ik er wat lavastenen bij en water en heb ik een goedkope sauna :9~
Ok. Leuk voor je. Kan me niet herinneren dat ik gevraagd heb om fictie van jou betreffende dit onderwerp.
Gokje: De ‘G-Sync aanpak’ pakte toch niet zo lucratief / strategisch voordelig uit als Nvidia hoopte.

Ik kan me voorstellen dat te weinig mensen de hogere prijs wilden betalen, het voor monitor-fabrikanten te duur en te veel risico voor te weinig omzet was.

Ze zullen wel marktonderzoek gedaan hebben en gezien dat er juist meer mensen voor AMD kiezen vanwege goedkopere gesynchroniseerde monitor of zo.
Ik denk dat het er meer mee te maken heeft dat tv's met vesa adaptive sync nu echt breder op de markt gaan komen en als Nvidia die tv's niet ondersteunt dan kan dat ze aardig pijn gaan doen.
Klinkt plausibel, dat wist ik nog niet.
Hoe vaak sluiten mensen hun gamepc/laptop aan op de tv die groep is erg klein, en indien ze eventuel in console hardware komen zouden special voor die consoles die open-source code kunnen implementeren, dus ik denk niet dat dat het is.
ja daarom had ik een amd kaart gekocht
Als je het blog leest dat GreNade heeft gepost, dan lees je daar een beetje hoe nVidia de toekomst van G-Sync ziet. Het lijkt erop dat het meer en meer een soort kwaliteitsstempel gaat worden.

Ik vind het overigens een hele goeie start van het nieuwe jaar, ik heb een fantastische monitor die alleen maar Freesync ondersteunt. Die staat nog niet in de lijst, maar zoals ik het leest, kan ik Adaptive Sync vanaf de 15e wel gewoon inschakelen in de driver.

Misschien probeert nVidia hiermee weer wat zieltjes terug te winnen, na het redelijk teleurstellende RTX verhaal.

[Reactie gewijzigd door KneoK op 7 januari 2019 09:01]

Ah, nou die richting zat ik ook al op te denken, maar had nog niet de tijd gehad om hier daadwerkelijk informatie over op te zoeken.

Ik ben het volledig met je eens, ik vind het ook een goede start van het nieuwe jaar. Ik zit al tijden te twijfelen over een nieuw beeldscherm, waarbij G-sync of Freesync toch wel echt een must is. Gezien G-sync schermen - over het algemeen - duurder zijn, ben ik erg blij met deze ontwikkeling! Nu nog even uitzoeken of deze 12 schermen in mijn eisen en wensen vallen.
Vrij weinig fabrikanten bouwden die g-sync erin. Te weinig waarschijnlijk. Vooral de goedkopere schermen niet en dat zat ze waarschijnlijk dwars want met AMD kon vrijwel iedereen tegenwoordig een freesync scherm krijgen.

[Reactie gewijzigd door Martinspire op 7 januari 2019 09:14]

Aandelen zijn erg gezakt, aandeelhouders zijn niet blij en veel negatieve exposure door consumenten en reviewers mbt RTX. Heeft een beetje met "saving face" te maken. Goed in nieuws willen komen.

[Reactie gewijzigd door NosferatuX op 8 januari 2019 05:04]

Jeetje wat een goed nieuws sinds tijden uit Nvidia's stal. Heb nu bijna een jaar de pricewatch: Samsung C32HG70 Zwart gekregen van mijn vrouw. Echter ben ik genoodzaakt om bij AMD te blijven. Op zich geen problemen mee, maar de huidige videokaart generatie loopt wel mateloos achter. Ik wacht nu dus al een tijd op de nieuwe AMD kaarten, maar nu kan ik dus een overstappen naar Nvidia. Hoop dat FreeSync 2 wel ondersteunt :P
Op zich geen problemen mee, maar de huidige videokaart generatie loopt wel mateloos achter.
Ik ben het met je eens dat het ondersteunen van Freesync door Nvidia goed nieuws is, ook klopt het dat Nvidia voorloopt op AMD met de top in de videokaarten. Maar mateloos achterlopen is niet juist. Alleen als je een 1080Ti, 2070, 2080, 2080Ti of Titan overweegt kan AMD niet mee komen. En de markt voor dat segment kaarten is slechts heel klein. Zeker nu de videokaarten markt weer wat rustiger is geworden nu de mining gekte over is en je dus voor een normale prijs een kaart kan kopen kan AMD tot en met de 1080 prima meekomen.
VEGA64 verslaat de 2070 regelmatig, helemaal als het geen Nvidia works games zijn (games geoptimaliseerd of kruppelgemaakt om slechter te lopen op beid bij maar in het voordeel van Nvidia). En dat zijn testers die nog niet van unvolten weten. (mijn eigen undervolt is ~5% verbetering zonder enige andere vorm van overclock)
Hoewel ik blij ben dat Nvidia EINDELIJK Adaptive Sync gaat ondersteunen vraag ik me wel af wat er precies gecertificeerd moet worden? Adaptive Sync zit al ingebouwd in alle FreeSync en Gsync schermen en ook in alle Nvidia kaarten dus het zou toch eigenlijk alleen een kwestie zijn aanzetten en klaar is Kees?
Nvidia wil waarschijnlijk de indruk wekken dat het een inferieure techniek is. Dat je al veel geluk moet hebben om een goede implementatie te vinden.

Bovendien wekken ze zo de indruk dat kwaliteit voor hen nummer 1 is.

En vermoedelijk zullen de schermen van “bevriende” bedrijven zijn :-).
Dat noemen ze marketing :)
Zie mijn reply hier Rin in 'nieuws: Nvidia ondersteunt vanaf 15 januari Adaptive Sync op twaalf m...

Niet alle schermpanelen syncen daadwerkelijk goed.

Freesync problemen https://www.youtube.com/r...y=freesync+flicker+issues

[Reactie gewijzigd door ZeroNine op 7 januari 2019 10:20]

Heb je het filmpje überhaupt zelf bekeken. In de update staat dat het aan de dp kabel lag.
Had even snel een filmpej gezocht met de flicker issues/blinking issues. Al vervangen voor een ander
Uit het artikel haal ik het volgende:
Nvidia's eigen G-Sync-techniek vereist behalve de certificering van Nvidia ook aparte hardware in het scherm, wat de G-Sync-monitoren een stuk duurder maakt dan FreeSync-schermen, die de open standaard van de vesa ondersteunen.
Dus hun gebruiken niet de standaarden van Gsync, waar dus meer voor vereist is.
Mooi dat ze dit doen. Maar is opzich wel zuur voor de mensen die een duur G-sync scherm hebben gekocht (like me, dik een jaar terug.) En nu krijgen we te horen dat Free/Adaptive sync ook ondersteund gaat worden. Nu weet ik dat G-sync in sommige gevallen superieur is, maar toch is het zuur voor de mensen die extra hebben betaald voor G-sync ondersteuning in hun monitor en dat er nu een goedkoper, bijna net zo goed alternatief komt. Beetje zonde van het geld.

Wel goed dat NVidia dit doet. Hopelijk faseren ze dan in de loop der tijd G-sync uit in het voordeel van Adaptive Sync. Misschien gaan ze zelfs bijdragen leveren om Adaptive Sync-standaard te verbeteren. Wie weet... Hopelijk gaan hierdoor de prijzen van G-sync schermen wat omlaag.

[Reactie gewijzigd door mrtnptrs op 7 januari 2019 10:05]

Ik verwacht zelf dat ze doorgaan met Gsync Ultimate. Maar dan zullen ze ook iets moeten bieden dat de meerprijs rechtvaardigt. Iets dat op een of andere manier een hogere kwaliteit levert dan de gemiddelde Freesync implementatie.
Gsync Ultimate staat voor Ultimate vendor lockin :+

Hopelijk wordt Gsync (Ultimate) nu ook vrijgegeven aan andere fabrikanten. Heb zelf een Asus ROG Swift PG27UQ, en die ga ik gezien de prijs voorlopig niet vervangen..
Heb zelf een Asus ROG Swift PG27UQ, en die ga ik gezien de prijs voorlopig niet vervangen..

Dat is ook de bedoeling volgens Nvidia, zodat je de volgende keer weer een Nvidia videokaart koopt.
Met een hogere prijs hangen ze meer waarde aan het product.. Zo gaat de consument dan ook denken. Dus koppel verkoop.. Door het ene te kopen, koop je weer het andere..

[Reactie gewijzigd door Robin4 op 7 januari 2019 18:45]

Freesync komt nu ook al in de Linux kernel, de komende release. Mooi om te zien dat dit van alle kanten vaart krijgt. Elk OS (? weet niet of Apple meedoet), elke GPU bakker, gewoon alles. Erg mooi.

Alleen jammer dat mijn kaart te oud is (GTX780). Maar goed, ik heb ook nog geen Freesync scherm. Die kaart upgrade ik wel wanneer ik in een verre toekomst zo'n scherm koop.

[Reactie gewijzigd door Amanoo op 7 januari 2019 10:38]

Welke Kernel heb je het over? Sinds vannacht is 5 RC1 uit :D
Weet je toevallig of ik hier dan ook een nieuwe nvidia driver voor nodig heb in Linux of dat dit gaat werken met de huidige of zelfs open drivers op nvidia kaarten?
Het is inderdaad 5 RC1 die Freesync aan boord heeft. Ik gok dat je wel een nieuwe Nvidia driver nodig hebt. Deze support is alleen voor AMD kaarten (wellicht was ik daar niet helemaal duidelijk in). AMD is deels open source en heeft drivers in de kernel, in tegenstelling tot Nvidia waarbij je proprietary drivers moet installeren. Freesync zal ook nog naar de Linux drivers moeten komen, maar aangezien Gsync naar mijn weten ook in de Linux drivers zit van Nvidia, en de drivers doorgaans van vrij hoge kwaliteit zijn, verwacht ik dat Freesync ook wel ter zijner tijd naar de Linux Nvidia drivers gaat komen. Open source drivers durf ik niet zo te zeggen. Die zijn vrij prut, veel reverse engineering en zo. Scheelt denk ik wel dat Freesync open source is. Op zich moeten ze het wel kunnen implementeren. Maar eigenlijk gebruik je altijd wel de proprietary drivers bij Nvidia.
Heb een AOC 2590 PX... vraag me af of die dan net zo goed als de FX werkt.
Het enige verschil tussen de 2 monitoren de USB hub en ergonomie van de standaard.
Al zeggen de specs op de tweakers vergelijking wat anders.
Maar die zijn niet perfect, de BenQ XL2740 die in de lijst van NVIDIA staat, heeft volgens tweakers en de specs van BenQ trouwens ook geen Freesync ondersteuning, tenzij BenQ het weer anders noemt.
Als je een open standaard implementeert dan ondersteun je toch gewoon Freesync en werkt dit op alle monitoren die dit ondersteunen ongeacht bereik, merk, type etc. of zie ik dat verkeerd?
Of wordt het weer een halfbakken implementatie waarbij ze bepaalde "vriendjes" gaan voortrekken.

[Reactie gewijzigd door Cowamundo op 7 januari 2019 09:07]

Zoals nVidia het nu brengt, werkt het ook op alle monitoren die Freesync (Adaptive Sync) ondersteunen. Alleen voor monitoren die door de kwaliteitscontrole komen bij nVidia, staat het standaard aan in de driver. Als een monitor niet getest is, of niet door de controle is gekomen, kun je Adaptive Sync alsnog gewoon handmatig inschakelen.
Het mocht een keer tijd worden, alleen wel raar dat er slechts een aantal monitoren ondersteund worden aangezien het een implementatie van een "open standaard" is...
Dat zoals in de keynote ook getoond werd niet alle schermen ook daadwerkelijk goede resultaten neerzetten. Freesync/opensync is zo enorm variabel. SOmmige panelen kunnen alleen syncen in de range van 50 tot en met 70hz bijvoorbeeld, heeft artifacts zoasl blinking en pulsing terwijl een ander weer 40 tot en met 165hz flawless deed zonder artifacts. bij Gsync was dit overal gewoon perfect, geen issues gewoon in pluggen en het werkt zonder artifacts. Dit kwam gewoon omdat ze alle tuning verwerkt hadden in hun Gsync modules dat dan ook nog eens een goede scaler bevatte voor lagere resoluties dan native.

Op papier klinkt Freesync/open sync hetzelfde als Gsync maar in de praktijk was dit verre van het geval. en de Freesync panelen die wel goed waren, waren vaak de Gsync schermen zonder de module en in een iets goedkopere behuizing maar qua prijs nogsteeds in diezelfde range, vaak 100 euro goedkoper maar niet meer dan dat.

Had wel graag ook compatibiliteit gezien van Radeon kaarten op Gsync monitoren om de laatste drempel weg te nemen.
Ik heb zelf een G-Sync scherm (Asus ROG PG278Q) en die knippert wel op lage framerates... Dus ik zie geen goede reden om niet gewoon alle freesync monitoren te ondersteunen.
Dat is wanneer de beelden zodanig laag worden datje de individuele beelden gaat zien. Ik heb het over momenten dat je dit op alle framerates hebt zelfs op hoge en zelfs zo erg dat je zwarte intervals ziet.
Wij hebben het over hetzelfde, bij ~30fps zie ik mijn scherm achtergrondverlichting knipperen.
Ik weet niet hoe dat tegenwoordig is, de PG278Q is al weer wat ouder (een van de eersten afaik)
Nee dat hebben wij niet. als jij je refreshrate op 40hz of lager zet zie je dezelfde flikkeringen die jij bedoelt. (Ik heb hetzelfde paneel overigens maar dan in de Acer zitten). Het gaat erom dat je sync errors ziet op alle fraemrates in een game en in sommige monitoren zelfs zwarte intervals ziet.
Toch kunnen amd gpu's die freesync schermen wel probleemloos aansturen. Aan wie ligt dat dan?

De marketingmachine van nvidia is niet altijd even netjes, en ik denk dat dat hier het geval is.
https://www.youtube.com/r...uery=gsync+flicker+issues

He kijk nu, it just works. Praatjes vullen geen gaatjes en gsync werkt blijkbaar ook niet altijd goed.

freesync is geen ramp en gsync is geen wonder. 100 euro is toch rustig 20% op een monitor van 500 euro en ik vraag me af hoeveel mensen 500 euro overhebben voor een monitor.

Op dit item kan niet meer gereageerd worden.


Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 Cartech

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True