Intel zegt nog steeds VESA Adaptive-Sync te gaan ondersteunen

Intel heeft opnieuw aangegeven dat ondersteuning voor VESA's Adaptive-Sync in de pijplijn zit, drie jaar na de eerste bekendmaking dat die ondersteuning op komst is. Details geeft het bedrijf verder nog niet.

De bevestiging dat de ondersteuning voor VESA's Adaptive-Sync nog steeds op komst is, komt bij monde van Chris Hook. Hij is sinds april hoofd Discrete Graphics and Visual Technologies Marketing bij Intel. Daarvoor werkte hij als marketingtopman bij AMD. Een Reddit-gebruiker vroeg Hook ernaar en publiceerde de bevestiging vervolgens met toestemming online.

Verdere details geeft Hook verder niet, alleen dat hij groot fan is van Adaptive-Sync. De techniek is gebaseerd op AMD's FreeSync-standaard, voor het met een variabele verversingssnelheid aansturen van monitoren om tearing en stuttering te voorkomen. VESA heeft FreeSync onder de naam Adaptive-Sync opgenomen in de displayport 1.2a-standaard.

Al in 2015 maakte Intel tegenover Tech Report bekend Adaptive-Sync te gaan ondersteunen. Niet bekend is waarom het zo lang duurt en wanneer de ondersteuning dan wel te verwachten is. De ondersteuning zou een flinke duw in de rug van de standaard zijn. Nvidia heeft zijn eigen technologie in de vorm van G-Sync, al lukte het recent om FreeSync werkzaam te krijgen met een GeForce GTX-kaart.

Door Olaf van Miltenburg

Nieuwscoördinator

31-08-2018 • 14:33

75 Linkedin

Submitter: Sp3ci3s8472

Reacties (75)

75
75
67
6
0
0
Wijzig sortering
Het moment deze VESA techniek standaard wordt zal Nvidia hoogst waarschijnlijk mee gaan doen met het ondersteunen van deze techniek. Zeker aangezien Intel niet alleen IGP's gaat maken maar in 2020 ook met een eigen dedicated videokaart zegt te komen. Intel wordt dus naast AMD Radeon een directe concurrent.

Dit zal pas gebeuren wanneer de voor Nvidia lucratieve midrange markt voor Nvidia in gevaar komt. Even los van alle beperkingen die de steam survey heeft kent is het top lijstje:
NVIDIA GeForce GTX 1060 12.89% +0.15%
NVIDIA GeForce GTX 1050 Ti 9.89% +1.38%
NVIDIA GeForce GTX 1050 6.37% +1.55%
NVIDIA GeForce GTX 750 Ti 5.80% +1.32%
NVIDIA GeForce GTX 960 4.41% -0.41%
NVIDIA GeForce GTX 1070 3.66% -0.18%
NVIDIA GeForce GTX 970 3.14% -0.39%
NVIDIA GeForce GTX 1080 2.30% -0.13%
Tel even de drie nieuwste midrangers bij elkaar op en je komt op 29,15% van de steam markt. High-end pascal haalt nog geen 7% (1080 Ti ook meetellen). Juist op een mid-range kaart is een sync techniek snel interessant en dus een goed selling point. Tegelijkertijd is op dat prijspunt g-sync volledig onbetaalbaar. Dus wanneer in 2020 zowel AMD als Intel een concurrerende midranger neerzetten mét sync dan kan Nvidia haast niet anders. Midrange is immers veel te belangrijk om op te geven.

Maar de eis is dus wel dat de marktaandelen die er nu zijn dreigen te veranderen. Voorlopig kan Nvidia het veroorloven om betaalbare sync te negeren.

[Reactie gewijzigd door sdk1985 op 31 augustus 2018 14:59]

Dat is het al het zit al in Displayport 1.2a. Maar het is daar optioneel.
Daarnaast zit het ook in HDMI 2.1 maar kan het ook al over HDMI 2.0 werken.

nVidia houd het tegen omdat het 100-200 dollar voor zijn gsync modules vraagt en daar veel geld mee verdient + ze binden klanten. Klanten met een gsync monitor kopen eerder weer een nVidia kaart ipv een van Intel of AMD want dan werkt gsync niet meer.

Als Intel het gaat ondersteunen zou dat zeker een groot voordeel zijn. Dan komt er wel meer druk bij nVidia te liggen om het ook te gaan doen. Al zie ik het best gebeuren dat nVidia gewoon blij gsync blijft en Adaptive sync niet ondersteund gaat worden voor PC schermen. Misschien wel voor TV's maar ook daar hebben ze nu Gsync schermen voor uitgebracht van 55 en 65" geloof ik die 4000-5000 euro gaan kosten.
Ik was nog aan het schrijven.

Maar, ja Nvidia heeft op dit moment totaal geen reden om mee te doen aan Freesync of een variant daarvan. De omzet en winst cijfers zijn nog nooit zo goed geweest. Tegelijkertijd moeten AMD Radeon kaarten het met Steam marktaandelen als 0.42% voor de RX 480 doen. Dus ook al heeft AMD Radeon op papier een enorm voordeel door Freesync te beiden. In de praktijk komt het niet uit de verf.

Overigens verwacht ik dus een situatie, gegeven dat in ieder geval Intel een serieuze midranger op de markt zet, waarbij g-sync als premium merk blijft bestaan (net als Freesync 2) en er tegelijk adaptive sync ondersteuning wordt geactiveerd via de drivers. Maar alles staat en valt met het concurrerend vermogen van de andere bedrijven...
Schrijf je comment dan af voordat je post :P

Het klopt dat Nvidia inmiddels een dergelijke monopoliepositie heeft opgeeist dat ze hiermee wegkomen. Hetzelfde geldt voor (opnieuw) een prijsverhoging van de topmodellen; een GTX 2080 is wéér 100 dollar duurder dan de 1080, net als de 1080 weer duurder was dan de 980.

We weten allemaal waarom het bij AMD niet uit de verf komt: omdat er teveel gamers blind voor Nvidia gaan en weigeren AMD te overwegen, om wat voor reden dan ook. En omdat AMD niet het budget had om genoeg kaarten te produceren tijdens de mining-gekte, waar Nvidia naar verluidt zelfs met een overstock zit. AMD kan zoiets zich niet veroorloven.

Ik moet zelf nog zien of en wanneer Intel een serieuze videokaart op de consumentenmarkt weet te zetten. Meanwhile loopt Intel al jaren vast op 14nm waar TSMC al verder loopt. En het is nog totaal niet duidelijk op welk marktsegment Intel zich gaat focussen. Laten we hopen dat het ze lukt, want ondertussen laat Nvidia de adviesprijzen alleen maar verder oplopen. In combinatie met vendor lock-ins als G-Sync komen ze er nog mee weg ook.
Niet zozeer omdat mensen blind kiezen voor Nvidia. Laaste kaarten waren uitermate slecht leverbaar en wanneer je hem wel kon vinden was hij veel te duur.
Toen ik mijn 1070 kocht was er niks vergelijkbaars van AMD

Daarnaast heeft AMD een aantal jammerlijke missers gehad in het top segment en dat is blijven hangen bij veel mensen.

Daarintegen. Voor budget Pc's is AMD altijd heer en meester geweest ( 5 jaar geleden lekker een paar HD 5850's kopen voor bijna niks en bijna alles goed kunnen draaien was geweldig)
Daarnaast heeft AMD een aantal jammerlijke missers gehad in het top segment en dat is blijven hangen bij veel mensen.
nvidia had 4 generaties lang jammerlijke missers in het top segment, maar toch bleef hun aandeel stug ver boven de 50% hangen.
Tuurlijk heeft Nvidia ook missers gehad. Maar in vergelijking met AMD is in het algemeen het top segment beter geweest dan dat van AMD.

Dat mensen niet altijd het beste kopen is nou eenmaal zo omdat ze ( foutief ) er automatisch vanuit gaan dat als 1 product goed is het volgende ook wel goed moet zijn. En daar kunnen gebruikers de schuld van krijgen maar er is ook een aardig grote doelgroep die een product op branding en reputatie koopt omdat ze nou eenmaal niet erg veel verstand hebben van wat alle specs inhouden.

Je kan net zo goed zeggen dat AMD eigenlijk veel steken heeft gemist op het gebied van marketing en pr bij het verkopen van daadwerkelijk hele goede high-end videokaarten.


Tenminste, dat is hoe ik het zie. Ik kan er natuurlijk ook erg naast zitten.
Had... Bij de laatste kaarten kon je alleen bij Nvidia terecht als je een paar jaar vooruit wilde zonder zaken terug te schroeven. En daar heb ik zeker wat extra voor over. Ik ben zeker bereid een AMD te kopen, maar dan moeten ze me ook wat te bieden hebben.
Ja inderdaad en dat is ook heel erg jammer.
nVidia's marketing is gewoon super. Dingen zoals TWIMTBP hebben gewoon erg geholpen. En wat shady dingetjes waar de meeste gebruikers niet achter komen zullen ook wel mee helpen.
Zelfs die rampzalige GeforceFX hebben ze nog goed weten te verkopen :/
AMD heeft het ook wel een beetje aan zich eigen te danken hoor..

Precies op het moment dat je er slecht er voor staat in de markt, dan ook nog eens lopen te stunten met HBM2 geheugen waarvan de prestaties niet van bekend zijn en erg duur voor de markt waar je de kaarten wil aanbieden.. Waren ze voor GDDR5 gegaan, dan hadden ze wellicht meer kans gemaakt. Plus ook kwam VEGA veelste laat op de markt.. (het ding was bij introductie al weer zo wat verouderd.)

En toen vielen de watt / prestaties ook nog wel wat tegen, plus de kaarten waren fors duurder dan het nvidia aanbod..

Naderhand bleek ook dat VEGA niet echt op de gamers gericht was.. Dus feitelijk had AMD geen aanbod tegenover nvidia.
Een RX580 was opzicht een leuke kaart geweest.. Alleen niet zo snel als een GTX1080 8G die ik op dit moment gebruik..

[Reactie gewijzigd door Robin4 op 1 september 2018 04:31]

Nou nee nV en AMD radeon groep kunnen niet in de toekomst kijken dus hun planning komt pas jaren later tot uiting en wat de rest van industrie doet kan ook voor hun als verrassing komen.

Meestal bij brengen van nieuwe tech waar paar bedrijven mee komen zijn er andere bedrijven die met een alternatief komen en vaak legt de betere het loodje tegen iets wat kleiner stapje vooruit is maar stuk goedkoper. Innovatie is geen garantie op sucses.

Het probleem is dat AMD innoveert maar dat niet tot zijn recht komt.
Probleem van Vega met HBM2 is uiteraard de productie kosten en daarmee past HBM2 beste bij een top highend chip. Kwa productie is een top highend gewoon een ontiegelijk zo groot mogelijke chip .
Daar kan AMD al lang niet meer mee dus als stapje kleiner niet goed meekomt kon je met conventieneel geheugen gewoon naar upper midrange of performance klasse je product prijzen.

Maat door dure HBM2 ging die vlieger niet op.

Marketing is vooral geld kwestie bij gebrek aan. Ook gebrek aan marketing.
Het heeft geen zin om top marketing te doen als het de algehel R&D budged en meer weg neemt.
Geen kapitaal geen marketing. Nu AMD uit dal kruipt groeien de budgetten per afdeling ook. Maar resultaat daarvan is vaak ergens in de toekomst. AMD moet het even uitzingen.

Met beetje pech heeft AMD dus ook geen product in de planning met DXR DirectX extentie en zal nV nog zijn monopool positie verterken en verankeren.

Dit is allemaal het gevolg van achterlopen op procede dus 32nm highend van AMD vs intel 14nm
Omdat juist de OEM markten mobile en server markt ook sterk TDP/ performance gedreven zijn.
Dan komt pas architectuur en grotere afhankelijkheid van multithreading en ook weer de TDP.
Op een markt die tussen twee spelers verdeelt is moeten wij gewoon eens inzien dat de normale wetgeving rondom competitie bij lange na niet voldoet. Dit soort klantengijzeling moet je in die markten veel strenger verbieden zodat er tenminste nog de mogelijkheid op concurrentie bestaat.
Mensen kopen een midrange kaart omdat ze die hi-end niet kunnen veroorloven/te duur vinden.

Die paar honderd die ze meer moeten betalen voor een monitor kunnen ze hi-end voor kopen...

Daar heb je meer aan.

Ik denk dat het qua omzet wel mee zal vallen en mensen niet massaal 300 extra betalen.
Niet massaal maar er zijn er meer dan genoeg die wel een Gsync scherm kopen.
Net als dat er in mijn ogen verrassend veel mensen zijn die een Titan videokaart van 1000-1200 of zelfs 3000 euro hebben. Blijkbaar is er toch een markt voor. Dit is een relatief kleine groep maar het zijn er toch best wat.
Daar gaat het niet om want voor mij gaat het om 1 of 3 gkaartjes.
Dat er 10000? Een Titan hebben is veel tov 3 maar volume markt zijn miljoenen sales. Dus waar grote geld zit is in de midrange. En daarmee is klein groep betere term gezien vanuit nV perspectief. Dan cinsument die dat toch berg gkaarten vind.

Voor de game developers zijn de 1060 klasse veel velangrijker want gamesales zijn afhankelijk van hoe groot pak je de mainstream die Titans zijn zo on interresant zo ook excotisvhe features die kleine sub deel alleen hebben.
Daarvoor heb je agressief merk nodig die met afdeling langs de dev gaat en gameworks Cuda PhysX hun door de strot duwen.
Je hebt tegenwoordig monitoren met zowel freesync als G-Sync

Edit: nvm ik word gek

[Reactie gewijzigd door Gamebuster op 2 september 2018 10:25]

Zo ver ik weet bestaan die nog niet.
Ik zie graag een merk en type nummer als jij weet welke dat wel zou kunnen dan duik ik er in om te zien hoe dat zit.
Nvm ik word gek

[Reactie gewijzigd door Gamebuster op 2 september 2018 10:25]

Alleen koop je geen mid-range kaart om vervolgens een monitor aan te schaffen die eigenlijk €200 te duur is vanwege gsync.
Freesync (2) werkt exact hetzelfde en is ‘gratis’.

Ik zie maar heel weinig markt voor gsync en waarschijnlijk kopen alleen enthousiastelingen gsync.
Dat klopt inhoudelijk niet. De techniek werkt anders. In eerste instsantie werkte Freesync bijvoorbeeld niet bij lage framerates. Daar hebben ze later LFC voor bedacht. Echter LFC wordt door veel instap monitoren niet ondersteund, je hebt dan een hogere maximum frequentie nodig.

Persoonlijk vind ik de g-sync schermen ook heel erg duur. Maar dat is dus een bewuste keuze van Nvidia. Het gaat niet alleen om de module, ze keuren ook de panels (af) voor ze in productie gaan. Het is echt een kwaliteitslabel. Het uiteindelijke doel is natuurlijk geld verdienen. Gezien de prijzen is G-sync zeker niet voor iedereen.

Freesync 2 is overigens ook een premium merk, het is technisch exact hetzelfde als Freesync. Alleen bij Freesync 2 ben je als koper gegarandeerd van functies als LFC.

[Reactie gewijzigd door sdk1985 op 31 augustus 2018 14:57]

Persoonlijk vind ik de g-sync schermen ook heel erg duur. Maar dat is dus een bewuste keuze van Nvidia. Het gaat niet alleen om de module, ze keuren ook de panels (af) voor ze in productie gaan. Het is echt een kwaliteitslabel. Het uiteindelijke doel is natuurlijk geld verdienen. Gezien de prijzen is G-sync zeker niet voor iedereen.
De kwaliteit van een gemiddeld gsync IPS paneel is anders dramatisch. Ik heb er meerdere gehad en allemaal weer verkocht/geretourneerd vanwege massive backlight bleeding/dode pixels/artifacts en als kers op de taart oververhitte gsync modules.
Onzin. De techniek werkt precies hetzelfde; het protocol is vergelijkbaar en uiteindelijk heeft 't hetzelfde resultaat.

Het is waar dat een G-Sync monitor aan meer eisen moet voldoen, waardoor wat AMD nu met LFC heeft gedaan, altijd werkt met G-Sync omdat dit nodig is voor de certificering. Het blijft echter een feit dat een G-Sync monitor nog altijd 100-200 euro duurder is dan een Freesync monitor met LFC-support. En een monitor zonder LFC is al snel 200-300 euro goedkoper. Daarmee geef je de consument keuze :)

Sowieso vind ik persoonlijk dat je je af kan vragen of iedereen per se nog vloeiende framerates wil hebben onder de 48fps, maar dat terzijde.
Overigens omvat Freesync 2 ook kwaliteitsstandaarden aan de HDR-capaciteiten van een monitor.
Ook op hogere framerates oogt het beeld natuurlijk rustiger. Het is inderdaad de consistentie wat Gsync "beter" maakt. De ene Freesync monitor gaat maar van 50hz tot en met 75hz Freesyncen. De andere weer van 45hz tot en met 144hz. Fabriekanten zijn vaak dan ook niet erg duidelijk over de minimale framerates waar deze nog op kan syncen, dit is erg panel afhankelijk.

Maar wat dan ook nog eens een punt is, Gsync monitoren zijn vaak beter uitgevoerd qua behuizing. Bijvoorbeeld de Acer Gsync monitoren komen met een stevige stand met metale voeten, de Freesync varianten goedkoop plastic. Asus Gsync monitoren ook weer met een zeer deftig uitgevoerde stand en dan ook ngo eens met RGB, de freesync varianten weer in plastic etc. Daar zit dan ook een groot deel van de meerprijs in. Uiteindelijk vond ik die 800 euro van mijn Gsync monitor het meer dan waard, gebruik het nu toch al 3 jaar en zal deze nog een langere tijd gebruiken. Al heb ik later opeens een AMD kaart is, is het naast het gemis van Freesync het verder nogsteeds gewoon een erg goede monitor (1440P, 165hz IPS Acer XB1 Gsync monitor).
Welk argument je er ook tegenaan smijt, je komt niet om het feit heen dat G-Sync een gesloten standaard is. De implicaties hiervan zijn dat de techniek veel minder bereikbaar is dan FreeSync. Je techniek kan nog zo goed werken, als het voor bijna iedereen in de vitrine blijft staan, heeft men er niets aan.

Een aantal punten voor FreeSync vs G-Sync:
  • Er zijn 256 FreeSync monitoren; er zijn maar 49 G-Sync monitoren.
  • Xbox en PS zullen FreeSync ondersteunen; geen enkele console krijgt G-Sync ondersteuning.
  • Een aantal (Samsung) TVs ondersteunen nu al FreeSync; een paar TVs zullen G-Sync ondersteunen, maar die zijn voor bijna iedereen onbetaalbaar en het verschil in het aantal modellen zal nog groter zijn dan op de monitoren markt.
  • Intel iGPUs zullen FreeSync gaan ondersteunen (Intel iGPUs domineren de markt voor laptops); het markt aandeel van G-Sync laptops zal dan niet te vergelijken zijn.
Dit allemaal omdat FreeSync gratis is, en via OTA zelfs op een later tijdstip kan worden toegevoegd, zoals wij al hebben gezien bij TVs en game consoles.

Overigens is de "G-Sync een premium ervaring over FreeSync" kreet onzin. Er zijn een aantal FreeSync monitoren die van dezelfde kwaliteit zijn als de G-Sync tegenhangers. Voorbeeld: Acer Predator Z321QU en de Asus ROG Strix XG32VQ. Beiden hebben zeer waarschijnlijk hetzelfde Samsung SVA LSM315DP01 paneel, en de afwerking ziet er even lux uit (eigenlijk ziet het FreeSync model er luxer uit, ondanks dat die veel minder kost).
Ja er zijn dan nog geen FALD monitoren met FreeSync, maar de enige reden waarom die monitoren G-Sync hebben is niet omdat G-Sync in de praktijk zogenaamd superieur is, maar omdat fabrikanten weten dat mensen die een 2k monitor kunnen betalen, alleen een high-end videokaart zullen gebruiken, en AMD geen aanwezigheid heeft in dat segment.

Het enige waar de markt op wacht is dat AMD weer een comeback maakt en Intel succesvol de markt betreedt. Zodra zij de midrange markt van Nvidia kunnen stelen, zal niemand er rauwig om zijn dat G-Sync met pensioen zal gaan.

G-Sync kon mooi zijn, als Nvidia het royalty free had gemaakt en AMD toeliet het te gebruiken. Of op zijn minst had Nvidia nu allang naast G-Sync ook FreeSync kunnen ondersteunen vanaf de videokaarten. De realiteit is dat Nvidia simpelweg niets om jou geeft als klant. Zij maken een bewuste anti-consument keuze om hun markt positie te misbruiken en zich aan jou te binden (je zal veel minder snel terug naar AMD of Intel gaan als je een 800€ G-Sync monitor hebt gekocht die niet compatibel zal zijn met AMD of Intel). Dit binden zorgt dus dat concurrenten minder markt aandeel kunnen terugnemen, waardoor Nvidia hun prijzen hoger kunnen houden, en jij dus niet alleen meer betaald voor G-Sync over FreeSync, maar ook nog eens meer over je videokaarten.

Als je met al dit G-Sync het nog steeds waard vindt over FreeSync, dan pardon, maar dan ben je knettergek.
Ik ontken dan toch ook niet dat Gsync geen gesloten standaard is? Dat is het namelijk maar er zijn wel randvoorwaarden die het wat mij betreft ergens rechtvaardigen. Het is hun eigen walled garden en als je dat niet wilt hoef je het niet te kopen.

Dat er meer freesync monitoren zijn is niet raar, de kwaliteit loopt extreem uiteen van non high refresh rate monitoren tot high refresh rate gaming monitoren. Terwijl Gsync alleen het laatste betreft. Dat is dus deel van het Gsync verhaal, je krijgt een high refresh rate monitor ten allertijde (op de eerste gen 4K 60hz Gsync varianten na).

Wat maakt het uit dat consoles Freesync gebruiken? Is toch logisch? Het zijn gewoon AMD pc's in een console box. Alsof dat verder invloed heeft op de PC gaming markt. Intel GPU's zijn voorloping nog niet echt gaming ready en voor productivity is het veel makkelijker een refresh rate vast te houden. Dus ook nog geen toegevoegde waarde.Het is maar de vraag nu juist of AMD weer competitief kan zijn op de GPU markt (wat ik overigens wel hoop voor de prijzen van GPU's). Kan je nu wel leuk een high end freesync monitor kopen maar tot nu toe lopen de GPU's van AMD een generatie achter, oftewel zit je met een mooi scherm maar verouderde GPU).

Dat je daar een +2 voor krijgt......Je komt met een vergelijkings link van een Acer Gsync monitor en een Asus Freesync monitor waar jij de Asus variant mooier van vindt. Heb je naar de voet en afwerking van de Asus Gsync monitoren gekeken? Die zijn van metaal vs plastic bij de Freesync varianten. Ga dan wel modellen binnen hetzelfde merk en lineup vergelijken aub.

Om het even the visualiseren zodat er geen misverstand kan ontstaan.

Dit is de afwerking van de voet bij de Freesync varianten op 1 model na die dan bijna net zo prijzig is (niet verkrijgbaar in NL) https://prod.scorptec.com.au/18/991/70659/146509_large.jpg

Dit is de afwerking bij de Gsync varianten https://dyw7ncnq1en5l.clo...6/16929/asus-pg27uq-5.jpg

Dat er een meerprijs op zit vanwege de module staat buiten kijf, maar dat is niet het totale plaatje.

Je kan het anti consument vinden maar bij elk bedrijf is de main objective winst maken en dat doet Nvidia nu beter dan AMD. De koploper heeft nogal snel de neiging om zo de markt te beschermen, AMD zou precies hetzelfde doen als de rollen omgedraaid waren. Meer betalen voor videokaarten? Tot nu toe was de laatste high end AMD kaart de Vega 64 bijna net zo duur als toen de 1080ti maar een pak langzamer en meer als een normale 1080. Naar mijn mening ben je dan wel gek als je de Vega 64 gekocht zou hebben.

Uiteindelijk blijven het meningen. Presenteer dit dan ook niet meteen als feiten. Ik heb die 200 euro er wel voor over om de redenen die ik boven neerzette, jij niet en dat is verder prima.
Ik zie twee achterkanten die gelijkwaardig zijn afgewerkt, of was dat ook het punt?
Dan kijk je niet goed en raad ik je aan om ze in de winkel te bekijken. De freesync voetbasis is plastic, de gsync metaal. De gsync variant heeft een vosting over de scherm achterkant en de freesync is gewoon gegoten plastic.
De Nvidia-indoctrinatie zit diep geloof ik :P kom op zeg. Er zijn inderdaad talloze monitoren die van 48hz tot 75hz gaan, maar dit kan je met een kléín beetje zoekwerk prima zelf vinden. Daarnaast: zo'n 48-75hz monitor is vaak letterlijk even duur als een paneel zonder een sync-techniek. Je mist dus helemaal niks op zo'n scherm.
In de 144hz-prijsklasses is het vaak prima aangegeven wat de minimale framerate is. En dan nog: als je in deze prijsklasse shopt en op die framerates focust, ga je toch geen games spelen die framedrops naar onder de 50hz vallen? Dan stel je je game toch anders af zodat je rond de 100hz haalt?

Ook de behuizingskwaliteit is een achterhaald principe. Vroeger kon je er als fabrikant natuurlijk niet mee weg komen om een 800 euro in cheapass plastic te duwen, maar een gelijk gespect paneel voor 500 euro kan best ietsje goedkoper uitgerust worden inderdaad. Tegenwoordig heeft ASUS een paar modellen die zowel met Freesync als G-sync verkrijgbaar zijn en daar is het enige verschil toch echt de prijs ;)
Het mooi van x-sync is dat je de vrijheid hebt om zowel die competitieve shooter op 144 fps te spelen als een co-op game als wildlands op 50 fps. Juist op de hoge framerates vervalt eigenlijk het voordeel van x-sync. Op 144 fps is tearing al nauwelijks te zien, we praten dan over 6,9ms. Maar als je dan nog zelf een framerate limiter gebruikt om je frame rate te stabiliseren (msi afterburner of een andere riva tuner variant) dan heb je eigenlijk helemaal geen sync meer nodig. Zelfs op een 60 Hz scherm kun je met een framecap van 120fps met lage input lag en vrijwel geen tearing spelen.

Verder heb je wel een punt dat je het er toch gratis bij krijgt. Echter zou ik zelf toch echt de voorkeur geven aan een monitor die wel vanaf bijvoorbeeld 30 fps werkt :).
Daar heb je wel een punt. Al ben ik zelf een beetje allergisch voor <50hz; dan speel ik liever op high ipv ultra om toch aan die 60fps te komen :P Tuurlijk is een zo laag mogelijke minimale framerate wenselijk, maar uiteindelijk is het altijd een kwestie van: hoeveel wil je er voor betalen.

Op 144hz, waarbij de fallback 72hz is, kan je je inderdaad best afvragen of het echt nodig is.
Doe dan ook geen uitspraken als "De techniek werkt precies hetzelfde" want juist daar zit het verschil... Alleen merk je er als gebruiker inderdaad niet veel van (mits je een capabel Freesync scherm hebt).
Anoniem: 669783
@Richh31 augustus 2018 21:38
Je probeert nu bijna een religieuze discussie te starten. Nvidia is gewoon beter, maar ik gebruik vanwege AMD's consumentvriendelijkere insteek alleen nog maar AMD hardware. TDP's en aanbod in het high end segment van AMD zijn teleurstellend als het om GPU's gaat. Ze hebben met Ryzen een leuk aanbod CPU's op de markt gebracht. Nvidia gijzelt de klant, AMD heeft zelfs een promotiefilm moeten lanceren toen Nvidia klanten wou locken met games aan GPU vendors. Het is gewoon de spuigaten uit gelopen. Elke slimme consument koopt gewoon AMD. Niet omdat het beter is, maar gezonder voor de markt.

[Reactie gewijzigd door Anoniem: 669783 op 31 augustus 2018 21:40]

Indoctrinatie? Ik benoem gewoon feiten. Tuurlijk is er uit te vinden per paneel wat de range is, gaat er alleen om dat dit niet voor elke consument duidelijk is en alleen de titel "Freesync" ziet. Maar bij Gsync blijft alles qua kwaliteit erg dicht bij elkaar liggen, dat helaas tegen een meerprijs ja.

Daarnaast is het toch nogsteeds echt zo dat het gros van de Freesync monitoren goedkope ris uitgevoerd, zie bijvoorbeeld hier de range van Asus waar maar 1 echte high end Freesync monitor tussen zit (die overigens niet veel goedkoper dan ook is meteen dan de Gsync variant).

Hier die van Acer https://us-store.acer.com/predators/monitors

Vooral de scherm stand/voeten zijn bij al deze monitoren gewoon erg high vs goedkoop uitgevoerd.

Ik raad je aan om eens naar de winkel te gaan en gewoon met je vingers tegen wat van de scherm stands aan te tikken en gewoon je hand op te leggen, Metalen voeten vs goedkoop hol plastic. Betaal liever toch 200 euro meer voor het eerste in ieder geval en dan maakt mij het niet uit of het Gsync of Freesync is. Maar aangezien AMD al 5 jaar geen deftige GPU heeft kunnen uitbrengen voor laptops heb ik inderdaad sterk de voorkeur voor Nvidia.
Tja, je zal inderdaad één klikje verder moeten doen. Als je >500 euro gaat uitgeven, dan ben je vast bereid dat uit te zoeken. Anders moet je inderdaad op zoek naar het dure G-Sync stickertje.

Maar goed, ik neem mijn woorden terug. Ik weet dat er een hoop modellen zijn die zowel met G-Sync als Freesync verkrijgbaar zijn, waar het kwaliteitsverschil minimaal is omdat er grotendeels gebruik wordt gemaakt van dezelfde onderdelen. Maar ik heb er verder zelf geen ervaring mee; ik hang al jaren mijn monitoren op aan een verstelbare VESA-mount :P in deze prijsklasse zou ik dat sowieso adviseren, niet alleen voor kwaliteit maar ook voor bruikbaarheid.

Die voorkeur zal voorlopig nog wel zo blijven, want AMD heeft ook al 5 jaar lang niet het inkomen om serieus in die niche markt te stappen. Vega M is in principe ontwikkeld voor Macbooks en kunnen fabrikanten zo integreren in hun laptops, maar dat gebeurd niet vanwege het kip-ei principe. Al is ook dat niet op de klasse 1070/1080 waar je waarschijnlijk op doelt.
Fun fact: een laptop met G-Sync paneel is stiekem gewoon een Freesync-scherm; de G-Sync scalar zit niet in laptops ;)
De panelen zelf zijn inderdaad verder hetzelfde. Zelf is de voet voo rmij zeer belangrijk, heb verder geen losse vesa setup.

Klopt dat in laptops Gsync niks meer dan een bios oplossing is, wat enigzins wel jammer is, want hierbij (bij bijvoorbeeld Alienware) worden dezelfde panelen meegeleverd, maar moet er een meerprijs voor Gsync betaald worden (op de non optimus modellen).
Haal voor de grap eens een pricewatch: Arctic Z1 Basic voor nog geen drie tientjes. Zeker als je met een laptop werkt is dat zo veel fijner dan een voet, van wat voor materiaal dan ook. Ik denk dat je die premium monitor-voet er nooit meer onder gaat schroeven :P Zeker als je vanaf een laptop gamed (zelf werk ik vanaf een laptop) is zo'n hoger zwevende monitor ideaal.
Laat staan wat je van een duurdere monitor-arm zou vinden.

En die truukjes zijn precies de reden waarom ik géén voorkeur voor Nvidia heb ;)
ik hang al jaren mijn monitoren op aan een verstelbare VESA-mount :P in deze prijsklasse zou ik dat sowieso adviseren, niet alleen voor kwaliteit maar ook voor bruikbaarheid.
+1

Die voeten mogen ze wat mij betreft weglaten.
Die range beperking is meer irts van probleem van 1050ti met max setting aan gsync.
Dan 1080 aan gewone monitor waar je d setting aanpast voor soepele frame rate.
Werkt goed
De pro esport gamer heeft liever low settings met 144hz monitor waar meerwaad steeds subtieler wordt aan een 1080ti of titan.

Ik speel online op PSN op PC singleplayer en dan is als de FPS voldoende is beeld gewoon mooi dan ben ik tevree.

Zelf vind ik monitor een vastere investering dan gkaart dus daar zou ik meer in investeren en dan doet gsync er wel veel toe maar nV is niet mijn merk.
Zelf vind ik veel aanslyitingen belangrijker voor multimon met twee PC die elkaas monitor kunnen delen met tv ontvanger en consoles en apple TV en Mac mini eraan.
Onzin. De techniek werkt precies hetzelfde;
De techniek werkt heel anders:
Now for G-Sync. I'll start with at the high end (black dashed line). With game output >144 FPS, an ROG Swift sticks at its rated 144 Hz refresh rate and the NVIDIA driver forces V-Sync on above that rate (not user selectable at present). This does produce judder, but it is hard to perceive at such a high frame rate (it is more of an issue for 4k/60 Hz G-Sync panels). The low end is where the G-Sync module kicks in and works some magic, effectively extending the VRR range (green line) down to handling as low as 1 FPS input while remaining in a variable refresh mode. Since LCD panels have a maximum time between refreshes that can not be exceeded without risk of damage, the G-Sync module inserts additional refreshes in-between the incoming frames.
AMD lost dat later met LFC op, software matig dus.
Sowieso vind ik persoonlijk dat je je af kan vragen of iedereen per se nog vloeiende framerates wil hebben onder de 48fps, maar dat terzijde.
Overigens omvat Freesync 2 ook kwaliteitsstandaarden aan de HDR-capaciteiten van een monitor.
Je mist het punt van de sync techniek. In de oude situatie kon je een game spelen met v-sync. Dit zorgde ervoor dat de framerate gelijk blijft lopen aan de Hz van je monitor. In die tijd waren de meeste monitoren 60 Hz en zat je dus vast aan 60 fps. De grootste nadelen van v-sync zijn de input lag die ontstaat en de frame drops die je kunt krijgen. Immers wanneer je game net geen 60 fps kan halen dan zal de sync halveren. Kun jij 55 fps halen dan zit je dus vast aan 30 Hz/fps. Zo krijg je constant schommelingen tussen 30 en 60 fps.

Later is Nvidia met technieken als adaptive vsync gekomen waardoor de v-sync er eigenlijk gewoon eraf ging wanneer je de 60 fps niet haalde. Echter dan kreeg je dus ook weer tearing.

Met G-sync heeft Nvidia dat opgelost door de zaak om te draaien. In plaats van dat de videokaart op de monitor wacht, wacht de monitor op de videokaart. Elk frame veroorzaakt een refersh op het scherm. Omdat een monitor niet lekker werkt op bijvoorbeeld 30 Hz hebben ze een hardware matige doubler voor lage framerates ingebouwd. Het gevolg is dat zowel geen tearing meer hebt als dat elk frame op je monitor wordt weergegeven en dus je input lag probleem is verdwenen.

[Reactie gewijzigd door sdk1985 op 31 augustus 2018 15:51]

Je citaat bevestigt eigenlijk gewoon wat ik zeg. De techniek werkt precies hetzelfde in de basis. Ook AMD dwingt V-Sync af boven de hoogste framerate.

Wel heb je gelijk dat de VESA-standaard geen hardware heeft om frames te dupliceren, en dat AMD dit met LFC softwarematig oplost waar Nvidia dat in de scalar doet. Dat zou ik echter zeker niet kwantificeren als 'heel anders', het is maar een klein onderdeel van het principe. Laat staan dat het 'slechter' zou zijn; eigenlijk maakt het geen hol uit of de scalar dat doet of dat je videokaart een paar keer hetzelfde frame aanlevert. Ook jouw artikel (waarbij ze een oude demo bijwonen) zegt nergens dat een van de twee beter is.

Je uitleg over wat Freesync/G-Sync precies doet lijkt me nogal overbodig, dat snap ik wel. Nogmaals mijn stelling dan maar: "Sowieso vind ik persoonlijk dat je je af kan vragen of iedereen per se nog vloeiende framerates wil hebben onder de 48fps, maar dat terzijde." Daarmee bedoel ik dus: als jij een 100/144hz monitor hebt, dan streef je toch wel naar een framerate van >80 of >100fps. Iedere game heeft uitschieters in de framerate, dus naar 60 of 75fps zeg maar. Dat is nog altijd rúím boven de 48hz ondergrens die iedere Freesync-monitor haalt.

Overigens lijk je te stellen dat Nvidia met Adaptive Sync an sich is gekomen, dat is niet waar. De eerste G-Syncert kwam eind 2014 uit, terwijl Adaptive Sync midden 2014 al optioneel aan de VESA-standaard werd toegevoegd. Sowieso was dat al een langer bestaande standaard. Framecaps bestaan ook al jaar en dag.
Doelde op Adaptive Vsync: https://www.geforce.com/hardware/technology/adaptive-vsync Als ik me niet vergis kwam dat tegelijk met de 6xx serie, in 2012.
Tegenhanger is "Enhanced Sync" van AMD. Doet hetzelfde, vsync gaat aan op hoge refresh rates en uit op lager dan 60fps.

Helaas lijken Nvidia's Adaptive Vsync en VESA's Adaptive Sync erg op elkaar terwijl ze beide iets heel anders doen. Geeft verwarring bij mensen die niet al die termen kennen.
nvm
je had het over LFC ondersteuning in monitoren.

[Reactie gewijzigd door Crp op 31 augustus 2018 15:21]

What is FreeSync 2?
And this is where FreeSync 2 comes in. It’s not a replacement to the original FreeSync, and it’s not really a direct successor, so the name ‘FreeSync 2’ is a bit misleading. What it does provide, though, are additional features on top of the original FreeSync feature set. Every FreeSync 2 monitor is validated to have these additional features, so the idea is that a customer shopping for a gaming monitor can buy one with a FreeSync 2 badge knowing it’s of a higher quality than standard FreeSync monitors.

Both FreeSync and FreeSync 2 will coexist in the market. While the naming scheme doesn’t suggest it, FreeSync 2 is effectively AMD’s brand for premium monitors validated to a higher standard, while FreeSync is the mainstream option.
You’re not getting old technology by purchasing a monitor with original FreeSync tech, in fact the way adaptive sync works in FreeSync and FreeSync 2 is identical. Instead, FreeSync monitors simply miss out on the more premium features offered through FreeSync 2.
What are these new features? Well, it breaks down into three main areas: high dynamic range, low framerate compensation, and low latency.
Ik las je reactie in eerste instantie verkeerd,
maar LFC ondersteuning is later ook toegevoegd aan Freesync(1)
https://www.amd.com/Documents/freesync-lfc.pdf
https://www.anandtech.com...crimson-driver-overview/3

Met een Freesync 2 monitor garanderen ze deze ondersteuning, wat met Freesync(1) niet zo was.

[Reactie gewijzigd door Crp op 31 augustus 2018 15:29]

Keurt Nvidia de panelen van elke fabrikant die panelen maakt? Goh, dat is nieuw voor mij. Het enige wat ik lees bij Nvidia zelf is:

"* All features may not be available on all displays. Please consult the display manufactures specifications for supported features.".

Volgens mij verkoopt Nvidia alleen de techniek, de "module" en support hoe dit te gebruiken. De fabrikant
zelf bepaalt welke features allemaal gebruikt worden en keurt zelf zijn panelen.
Het klopt dat er veel freesync monitoren in omloop zijn die je eigenlijk geen freesync mag noemen.
Dat zou AMD wel eens mogen veranderen door er een kwaliteits sticker erop te plakken dat betekend dat je dus een goede freesync monitor hebt.

Het klopt ook dat als je een gsync monitor aanschaft je dus verzekert bent van een goed product. Alleen is een goede freesync (2) monitor alsnog goedkoper.

Ben wel eens benieuwd in hoeverre gsync, gsync is.
Je stelling klopt met betrekking tot de monitoren. Het is echter een combinatie van GPU+Monitor.
Momenteel twijfel ik bijvoorbeeld sterk of ik een G-sync monitor zal kopen voor bij mijn Nvidia GPU, of een FreeSync met AMD GPU. Echter, de AMD GPU's zijn momenteel gewoon geen goede keus omdat ze zowel te duur zijn voor hun performance en ook nog eens energie onzuinig zijn.

Tel daar nog eens bij op dat de verschillen tussen FreeSync monitoren aanzienlijk groter zijn dan bij GSync monitoren. (Ondersteunde frequenties, kleurbereik etc).

Voor alsnog is mijn interpretatie dat je "bang4buck" verhouding in totaal (GPU+Monitor) niet veel zal schelen, maar dat je bij GSync duurder uit bent met wel een beter resultaat.
Echter, de AMD GPU's zijn momenteel gewoon geen goede keus omdat ze zowel te duur zijn voor hun performance en ook nog eens energie onzuinig zijn.
Over welke kaart twijfel je? Vega is, mits juist geconfigureerd, helemaal niet onzuinig. En als je buiten de beperkte stock in Nederland kijkt, ook helemaal niet duur.
Voor alsnog is mijn interpretatie dat je "bang4buck" verhouding in totaal (GPU+Monitor) niet veel zal schelen, maar dat je bij GSync duurder uit bent met wel een beter resultaat.
Dit klinkt een beetje als 'een Volkswagen is goedkoper dan een BMW', puur omdat VW ook de Up! en de Polo aanbiedt, terwijl BMW met de 1-serie eigenlijk een Golf-tegenhanger heeft en daaronder geen auto's aanbiedt. En een net aangeklede VW Golf is helemaal niet minder dan een basis-uitvoering BMW 1-serie. Maar je moet niet de Up met de 1-serie gaan vergelijken, net als dat je de budget-Freesyncers niet naast de €1000 G-Syncers moet plaatsen.
Ik zit een beetje te kijken naar (pricewatch prijzen):
GTX 1070: vanaf €385,-
GTX 1070 TI: vanaf €447,-
Vega 56: vanaf €508,-

Als ik deze prijzen afzet tegen dit korte overzicht https://www.tomshardware.com/reviews/gpu-hierarchy,4388.html dan zou je kort door de bocht het gemiddelde van de 1070&1070 TI kunnen afzetten tegen de vega56. In dat opzicht zou je voor de VEGA 56 een kleine €100,- duurder uit zijn, 45Watt meer verstoken voor gelijkwaardige prestaties.

Een vergelijkbare monitor tussen GSync en FreeSync komt op een verschil van ca €190,- (XB241H vs G2460PF)

Het totale verschil komt dan uit op zo'n €100,- op een investering van €750,-. Redelijk vergelijkend dus...
Vega's zijn in het buitenland veel goedkoper: https://www.mindfactory.d...x16--Retail-_1236596.html
Er staat een uit Duitsland afkomstige Vega64 van Sapphire op V&A voor minder dan 550.
Wat betreft stroomverbruik: Richh in 'nieuws: Intel zegt nog steeds VESA Adaptive-Sync te gaan ondersteunen'

Die G2460PF zou ik inderdaad adviseren. En dan neigt het prijsverschil al snel naar 200 euro uit, in het voordeel van AMD. :)
Anoniem: 669783
@MRTNbos31 augustus 2018 21:42
Maar je hebt wel een enorm aanbod goedkope kaarten nu na de mining craze. Probeer eens RX 580 8GB in crossfire te draaien. Je kunt al voor €350,00 een set vinden bij V&A.
Waarom zou ik voor €350,- aan 2e hands crossfire ("drama") spul beginnen terwijl ik voor €400,- een nette single GPU heb? No way dat ik die route neem.
Oh... Maar dat is dus de essentie.. je koopt een duurdere monitor, want die kan een paar generaties videokaarten mee.

Maar je zit dus wel vast (lock-in) aan een nv-gsync kaart. En dat is de motivatie voor nv om niet ook maar fsync te ondersteunen.

Een deel van die 200 euri zijn ook hogere specs he, want je mag het gsync logo op de monitor alleen gebruiken als je monitor framerates 30-144 aankan, terwijl fsync de fabrikanten daarin veel vrijer laat.
Die data is super skewed want een hoop mensen hebben meerdere systemen (laptop+desktop) en daarnaast zit in 90% van de systemen sowieso een intel IGPU daarnaast nog. Natuurlijk nemen die dan meteen een grotere taardpunt in. Als je gewoon naar market research data kijkt zijn de Geforce 970 en 1060 enorm goed verkochte kaarten geweest en maken een groot deel van de markt uit. Nu pak je data erbij wat dan ook erg veel extreem oude data bevat, wat geen rekening houdt met 2 gpu's in 1 systeem en dan ook nog eens user accounts combineerd.
Elke 'verse' steam installatie die jij doet triggered een steam survey popup. Ik heb dus op al mijn hardware een steam survey gedaan. Momenteel 3 desktops en 3 laptops. De 970 heeft overigens het grootste aandeel van een videokaart ooit in de steam survey behaald..

Is het perfecte data? Nee. Maar bruikbaar is het zeker. Je kunt via het wayback archive ook een jaar of 10 terug in de tijd :).
Nee de surveys zijn random en oude systemen blijven ook in het systeem staan. Alle oude generaties meegerekend zorgt er dan meteen voor dat het aandeel van de huidige high end kaarten die daadwerkelijk in gebruik zijn natuurlijk snel minder is.
De surveys zijn echt niet random. Ga het zelf maar proberen op een versie installatie, desnoods via Hyper-V. Je krijgt gegarandeerd een steam survey op een cleanos.
Heb 3 laptops dit jaar getest voor gaming en geen 1 heeft het bij installatie gehad. Kreeg alleen een steamsurvey een maand geleden op mijn 6 maanden oude laptop.
Ik heb tijdens de BTW dagen 3 laptops getest en op alle 3 een steam survey ontvangen. Het is overigens niet tijdens de installatie van steam maar wat later. Ook op GoT zijn er anderen die dit zo ervaren. Ik heb werkelijk waar geen enkel systeem waar ik de survey niet heb gekregen.
Deze techniek is al jaren een VESA standaard, ongeveer in dezelfde tijd als wanneer G-sync is gelanceerd.

Nvidia gaat dit niet ondersteunen zolang zij de markt in handen hebben die hier geld voor over heeft (dat is eerder enthousiast dan mid-range). Aan een G-sync monitor verdient Nvidia geld en ze scoren er een vendor lock-in mee waardoor consumenten niet snel zullen overstappen.
Het draait allemaal om geld ;)
Er zijn ook gewoon mensen die dat hele sync verhaal niks kan schelen zolang dit soort situaties blijven bestaan. Ik heb gewoon een 'goedkopere' Freesync monitor aan mijn nVidia kaart hangen. Dan werkt het maar gewoon lekker niet. Ik ga niet speciaal voor die gekkigheid betalen, zeker niet als het beeld verder gewoon werkt.
Heel verstandig :)

De volgende stap is nu om monopolist Nvidia er ook tot aan te zetten om dit aan te passen. Dat doe je door te weigeren een Nvidia kaart te kopen. Ik heb zelf een RX Vega 64 aan mijn Freesync monitor hangen.
  • "Ja maar die zijn heel duur" - nee, die zijn duur in Nederland omdat vrijwel niemand ze aanbiedt, omdat iedereen blind voor Nvidia kiest. In Duitsland haal je de Sapphire-versie voor 550. Dit is niet mijn advertentie.
  • "Ja maar die gebruiken veul meer stroom" - nee, dat is echt onzin, zeker in vergelijking met gelijk presterende kaarten. Afhankelijk van hoeveel je gamed per jaar is dit waarschijnlijk nog geen 10 euro per jaar. Om maar niet te beginnen over een 10% lager power limit, wat geen impact heeft op de prestaties maar Vega vééél zuiniger maakt.
  • "Ja maar drivers" - daar is niks mis mee, we leven niet meer in 2008. En alsof die bij Nvidia altijd geweldig zijn.
wat geen impact heeft op de prestaties maar Vega vééél zuiniger maakt.
Waarom past AMD dat zelf dan niet aan?
Omdat AMD per se vergelijkbare benchmark-resultaten wou laten zien als een GTX 1080. By default wordt Vega behoorlijk op z'n donder gegeven om die cijfers te krijgen. En AMD moet daarbij een 'veilig', hoog genoeg voltage mee geven die iedere (ook de eerste batches, die afkomstig zijn van zowel TSMC als GloFo) chip voldoende power geeft om de kloksnelheden te halen.

99,9% van de Vega's doet het prima met nét iets minder prik. En omdat meer power voor een kwadratisch verband zorgt, scheelt een klein beetje minder al gigantisch in het energieverbruik.
Het is al standaard in dp 1.2a, intel heeft t nog niet zelf voor hun devices geïmplementeerd.
Hoe zit het eigenlijk met HDMI? Zit daar nog een sync-standaard bij?
Hmm, zo te zien gaat het ook nog wel even duren voordat die in de meeste consumentenspullen zit -O-
Wat mij betreft staat of valt G-Sync niet met de ondersteuning van videokaarten maar met die van monitoren. Prima dat Nvidia iets als standaard wil hebben, maar te weinig monitoren ondersteunen het. Helemaal als je kijkt waar het voor bedoeld is: midrange grafische kaarten. Die kopers gaan geen dure monitor aanschaffen die 50 euro meer kost voor g-sync. Voor mij zou een reden zijn om nu AMD aan te schaffen voor het ondersteunen van een techniek die op vrijwel alle moderne game-monitoren te vinden is. Nvidia heeft zichzelf uit de markt geprijsd en de standaard veel te duur gemaakt.

Overigens wacht ik al een tijdje voordat HDR en met name contrast een beetje goed werkt op game monitoren, want je kunt nu wel leuk 4K aanschaffen maar het resolutie-verschil is wat mij betreft niet de aankoop waard. Juist de kleuren lijkt me iets om een nieuwe aanschaf te kunnen verantwoorden en vooralsnog gaat de combinatie monitor met HDR + windows + game of applicatie niet echt geweldig.
Nvidia wil het helemaal niet als standaard hebben, dat is nu juist de ellende. Ze willen dat je Nvdia-kaarten koopt, met Nvidia geschikte monitoren.
Ja maar er is dus niemand die de Nvidia geschikte monitoren maakt voor de prijsklasse waar ze bij bedoelt zijn. Dus het is niet de schuld van de consument maar van de monitor-fabrikanten en die zullen vast stellen dat het komt omdat de benodigde hardware voor de standaard te duur is. En als Nvidia het niet wil, waarom vragen ze er dan nog geld voor?
Volgens mij praten we langs elkaar heen.

Nvidia heeft G-sync, is van Nvidia alleen en dat willen ze absoluut niet standaard maken, maar 100%
Nvidia, zoals het nu is. Dat ze heel veel van Nvidia willen verkopen, staat buiten kijf. Heeft echter
niets met standaard te maken.

Hoe weet je trouwens dat wat de prijsklasse is waarvoor "ze bedoeld zijn" ? Beetje vreemde uitspraak, als je bedenkt dat Nvidia geen pepernoten in rekening brengt voor het mogen gebruiken van G-Sync 8)7

[Reactie gewijzigd door Madrox op 31 augustus 2018 19:50]

White paper FINAL, Vesa Displayport Adaptive-Sync.
- Written by Syed Athar Hussain, Display Domain Architect, AMD and Shane Parfitt, Technology Manager Display Domain, AMD.
Zou echt super zijn als Intel FreeSync gaat ondersteunen. Heb een FreeSync scherm icm GTX 1070.
Destijds voor een GTX 1070 gekozen ivm mijn VR-headset...

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee