Gebruiker laat FreeSync via Ryzen-gpu werken met Geforce GTX-videokaart

Een gebruiker is erin geslaagd om AMD's FreeSync op een systeem te laten functioneren in samenwerking met een Nvidia Geforce GTX 1060. Officieel ondersteunen Nvidia-kaarten alleen G-Sync. De belangrijkste beperkende factor is het feit dat er wel een AMD-gpu voor nodig is.

De Reddit-gebruiker survfate meldt dat hij FreeSync werkend heeft gekregen via zijn AMD Ryzen 3 2200G. Hij sloot zijn Geforce GTX 1060 aan op een monitor zonder FreeSync-ondersteuning, terwijl hij een tweede monitor met FreeSync-ondersteuning aansloot op het moederbord met de Ryzen-apu met de Vega 8-gpu. In de bios moest de Vega 8-gpu als primaire adapter worden geforceerd en in het Nividia Control Panel moeten applicaties of games worden gedwongen om te worden gerenderd door de Nvidia-videokaart.

Een andere Reddit-gebruiker kwam enkele dagen geleden al op het idee om FreeSync met een Geforce-videokaart te laten werken, toen hij zag dat in de recent uitgebrachte Battle for Azeroth-uitbreiding van World of Warcraft een optie aanwezig was om een gpu voor het renderen van de beelden te kiezen. Hij voegde daarvoor een Radeon Pro WX 4100 toe, waarna FreeSync ook bleek te werken als de Geforce GTX 1080 Ti als gpu voor het renderen werd geselecteerd.

Volgens Wccftech werkt deze methode ook met een Ryzen 5 2400G-apu, waarbij een Geforce GTX 1070 is gebruikt. De prestaties bleken niet heel erg onder de methode te lijden, ook al wordt de FreeSync-monitor aangestuurd door een gpu die niet verantwoordelijk is voor het renderen van de game. In Deus Ex: Mankind Divided waren wel wat issues, maar meerdere andere games vertoonden naar verluidt geen problemen.

Door Joris Jansen

Redacteur

27-08-2018 • 18:48

88

Reacties (87)

87
87
46
11
0
33
Wijzig sortering
Het is en blijft absurd dat Nvidia weigert freesync toe te passen. Het hele argument met die speciale g-sync chip is ook de reinste onzin. Vergelijkingstesten hebben aangetoond dat het resultaat bij beide zo goed als gelijk is. Daarnaast beschikken laptops met g-sync ondersteuning niet eens over die chip. Ze maken gewoon gebruik van de VESA (freesync) standaard.

Ook dit zal binnen no-time door Nvidia geblokkeerd worden. Het zal ook nog redelijk eenvoudig zijn; blokkeren dat een nvidia gpu iets van data (output) naar een non-nvidia gpu stuurt.
G-sync is een ander concept. Monitoren die g-sync gecertificeerd zijn moeten door een strenge keuring waarbij het idee is dat een koop van een g-sync monitor altijd een goede koop is. Freesync zit eigenlijk op het anderste uiterste, daar zitten monitoren tussen die eigenlijk een te beperkt frequentie bereik hebben om een prettige ervaring mogelijk te maken. Het is Apple (gsync) met Microsoft (freesync) vergelijken en daarmee appels met peren.

Grootste gebrek van Freesync is dat zonder LFC je aan de lage kant, dus onder de 48 fps, de sync niet werkt. Laat dit nu juist het punt zijn waar je xSync nodig hebt. Dit is met LFC opgelost. Echter LFC kent een aantal eisen:
The end result is LFC effectively removes the minimum refresh rate of adaptive sync displays, but for LFC to be supported, the monitor needs to have a maximum refresh rate that is at least double the minimum refresh rate. This is why not all FreeSync monitors support LFC; some come with just 48 to 75 Hz refresh windows, which doesn’t meet the criteria for LFC.
Freesync2 lost dit overigens gedeeltelijk op. Dit label blijft naast de normale Freesync bestaan en geeft gamers ook de garantie dat de Freesync2 monitoren beter zijn dan een gewone freesync monitoren.
Both FreeSync and FreeSync 2 will coexist in the market. While the naming scheme doesn’t suggest it, FreeSync 2 is effectively AMD’s brand for premium monitors validated to a higher standard, while FreeSync is the mainstream option.
Bij Freesync2 is LFC bijvoorbeeld verplicht.

Maar goed voor de gemiddelde consument is dit dus niet te volgen. Dat is de situatie die Nvidia wil voorkomen. Tot zo ver dus wat er anders is.

Zouden ze daarnaast ook gewoon Freesync kunnen ondersteunen? Vast wel maar dat zal de verkoop van g-sync geen goed doen.

[Reactie gewijzigd door sdk1985 op 25 juli 2024 02:51]

Nog altijd geef je geen fatsoenlijke reden waarom nVidia Freesync niet ondersteund. G-Sync en Freesync ondersteuning is niet mutually exclusive, of i.i.g. dat zou niet hoeven. Het feit dat nVidia de twee niet naast elkaar ondersteund zegt je alles dat je moet weten over de meerwaarde van G-Sync t.o.v. Freesync, juist ja nul.
Nog altijd geef je geen fatsoenlijke reden waarom nVidia Freesync niet ondersteund. G-Sync en Freesync ondersteuning is niet mutually exclusive, of i.i.g. dat zou niet hoeven.
Jawel dat is de laatste zin: 'dat zal de verkoop van g-sync geen goed doen. '

Nvidia is vooral bezig met geld verdienen. Dat geld besteden ze vervolgens aan R&D. Met die R&D krijgen wij op termijn weer mooie nieuwe producten. Even ter indicatie, voor de mining hype deed Nvidia ongeveer 350 miljoen per kwartaal aan R&D. Sinds 2016 is dit verhoogd naar 581 miljoen. Ter vergelijking, heel AMD moet het met 357 miljoen doen.
Het feit dat nVidia de twee niet naast elkaar ondersteund zegt je alles dat je moet weten over de meerwaarde van G-Sync t.o.v. Freesync, juist ja nul.
Nu maak je een enorme draai die niks met je eerste statement te maken heeft. De technische verschillen heb ik reeds in de post uiteengezet. Of je die technische verschillen merkt hangt dus vooral af van de implementatie van LFR. Een monitor zonder LFR heb je niet zo veel aan omdat je dan op de lagere framerate, waar xsync echt nuttig wordt, gewoon geen werkende sync hebt.

De meerwaarde van G-sync, afhankelijk van de monitor die je koopt, heeft echter weinig te maken met de keuze van Nvidia om Freesync niet in te bouwen.

Overigens werkt deze beslissing in het voordeel van AMD Radeon aangezien er zeer veel betaalbare monitoren met 'freesync' zijn wat toch een Unique selling point voor een radeon kaart blijft.

[Reactie gewijzigd door sdk1985 op 25 juli 2024 02:51]

"Jawel dat is de laatste zin: 'dat zal de verkoop van g-sync geen goed doen. ' "

Dus het heeft geen voordeel t.o.v. Freesync behalve dan dat het nVidia licentie geld oplevert. Duidelijk.

Kunnen we dan ook stellen dat we G-Sync, en misschien zelfs nVidia als geheel, zouden moeten boycotten of is dat veel te idealistisch voor je? Of krijgen we nu het argument dat iedereen zelf mag bepalen wat die doet zolang het maar binnen de wet toegestaan is?
"Jawel dat is de laatste zin: 'dat zal de verkoop van g-sync geen goed doen. ' "

Dus het heeft geen voordeel t.o.v. Freesync behalve dan dat het nVidia licentie geld oplevert. Duidelijk.
Je blijven proberen te draaien maar bij mij zit je dan echt aan het verkeerde adres. Ik reageer gewoon opnieuw met hetzelfde punt.

De technische voordelen staan 2 posts eerder al duidelijk beschreven. Dus die zijn er ten aanzien van een deel van het freesync aanbod zeker Zie nogmaals sdk1985 in 'nieuws: Gebruiker laat FreeSync via Ryzen-gpu werken met Geforce ...

De voordelen voor de consument staan er ook bij, dat is de duidelijkheid die het g-sync label bied (of beter gezegd bij freesync weet je niet van te voren waar je aan toe bent zonder goed te begrijpen hoe de techniek werkt, wat de beperkingen zijn en wanneer die beperkingen van toepassing zijn).

Die voordelen staan los van het punt of Nvidia technisch een reden heeft om Freesync niet te omarmen. Zoals gezegd, dat is wat mij betreft geen technische reden dat is puur een strategische reden. Welke, ook gezegd, in het voordeel van AMD werkt aangezien die nu met Freesync kunnen schermen als unique selling point.

Het is dus niet zo zwart wit als jij het steeds probeert te maken.
Kunnen we dan ook stellen dat we G-Sync, en misschien zelfs nVidia als geheel, zouden moeten boycotten of is dat veel te idealistisch voor je? Of krijgen we nu het argument dat iedereen zelf mag bepalen wat die doet zolang het maar binnen de wet toegestaan is?
Wat denk jij te bereiken met een boycot van Nvidia? Het is niet alsof AMD meer kan leveren dan ze nu al doen. Aangezien het volume van Nvidia momenteel ongeveer 5 tot 10 keer zo groot is als dat van AMD gaat een boycot van Nvidia er alleen maar voor zorgen dat effectief vrijwel niemand meer een nieuwe kaart kan kopen. Er is 1 partij die iets kan doen om de slagkracht van Radeon en Freesync te verbeteren en dat is AMD. Die hebben Ati gekocht en dat is de partij die dit moeten gaan klaren. Dat is geen taak voor de consument.

[Reactie gewijzigd door sdk1985 op 25 juli 2024 02:51]

"De voordelen voor de consument staan er ook bij, dat is de duidelijkheid die het g-sync label bied (of beter gezegd bij freesync weet je niet van te voren waar je aan toe bent zonder goed te begrijpen hoe de techniek werkt, wat de beperkingen zijn en wanneer die beperkingen van toepassing zijn). "

Verklaart een hoop. Reviews en vergelijkingstesten zijn zo overrated. Consumenten kopen gewoon blind maar gaan wel op een label af? Waarschijnlijk is dat voor merendeel van de consumenten, helaas, waar.

M.b.t. je laatste punt. Dat nVidia zoveel gekocht is, is dan ook voornamelijk door hun agressieve marketing en, betwistbare, concurrentie belemmeringen. Zo zijn ze groot geworden en zo zijn ze vooralsnog groot.

;(
M.b.t. je laatste punt. Dat nVidia zoveel gekocht is, is dan ook voornamelijk door hun agressieve marketing en, betwistbare, concurrentie belemmeringen. Zo zijn ze groot geworden en zo zijn ze vooralsnog groot.

;(
Is dat zo? Ik heb nog nooit een reclame video van Nvidia gezien. Van Radeon overigens wel. Bijvoorbeeld deze video waarin Permi (Nvidia fermi) te veel stroom verbruikt: https://youtu.be/wCi5hiIO4fs Dat was 2010, in 2013 kwamen ze met 'the fixer' https://youtu.be/eH6XayaLTw8 Kwam nog een deel 2 in hetzelfde jaar, deel 3 kwam in 2015 (freesync, gcn, 4gb op de 970 en 'performance issue') https://youtu.be/tQAtwFFa2QY Verder kennen we allemaal wel de 'poor volta' plaatjes.

Ik kan mij verder ook niet herinneren dat Nvidia in zijn presentaties ooit een 1 op 1 vergelijking met AMD Radeon heeft gemaakt. Bijvoorbeeld bij Polaris spiegelde AMD zijn prestaties wel aan een Nvidia kaart. Nvidia lijkt meer zijn eigen ding te doen.

[Reactie gewijzigd door sdk1985 op 25 juli 2024 02:51]

TWIMTBP nooit gezien? Die intro kon je aardig makkelijk uit een game "knippen" inderdaad. nVidia focus groep heb je natuurlijk ook nog nooit van gehoord? nVidia doet ook moeite om benchmarks in hun voordeel te beïnvloeden. Games met hetzelfde doel beïnvloeden doen ze ook niet zeker?

Best wel concurrentie belemmerend, op een dusdanige manier dat de consumenten er niet bij gebaat zijn.

De marketing van ATi en nu AMD is nooit echt spectaculair geweest. Getuige ook de amateuristische YouTube filmpjes.
Ja er zijn freesync monitors met een beperkt bereik, genoeg 60hz monitors met freesync en dus met een beperkt bereik maar beter dan geen adaptive sync, kost verder ook niks extra voor de monitor fabrikant.
Genoeg freesync monitors die al bij 30hz beginnen, maar vanaf 48hz niet echt een probleem, ik speel vrijwel nooit met 40-50 fps een spel.

Maar het blijft irritant, stel je ziet een monitor die voldoet aan al jou eisen maar die heeft dan als je Nvidia hebt dus geen Gsync, andersom ook, het beperkt je keuze, enkel omdat Nvidia haar Gsync verdedigd.
Het is dat Nvidia zo populair is anders zou gsync nooit een lang leven leiden .
Veel mensen wijzen erop dat nVidia verdiend aan die g-sync chip, maar dat is maar het halve verhaal. Ik heb bv een g-sync scherm gekocht omdat ik al een gtx 1070 had. Zo'n scherm gaat vele jaren mee, veel langer dan menig videokaart. Dus wanneer ik nu een nieuwe kaart koop, wordt het waarschijnlijk weer een nVidia kaart, puur om g-sync te behouden.

Ecosystem/vendor lock in noemen ze dat, en ik heb het gevoel dat voor nVidia dat veel belangrijker is dan de centen die ze verdienen aan g-sync.
Bedrijven die zo actief aan vendor lock-in doen en weigeren open standaarden te gebruiken, zijn gewoon de consument aan het pesten / uitknijpen. Dat beloon ik niet met de aankoop van een van hun producten.
nou jij bent niet de enigste :)

zie hier https://www.youtube.com/watch?v=_36yNWw_07g (Linus Torvalds To Nvidia - "Fuck You")
Van zo'n partij zou ik niet eens kiezen. Daarom doe ik dat dus ook niet ;).

Nvidia zou freesync best kunnen en willen toepassen. Maar vanuit economisch perspectief hebben ze hier geen enkel belang bij.
Het is ook andersom. Ik koop nu een AMD kaart omdat mijn 3440x1440 monitor met freesync €250 goedkoper was dan de GSYNC variant.In de toekomst, zal ik ook bij AMD blijven.

Als NVIDIA freesync had ondersteund, had ik zeer waarschijnlijk een 1080 of 1080ti gekocht.

[Reactie gewijzigd door DoubleYouPee op 25 juli 2024 02:51]

Om die reden wacht ik ook met het kopen van een nieuwe grafische kaart.
Ik heb net een nieuwe 1440P freesync monitor.
Wat is dan het verhaal?
Ik verwacht eerder dat de kosten hoger zijn omdat er daadwerkelijk een hardware module moet worden in gezet en die module kost hun aka ons dan ook geld om deze te hebben in je monitor.

Vergelijking: je kan een automaat in je auto stoppen dan rijd hij soepeler maar je betaald er wel meer voor.
Alleen die zit bijvoorbeeld niet in een aantal laptops met mobiel Nvidia-kaarten terwijl die toch Gsync ondersteunen, heeft men ontdekt. Die chip moet dus wel betaald worden, maar zonder werkt het ook...
Je hebt helemaal geen Gsync of Freesync meer nodig met een 240Hz monitor omdat het toch te snel ververst om tearing te kunnen zien, dus dat probleem lost zichzelf binnenkort op.

[Reactie gewijzigd door Origin64 op 25 juli 2024 02:51]

Zelfde verhaal al sinds 20 jaar geleden met SLI en Crossfire. SLI kost veel en crossfire vrijwel niets.
Voor Nvidia snijdt het mes aan 2 kanten. Ze verdienen extra aan de G-Sync monitoren, maar doordat de consument zo'n dure monitor gekocht heeft is de kans ook groot dat zijn volgende videokaart weer van Nvidia wordt. Eigenlijk een koppelverkoop waar best eens aandacht aan besteed mag worden.
Dan valt wellicht Nvidia Optimus om
Dan is het gewoon een gevalletje weigeren fatsoenlijk te functioneren als er ook een AMD gpu wordt gedetecteerd, volgens mij zijn er geen officiele scenarios/devices die beide merken GPUs hebben, dus kan nvidia prima doen..
Wat Nvidia kán doen en wat ze zúllen doen zijn 2 totaal verschillende dingen.

Nvidia kán die achterlijke 'is running on a virtual CPU' check uitzetten zodat je gewoon consumenten Nvidia GPU's op virtual machines kunt draaien.. maar dat doen ze niet.

Het mooiste is dat íedereen die een VM runt gewoon wél een consumenten Nvidia GPU gebruikt omdat deze check makkelijk te omzeilen is door één enkele setting lijn in een config bestand aan te passen waardoor windows niet weet dat het op een virtuele machine draait...

Net zoals Intel die gewoon weigert om ECC te ondersteunen op hun 'consumenten' CPU's (even daarbij gelaten dat een i9 CPU dus echt totaal geen consumenten CPU meer te noemen is) en je forcen om een Xeon te kopen als je ECC wilt... waar AMD gewoon (non-registered) ECC ondersteunt op hun gehele Ryzen reeks.
Interessant. Ik wist niet dat dat Ryzen wel met ECC kon.

Maar, vergeet niet dat nVidia en Intel marktleiders zijn. Die hebben dus een heel andere strategie dan AMD. AMD wil zo veel mogelijk marktaandeel winnen door zo open mogelijk te zijn, veel partners te maken en hun technologie goedkoop beschikbaar te maken. Zoveel mogelijk pluspunten creeeren voor een lagere prijs dan de concurrentie.

Intel en nVidia proberen juist het omgekeerde. Dichttimmeren om de klanten vast te houden en moeilijk over kunnen stappen. En hun toppositie zoveel mogelijk uitmelken (royalties op G-Sync enz).

Het zou me niet verbazen als AMD in de omgekeerde situatie gewoon hetzelfde zou doen. Tot op zekere hoogte moeten ze wel, want als bedrijfsleiding van een beursgenoteerd bedrijf ben je verplicht om de maximale winst te behalen voor je aandeelhouders (due diligence).

Dus ik vraag me af of AMD gewoon een 'beter' management heeft, of dat ze gewoon in een heel andere situatie zitten die andere keuzes afdwingt. Natuurlijk heb je als 'goed' bedrijf dat niet puur voor winst gaat wel een hoop extra goodwill bij je klanten maar daar hangt ook een prijskaartje aan, en het is maar de vraag of de bedrijfsleiding dit wel wil en het tegen de raad van bestuur kan verdedigen.

[Reactie gewijzigd door GekkePrutser op 25 juli 2024 02:51]

Nou nee dat is alle bedrijven over een kam scheren.
Bedrijven zijn juist wel verschillend.
Je zou dan ATI vs nV zetten en dan heeft nV bij bedrijven die met hun te maken hadden juist een beruchte naam. Die concurreren toen stuk harder en waren gelijke.
Voordat R&D opzuigend AMD zwart gat het overnam.

Bij slecht gedrag zijn er ook gradaties en bedrijf dat de snelste moet zijn zal dus verder gaan als het keer minder gaat.
Intel heeft (jaren geleden alweer) gezegd freesync te gaan ondersteunen. Geen idee wat de status daar van is maar als het er is en dan wordt blokeren alweer een stuk lastiger.
Inderdaad, het is gewoon een standaard welke voor iedereen toegankelijk is, maar Nvidia ziet meer geld in haar eigen G-Sync. Eerlijk gezegd geef ik Nvidia hierin groot gelijk (louter vanuit zakelijk perspectief), aangezien ze hierdoor extra verdienen op de verkoop van monitoren met G-Sync support.

Voor de consument betekent dit extra betalen, maar zolang de RX570/580 prima midrange opties zijn en men toch voor de GTX1060 + een G-Sync monitor gaat, is het toch echt de schuld van de consument zelf.

Maar in theorie kun je (voorlopig ) dus een RX550 erbij prikken en je kan FreeSync gebruiken. Heb je wel weer de meerprijs van G-Sync op een andere manier betaald :+
Tja ik heb gewoon een 4K freesync monitor maar natuurlijk wel nVidia (want AMD is gewoon geen serieus alternatief momenteel). Dan maar geen sync. 4K monitoren met G-Sync waren ten tijde van mijn aankoop meer dan 2x zo duur (deze was dan ook behoorlijk goedkoop moet ik wel zeggen)
Met snelle nV kaart singeplayer games met normale gameplay snelheid is gsync ook niet zo nodig.
Tja, ik heb inderdaad een 1060 met een gsync monitor... Maar toen ik die kocht was de 580 nauwelijks te krijgen tegen een beetje normale prijs. Bovendien blokkeer je momenteel je eigen upgrade pad een beetje aangezien AMD nauwelijks serieuze opties boven de 580 heeft.

Overigens vind ik dat gsync op zijn minst nog wel een voordeel heeft in dat het een soort van kwaliteits garantie is. Bij freesync moet je altijd heel erg opletten wat nou precies de range is waar het in werkt en of je daarmee dan LFC hebt. Dat is iets waar je met gsync geen last van hebt. Het is waar dat een freesync monitor even goed kán zijn als een gsync monitor... Maar net doordat het gratis te implementeren is zit er ook een hele hoop crap tussen.
Klopt helemaal. Met G-Sync heb je een betere garantie op goede werking. De beschikbaarheid van Polaris was zeker een issue. Daarbij als je toch al een meerprijs kan en wil betalen, het is niet dat Nvidia slechte kaarten maakt (op de DDR4 GT1030 na natuurlijk...)
Tja ze verdienen behoorlijk wat geld met die gsync chips die in de schermen moeten.
Dat is nVidia die willen overal zo veel mogelijk aan verdienen en timmeren zo veel mogelijk dicht zodat klanten terug moeten komen.
Het doel van Nvidia is vendor lock-in, en met G-Sync kunnen ze gebruikers aan hun merk binden zolang ze hetzelfde scherm behouden.

Het zelfde deden ze jaren terug met de wetenschappelijke wereld, door het gebruik van CUDA en het weigeren om moderne versies van OpenCL te ondersteunen. Nvidia ondersteunt slechts OpenCL 1.2 (wat uitkwam in 2011), terwijl Intel en AMD al bijna 5 jaar op OpenCL 2.0 zitten.
Is percies hetzelfde als met Apple en de 3.5mm jack.
Ze hebben iets ontwikkeld waar geld aan verdient wordt.
Ik zie de vergelijking niet echt? Apple levert namelijk gewoon een 3.5mm naar lightning adapter mee.

Nvidia weet wel hoe ze de consument moeten uitmelken. En ze komen er helaas nog mee weg ook.
Dat zou inderdaad mooi zijn. Een G-sync naar Free-Sync adaptor.

Nee, ze ontwikkelen zoiets om geld aan te verdienen.
Als je Apple bekijkt verdienen ze royalties met de lightningconnector.
Elke kabel, elke headset en etc moet gevalideerd worden door Apple.
Ook gaat er er nog een onbekende marge overheen bij de verkoop.

Zo werkt dat ook met G-scync monitoren. Ze hebben allemaal een een G-Sync module nodig.
Waardoor een redelijke meerprijs op de monitor zit.
Tja, waarom is het absurd? Zij maken de kaarten toch. Uiteindelijk is het de consument die kiest. Nvidia wil gewoon zoveel mogelijk verdienen, maar zonder consumenten gaat dat moeilijk worden.

[Reactie gewijzigd door NotSoSteady op 25 juli 2024 02:51]

Is gewoon gemakkelijk cashen voor Nvidia. G-sync scherm is 150-200 euro duurder dan hetzelfde scherm met Freesync. Waar een groot gedeelte van op de bankrekening van Nvidia bijgeschreven wordt. Daarom is concurrentie belangrijk, als we 4-5 videokaart spelers hadden was dit nooit gebeurt maar helaas.
Vaak zijn de gsync panelen sowieso meer luxueuzer uitgevoerd qua behuizing en de gsync module is ook een zeer goede scaler.
We hadden dit ooit ook, sommige kunnen zich dit nog wel herinneren. Ondanks alles kopen de meeste mensen het toch wel bij Nvidia, want ja ze hebben de snelste kaarten ondanks dat in de mid end amd beste prijs/performance leverde🙄. Goede PR doet wonderen.
Ook dit zal binnen no-time door Nvidia geblokkeerd worden. Het zal ook nog redelijk eenvoudig zijn; blokkeren dat een nvidia gpu iets van data (output) naar een non-nvidia gpu stuurt.
Dat lijkt me onwaarschijnlijk. Hoewel het natuurlijk met de driver mogelijk is, zou dat ook betekenen dat je bijvoorbeeld geen tweede monitor op je Intel GPU kunt aansluiten en games op de Nvidia renderen wat toch een zware beperking zou zijn.
Denk niet dat nvidia dit zal blokkeren, immers is dit gewoon een standaard functionaliteit van DX12/Vulkan, om multigpu te kunnen werken zonder crossfire/sli, en daardoor is het dus mogelijk om te bepalen welke videokaart rendered en welke het toont. Zo kun je dus ook andersom werken, namelijk dat je dus amd gpu kunt gebruiken via nvidia gpu om g-sync te ondersteunen..
In veel games heb je liever iets als Nvidia's ULMB of Samsung's "scanning backlight" voor sterk verminderde ghosting. Gsync en Freesync kan je dan niet gebruiken omdat de backlight op vaste frequentie knippert. Beide technieken zijn eigenlijk enkel nuttig voor mid range / low end kaarten waarbij de framerate wel eens onder de 60 komt. Uitzondering op die regel zijn mensen met een 4K scherm, in dat geval is GSync/Freesync wel een must omdat op die resolutie elke gpu te kort komt, ook de 1080Ti.
Ghosting en stutters zijn wel echt twee verschillende dingen, en het verschilt weer per persoon hoe gevoelig je er voor bent. En variabele refresh rate is voor elke GPU nuttig, het hangt simpelweg van de resolutie en kwaliteitsinstellingen af welke framerate behaald wordt. Uit eigen ervaring kan ik zeggen dat ook systemen met een snelle GPU wel eens wat inzakken qua framerate, en VRR dan meer helpt dan je zou verwachten (nogmaals, mits je gevoelig bent voor stutters).
En variabele refresh rate is voor elke GPU nuttig, het hangt simpelweg van de resolutie en kwaliteitsinstellingen af welke framerate behaald wordt. Uit eigen ervaring kan ik zeggen dat ook systemen met een snelle GPU wel eens wat inzakken qua framerate, en VRR dan meer helpt dan je zou verwachten (nogmaals, mits je gevoelig bent voor stutters).
Als je een goede GPU hebt en een scherm met genoeg refresh rate, 144-240hz, heb je helemaal geen variabele refresh rate nodig omdat je geen tearing meer ziet bij die snelheid.
Het heeft alleen echt nut op een 60-120hz scherm en als je een goedkope PC hebt die niet die framerate haalt in al je games.
Ik denk niet dat als je bottom of the barrel koopt (want dat is 60-120hz ondertussen voor gaming) dat je geld wilt uitgeven aan zo'n feature die ook naar betere cpu/gpu/ram kan gaan.

Dus variabele refresh rate is meer een gimmick USP dan echt iets nuttigs.

[Reactie gewijzigd door Origin64 op 25 juli 2024 02:51]

We verschillen wel aardig van mening/ervaring.
Als je een goede GPU hebt en een scherm met genoeg refresh rate, 144-240hz, heb je helemaal geen variabele refresh rate nodig omdat je geen tearing meer ziet bij die snelheid.
Ik denk dat dit echt van persoon tot persoon verschilt hoe gevoelig je hiervoor bent. Ook bij een hogere refreshrate zie ik nog tearing als de bewegingen ingame subtiel zijn.
bottom of the barrel koopt (want dat is 60-120hz ondertussen voor gaming)
Naar mijn idee is het redelijk zwart-wit denken om te zeggen dat 120 Hz en alles daaronder budget/bottom of the barrel is. Ook denk ik niet dat een 'goede' of dure GPU per se hoge framerates zal halen, en een goedkope GPU per se op lage framerates blijft hangen; het hangt af van het spel, de resolutie en gekozen instellingen. Zie bijvoorbeeld Far Cry 5 op 4K Ultra waar de 1080 Ti 'slechts' 52 fps haalt en dan Doom 1440p Ultra waar 'goedkope' kaartjes ruim 100 fps halen. Far Cry 5 op 4K Ultra met een 1080 Ti zou ik zelf héél graag met variable refresh rate spelen.
Dus variabele refresh rate is meer een gimmick USP...
Dat wás het dus wel, maar vooral bij FreeSync is het tegenwoordig in zóveel monitoren te vinden dat het haast meer een standaard spec begint te worden dan een gimmick.
..dan echt iets nuttigs.
Ik ben van mening dat het zeker wel nuttig is, ook in goedkopere monitoren. Je kunt inderdaad meer geld uitgeven aan een snellere cpu/gpu/ram, maar als de monitor die je op het oog hebt toch al VRR heeft, heb je daar juist met een minder snelle videokaart heel veel aan.

[Reactie gewijzigd door Trygve op 25 juli 2024 02:51]

Heb je al eens op 240hz gespeeld? Het verschil in hoe vloeiend het beeld is, voelt voor mij een stuk groter dan het verschil in detail tussen 1080p en 1440p of 4k. Dat zie ik alleen als ik stil sta. Je ziet het in slecht gemaakte textures die lelijk zijn op 1080p, bijv. de armor van Geralt in the witcher. Dat is een probleem wat bij de game dev ligt. Met goede mipmaps en AA los je dat voor meer dan de helft op. In films merk je er ook vrij weinig van. Ja, het pak van Black Panther glimt net wat anders dan op 1080p.

Onder de 144hz is het budget segment nu. Slechtere processing chips, slechtere panelen, hoge latency, laag contrast bij hoge brightness. Daarom zijn ze ook zo goedkoop. Ja, in het budget segment kan freesync wel nut hebben.

Voor mij is er ook het probleem dat je met variabele refresh rate geen constante frame timing hebt tenzij je toch al je gewenste fps haalt. Je vervangt de ene soort stuttering, (partial) frame repeat, door een andere, het vorige frame langer weergeven, totdat de volgende kan worden getoond. Dat is net zo goed merkbaar. je hebt minder tearing en meer vertraging. Het is niet veel beter dan Vsync.
Met 240hz heb je bijna 0 extra stutter tov het signaal wat je videokaart uitstuurt omdat dat scherm meestal meerdere keren per frame refresht. Zelfs als je fps net onder de 240 zit heb je niet die enorme scan lines die door beeld heen lopen zoals bij 59fps op 60hz. Daarvoor gaat het te snel. Ik merk dat soort dingen echt meteen als het gebeurt, dan kijk ik nergens anders naar. Als je fps 60 is, ziet dat er veel vloeiender uit dan 60fps op een 60hz scherm. Ik garandeer je 100% dat jij geen tearing ziet op een 240hz monitor, bijna onafhankelijk van de fps, tenzij je screenshots gaat maken en analyseren.

Met 60fps op 240hz, heeft 1/4 van de refreshes tearing waar het nieuwe frame voor het eerst wordt getoond, dat frame wordt daarna nog 3x volledig weergegeven. De tearing is 4ms zichtbaar, het hele frame zonder tearing is 12ms zichtbaar. Je hersenen corrigeren dat zonder dat je het doorhebt.

Als je 240hz hebt, die bottleneck van de onvoorspelbare interactie tussen je gpu frame timing en de monitor panel refresh timing is praktisch weg, dan hoef je alleen nog maar te zorgen dat je framerate enigzins acceptabel is. Er is minder frame variance.

Veel games zijn voor mij nu met lagere fps en hogere settings vloeiender dan ze daarvoor op 160hz waren met hogere fps. Omdat die monitor alles wat binnenkomt meteen weergeeft.
Dat lijkt me een betere oplossing dan variabele refrash rate waar je alleen iets aan hebt in specifieke situaties waarin je fps tussen de 30 en 144 of 165 ligt. 240hz maakt het beeld altijd vloeiender, al heb je 30fps of 500, tov een scherm met lagere refresh rate. Als over een paar jaar 240hz de standaard is, zijn Freesync en Gsync overbodig geworden. Het is een doodlopend pad.

En ja, als je de nieuwste games nu wilt spelen op zo'n (volgens mij onnodig want je kunt op 1080p prima zien) hoge resolutie heb je of enorme stuttering of een enorme rekening bij de computerboer. Laat DOOM en Far Cry 5 lekker een paar jaar wachten totdat je ze wel kan draaien met een goede framerate, dan heb je een veel betere ervaring. En je bespaart heel veel geld. Speel gewoon Far Cry 3 nog een keer. Het is toch exact dezelfde game...Over 4-5 jaar heeft elke gaming monitor 4k en 240hz voor een schappelijke prijs.

EDIT: zag toevallig net deze: nieuws: Acer brengt dit jaar 4k-monitor met 144Hz-ips-paneel uit voor 1049 euro
Das dus best een flink prijsverschil tov 1080p 144hz

[Reactie gewijzigd door Origin64 op 25 juli 2024 02:51]

Nu ben ik benieuwd of Nvidia in eerste instantie zal reageren en een stokje voor deze mogelijkheid te steken en indien ja: Hoe snel?

[Reactie gewijzigd door 6129(15) op 25 juli 2024 02:51]

Heel snel Nvidia kennende. Je zag hetzelfde met Physx gebeuren. Mensen die een primaire AMD kaart hadden (want die waren beter op dat moment) in combinatie met een tragere Nvidia kaart voor de gpu Physx.

Dat werd dus heel snel de nek om gedraait door Nvidia :X.
Ja.

Zodra ze een manier vinden om dit voor alle applicates onmogelijk te maken zullen ze dit zeker doen, het kost hen namelijk geld als mensen op deze manier de prijs barrière van een G-sync gecertificeerde monitor omzeilen, en nvidia dus op den duur inkomsten misloopt.
Het is niet alleen zo dat mensen op deze manier de G-Sync vendor lock-in kunnen omzeilen, zodat Nvidia daar al niets aan verdiend, maar de gebruikers moeten ook een AMD GPU kopen, dus de concurrent krijgt er ook nog extra centen voor. Ervan uitgaande dat het ook met een goedkope RX 550 kan werken, is een FreeSync monitor + AMD GPU goedkoper dan een G-Sync scherm, dus het is nog een kosten-efficiënte optie ook :)

Als het Nvidia dus niet lukt om het te blokkeren, is het officieel ondersteunen nog een betere optie dan dit :)

[Reactie gewijzigd door El Psycho op 25 juli 2024 02:51]

Haha, het is wel nVidia waar we het over hebben. Het is dat zou nou eenmaal aardige producten maken, maar liever gooi ik m'n portemonnee tegen een ander bedrijf aan wat minder vaak met vieze spelletjes aan het licht komen.
Preciest, ik ben er ook helemaal van overtuigd dat ze deze functionaliteit met een zuur gezicht gaan begraven en liever eergisteren dan morgen.
Ja want dat is wat Nvidia doet.

Weet je dat het multiGPU gebeuren van DX12 initieel geintroduceerd is met Windows Vista? Dat ten tijde van de introductie van de Xbox, de GPU wereld losgebroken, waar Nvidia mee weg liep en AMD in hun sop gaar lieten koken. Geforce Partner Program, CUDA, PhysX, G-Sync.

Nvidia is (net als Intel) anti-vooruitgang en alles wat ze doen zorgt er voor dat concurentie uitgesloten wordt. Wat de intenties van een bedrijf naar mijn mening wel duidelijk maakt. Maar blijf het allen lekker kopen :) 'want ze zijn de beste', joh. Gangsterpraktijken zijn dit, als je gewoon zorgt dat er geen concurentie is....
Ze hebben zelf de variable refreshrate gepushed, computing doormiddel van gpu met cuda etc maar zij gaan vooruitgang tegen? Pas nadat nvidia iets pushed komt amd met een open architectuur.
Nou nee variable refresh was er al voor laptop panel aansturing en dus optioneel feature in de oudere standaard. FreeSync gebruikt dat. nV doet moeilijk en maakt het hardware afhankelijk met dure eigen rasteriser chip . Wat eigenlijk niet nodig is maar nV wel ruimte geeft om extra dingen te doen.
Als extra hardware totaal niet nodig is zoals SLI dan presteren zij het om met placebo chip te komen.
Daarnaast middleware behoort vendor neutraal te zijn omdat uitsluiten van merken markt remmend werkt.
Dat is te zien aan enorme effort van nV om PhysX bij dev er door te drukken en nog is dat niet genoeg geweest omdat gross toch onafhankelijk games produceren en meer de luie producers zijn die in zee gaan met wat uitzonderingen omdat de hulp ook kosten besparend werkt. Maar daarmee ook de problemen komen als nV alleen voor hun gpu de game helpen ontwikkelen.

Nu zijn er rasteriser die wel variable sync bieden waar monitor firma uit kunnen kiezen zijn mogelijk fractie duurder maar niet zo extreem als de Gsync Rasteriser. In begin had die ook nog maar 1 input.
De technologie was er alleen in concept en self panel refresh is niet hetzelfde. Dus nee nvidia heeft deze golf gestart. Daarvoor werden lapmiddelen toegepast.

Wat enorm opvalt is dat gsync monitoren vaal ook mooier zijn uitgevoerd. Metalen monitor stand vs plastic stand zoals bij acer bijvoorbeeld. Aangezien de gsync module meer doet heb je ook betere scaling bij non native resoluties bijvoorbeeld.

Uiteindelijk begon freesync minder. Soms had je een monitor die alleen freesync binnen de range 40hz en 75hz ondersteunde. Dan weer 60 tot 120hz etc er was totaal geen kwaliteot controle. Dat is nu gelukkig wel beter. Maar het is maar de vraag of AMD met iets soortgelijks zonder nvidia kwam.

Uiteindelijk koos ik zelf voor gsync, naast dat AMD niiet de performance biedt dat ik zoek zijn de monitoren vaak ook gewoon minder en daarom goedkoper. Betaal dan liever 150 meer. Dat nvidia ook freesync zou kunnen toepassen zou heel goed kunnen. Maar tuurlijk wilt de koploper de marlt beschermen, anders krijg je ruzie met je aandeelhouders.
De Gsync scaler heeft vaak een slechte kleurafstelling out of the box. Check hwi revieuws. Er zijn maw niet alleen voordelen.
Denk niet echt, want hier wordt volgensmij gewoon de DX12/Vulkan methode van MultiGPU gebruikt waardoor dit soort zaken mogelijk zijn. Andersom is dus ook gewoon mogelijk (amd gpu naar nvidia gpu om zo g-sync te gebruiken).

[Reactie gewijzigd door SuperDre op 25 juli 2024 02:51]

Er zal altijd wel iets van driver zijn een feature check device list en daarmee ook vendor ID ze kunnen dus in de check een AMD device zien mogelijk ook device output monitor freesync feature en dan multigpu feature disablen.
Dus als zij detecteren primaire is AMD
Render device set nV device

Bij normaal multigpu gebruik zal nV device de primaire zijn.

Daarnaast als ik Turing ding bij mijn Vega prik met freesync 4K minitor ben ik niet goedkoper uit tov Gsync gezien die Vega56 kosten.
Het is vooral goedkoper met radeon igpu of de cheapest freesync enablde gkaart
Ze doen dit dus met AMD igpu met nV gkaart.
Wordt tijd dat nvidia freesync gaat ondersteunen. Ook al verdienen ze aan gsync, er zit ook een grote gemiste bron van inkomsten in doordat mensen nu amd kiezen ipv nvidia.
Zo lang ze bij Nvidia meer inkomsten halen uit de verkoop van G-sync monitors ten opzichte van de verliezen aan niet verkocht GPU’s gaat dit nooit veranderen.
Ja, maar dat kun je moeilijk meten en dus blijft het voor NV en helemaal voor ons totaal gokwerk of dat wel het geval is.
Als dit kan is het mischien ook mogelijk met een 2e (budget) amd insteek kaart, dit kan sinds dx12 namelijk ook apart aangestuird worden.

Dus als het kan met een apu, zie ik niet in waarom het niet met een el cheapo dedicated videokaart zou kunnen, icm met non apu hardware.
In het artikel staat al aangegeven dat dit mogelijk is met een professionele amd gpu. Zou ook prima moeten kunnen met een goedkope radeon lijkt me
Of een APU zoals de 2200G and 2400G
Het zou dus in principe ook kunnen werken als ik een (goedkope) AMD videokaart toevoeg aan m'n intel/nvidia systeem?

Een 2e monitor is dan nog omslachtig, maar kun je niet virtueel een 2e monitor toevoegen aan Windows?
Ja, dat gaat. Heb nog tijdje gedaan voor quicksync actief te krijgen. Ben ook wel benieuw, lekker goedkoopste kaartje erin met freesync and dan vette 1080ti erachter :D
Want Freesync op een GTX1080ti heeft nut?
Nu mss nog niet maar op 4K gaat hij het niet blijven volhouden voor eeuwig
Nice, ik ga zeker de ervaringen volgen. Op 4k met een 1080ti speel ik nu nog weinig games die onder 60fps duiken, maar wanneer hij dat wel doet is dit een interessante oplossing :)
Doet me denken aan het tijdperk van de AMD 5000 serie toen mensen Nvidia kaarten er naast gebruikten om Physx te krijgen met een AMD hoofd kaart. Dit blijven natuurlijk hacky oplossingen en het is verre van ideaal dat data van de ene kaart naar de andere gekopieerd moet worden.
Vind het jammer dat G sync zo duur is. Voor mij is het niet waard om €300 extra ervoor te betalen.
Ik had altijd gedacht dat free sync wel met Nvidia werkt maar gsync niet met AMD kaarten. Vind het sowieso absurd dat je keuze beperkt wordt op deze manier..
Cool, ik vroeg me dit al een tijdje af. Het leek me gewoon mogelijk te moeten zijn.
Maar helaas wel een soort 2 traps raket in dit geval met behulp van een al dan niet on-die AMD GPU.
Als NVidia zou willen kunnen ze het toch gewoon native toevoegen aan de drivers?

Liever zie ik het andersom gebeuren, ik heb een GSync ROG scherm, maar dat is volgens mij nooit mogelijk omdat GSync extra hardware heeft.. weet alleen niet of dat voor de kaart en de monitor geldt of alleen voor de monitor.

Op dit item kan niet meer gereageerd worden.