Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Intel: ondersteuning van VESA Adaptive-Sync is een prioriteit

Intel heeft bij monde van onderdirecteur Lisa Pearce laten weten dat de ondersteuning van VESA Adaptive-Sync een prioriteit is. Wanneer deze ondersteuning beschikbaar komt en bij welke gpu's, is nog onduidelijk.

Lisa Pearce zegt op Twitter dat het een prioriteit van Intel is om de standaardinterfaces te ondersteunen die nu al op de markt zijn. Ze zegt dat het voor Intel niet zozeer van belang is om met een 'propriŰtaire oplossing' te komen, maar vooral om de grootst mogelijke gebruikersgroep aan te spreken.

Vanuit dat oogpunt zegt Pearce ook dat het doorvoeren van Adaptive-Sync-ondersteuning voor ge´ntegreerde gpu's een hogere prioriteit heeft dan de ondersteuning voor discrete gpu's. Het bedrijf komt in 2020 met een losse grafische high-end chip, dus het lijkt voor de hand te liggen dat de ondersteuning voor Adaptive-Sync ergens in 2019 volgt.

Eind augustus zei Chris Hook ook al dat Adaptive-Sync in de pijplijn zit, al gaf de voormalige marketingtopman van AMD nog geen nadere details. Dat deze ondersteuning eraan zit te komen, is al duidelijk sinds Intel dit in 2015 bevestigde. Het is onbekend waarom de ondersteuning zo lang op zich laat wachten.

Adaptive-Sync is gebaseerd op AMD's FreeSync-standaard, waarmee een variabele verversingssnelheid voor monitoren wordt aangestuurd om tearing en stuttering te voorkomen. VESA heeft FreeSync onder de naam Adaptive-Sync opgenomen in de displayport 1.2a-standaard.

Als Intel de technologie gaat ondersteunen bij een scala aan ge´ntegreerde gpu's, zou dat voor de standaard een aanzienlijke steun in de rug zijn. Nvidia, de concurrent van AMD op het gebied van losse videokaarten, maakt juist gebruik van een eigen technologie in de vorm van G-Sync. In tegenstelling tot FreeSync is G-Sync geen open standaard en is een hardwarematige implementatie vereist.

Door Joris Jansen

Nieuwsredacteur

16-11-2018 • 21:06

49 Linkedin Google+

Reacties (49)

Wijzig sortering
Goed nieuws dit, hoop wel dat de ondersteuning voor discrete GPU's niet een ondergeschroven kindje word.
Goed nieuws inderdaad, maar ben wel een beetje argwanend dat dit van een bedrijf als Intel komt. Een bedrijf wat over het algemeen ook niet zoveel heeft met niet-proprietary technologie :P

Het is inderdaad van de zotte dat een technologie als G-sync exclusief is, iets wat eigenlijk een universele technologie zou moeten zijn.

"In tegenstelling tot FreeSync is G-Sync geen open standaard en is een hardwarematige implementatie vereist."

Is dat zo? Volgens mij was dat toch al lang debunked? Volgens mij kan je prima een variabele refreshrate technology implementeren zolang je maar een input en output lijn hebt van de gebruikte fysieke interface (In dit geval over DP)
Nvidia doet op laptops het ook zonder G-sync chip.
daar gebruiken ze ook gewoon het V-Blank command (aka zelfde als adaptive/freesync)
maarja dat kunnen ze anders niet melken via desktops.
Precies! Het is vreemd dat het niemand nog gelukt is dit driver-component werkend te krijgen binnen de desktopdrivers. Waarschijnlijk doet Nvidia er alles aan om dit te blokkeren.
Het is echter wel mogelijk om de lock op Geforce kaarten te omzeilen via een trucje:
https://www.youtube.com/watch?v=qUYRZHFCkMw
AMD loopt wat dit betreft ver voor op de concurrentie.
Ik snap dat men dit op nul modereert als "fanboyism", maar het is daadwerkelijk een goed punt dat van alle mainstream chipbakkers AMD toch een van de, als niet de, grootste voorstander van open standaarden is. Iets wat heel goed is voor de consument, en niet per se winst maakt. Dikke duim voor AMD dus, ongeacht welk merk je persoonlijk het prettigst vind.
Maar dat heeft vooral te maken met de marktpositie. Je moet een selling point hebben als je tegen Nvidia moet opboksen.
(vanuit Linux/open source beschouwd, aangezien ik dat gebruik:)
Intel doet het ook prima wbt openheid, en die leveren wel de meeste GPUs dacht ik?
Het lijkt er meer op dat nVidia gewoon achterloopt (zit nog n heel verhaal achter maar goed).
ARM GPUs zijn ook (bijna?) allemaal gesloten.
AMD had n proprietary driver maar heeft werknemers ingezet om een open driver te maken.
Dus mss samen met Intel behoort AMD wel tot de top wat dat betreft.
Dit gaat dan over drivers, maar zegt ook wel iets over de bedrijfscultuur in het algemeen lijkt mij.
Erg mooi selling point iig :)
Hoewel ik wel veel meer te spreken ben over AMD en hun positie tov open standaarden moet ik toch zeggen dat de stelling dat V achterloopt gewoon niet uitkomt in dit geval. nV heeft eerst G-Sync ontwikkeld en toen heeft AMD er (toch met wat vertraging) een open standaard achteraan gedaan die feitelijk hetzelfde doet.
Dat Intel Adaptive Sync gaat ondersteunen gaat denk ik weinig invloed hebben op de markt aangezien Adaptive Sync toch voornamelijk iets is voor gaming. Dus tot het moment dat Intel op dat vlak bruikbare GPUs uitbrengt zal deze ondersteuning weinig teweeg brengen. Vooralsnog heeft nV een veel grotere marktaandeel dan AMD en kunnen ze zich een proprietaire oplossing gewoon veroorloven.
Nou ja, ontwikkeld... 't Is niet echt een vernieuwende uitvinding dat freesync/gsync gedoe maar gewoon een voor de hand liggende toepassing.

Een HDMI/DVI/displayport verbinding is gewoon een digitaal lijntje. Die volgt nog steeds de videostandaarden uit mijn jeugd, toen schermen nog real-time de binnenkomende pixels weer moesten geven en zelf geen geheugen hadden. Flat panels hebben allemaal geheugen (de display zelf) en hoeven niet continue ververst te worden. Dus ligt het voor de hand - al is het maar om energie te sparen - om alleen beeldinformatie te sturen als er daadwerkelijk iets verandert. Als je die stap eenmaal gezet hebt, is het nog een kwestie van een afspraak maken hoe je dat met de monitor gaat communiceren.
Ik wilde ook niet zeggen dat het een enorme innovatie was, maar nV was er wel degelijk de eerste die het op deze manier toepaste. Te zeggen dat AMD dan voorloopt door het maken van een open kopie is gewoonweg niet waar en het feit dat AMD meer aan de open standaarden doet is gewoon geboren uit pure noodzaak. Ze hebben een veel te klein marktaandeel om eigen gesloten standaarden te propageren. Heiligen zijn ze op op dat gebied beslist niet.
Mja, ik bedoelde ook meer dat ze achterlopen qua openheid (vandaar ook de link).
Intel heeft in zekere zin een nog veel groter marktaandeel dan nVidia (alleen is dat bij de "massa" ipv de gamers/prosumers), dus lijkt mij dat ook zij zich wel n gesloten oplossing hadden kunnen permitteren, maar ze kiezen voor open.

Inderdaad is Adaptive Sync vooral voor gamers dus minder relevant voor Intel/"de massa". Ik ben geen gamer maar zou t wel fijn vinden als ik daarmee niet meer van display mode hoef te wisselen om 23.976/25/30 fps filmpjes "perfect" te kunnen bekijken (wat sws alleen kan op mn desktop, niet op mn Intel laptop). En mss dat 2D rendering er ook ietsje beter van wordt.
Het is gewoon eleganter om een frame te kunnen laten zien op door software bepaalde tijd, ipv door de display bepaalde tijd, die behalve conformeren aan de panel specs geen enkel doel dient.
Maar idd, zo revolutionair is het allemaal niet.

[Reactie gewijzigd door N8w8 op 17 november 2018 13:04]

Adaptive VSync werd al lang voor nV met hun gsync kwam in Panel driverchips toegepast om energy te besparen voor laptops.
Houd in dat het optionele feature al was voor chips die voor laptop industrie wel versie genruikten met.
Maar monitor fabricanten type zonder.
Het verschil is dus nu dat er nu wel meer aanbod is voor monotor chips met deze feature die ook aan AMD freesync voldoet.

nVidia speeld het klaar om placebo chip op mobo,s cash voor te vragen voor software feature SLI.

Adaptive sync is dus bestaande tech dat nV hun eigen draai aan geven om uit te melken en consument te binden. Want als dure g-Sync mobitor hebt ben je ook meer gebonden om weer upgraden naar NV.

Ik heb nu Freesync 4K 32"
... Adaptive Sync toch voornamelijk iets is voor gaming...
Spaart ook flink wat energie. Een HDMI (of DVI of DisplayPort, lood om oud ijzer) heeft continue 3 gigabit links lopen met data. Dat kost flink wat vermogen, in de grootte orde 1W. Best de moeite.
Dat ligt er aan hoe je voorlopen definieert, kwa prestaties is G-sync beter dan Freesync, er hangt alleen een hogere prijs aan.
Waar presteert gsync beter dan freesync? Er is zelfs als aangehaald dat in laptops gsync exact hetzelfde als freesync is.
Minder inputlag. groter bereik van ondersteunde framerates.
Nou nee, nieuwere freesync monitoren hebben juist een groot bereik tot 144 hz zelfs ;)
Tja, zo kun je ook stellen dat juist nvidia ver voor loopt omdat gsync een beter protocol is dan freesync. Enige wat je nu mag hopen is dat nvidia naast gsync ook deze vesa srandaard gaat ondersteunen.
Once more. Wat is beter aan dit protocol?
Totale onzin..koop je gewoon een amd kaart voor je freesync scherm, krijg je tijdelijk ook nog eens 2 AA titels gratis bij win win.
Je bedoelt net zoals bij een hoop nvidia kaarten waar je dan 2 AA titels vaak gratis bij krijgt.. op dat gebied met gratis games is het gewoon gelijk tussen de fabrikanten hoor.
Ze lopen hem daar wel een beetje te knijpen bij AMD wat betreft performance :P
Als een game Vulkan ondersteund valt dat ineens heel erg mee. :)
In elk prijs segment waarin ze mee doen hebben ze prima performance voor het zelfde geld.
Nou over 3 jaar kost in mijn geval met mijn uren gamen een vega 64 ruim 150 euro meer.

Bij videokaarten heeft amd gewoon een serieus probleem met powerdraw.
Inderdaad rekenen kan je leren daarom even een rekensommetje voor je als huiswerk.

De verga 64 gebruikt out of the box 180 watt meer als een GTX 1080.
ik game gemiddeld over het jaar 4 uur per dag.
Ik wil 3 jaar met mijn gpu doen.
Ik betaal 19.4 cent per Kwh

Hoeveel uur game ik over 3 jaar en hoeveel kwh kost mij dat en hoeveel is dat in euro's?

Success.

spoiler 4x365x3 = 4380 uur over 3 jaar (wow hehe) x 180 kwh is = 788,4 Kwh x 0.194 euro 152,94 euro. (en dan heb ik idle verbruik nog niet meegerekend)
Dus keiharde feiten plus een uitgekauwde rekensom die feiten op tafel legt en ik doe dom en roep maar wat?

Wat jij wil.... triest.
want die performance is met elkaar te vergelijken? :P
Het zou handig zijn als je ook een knop hebt om te liken of te disliken, dan zal het denk ik beter gaan met het gebruik van de on/off topic knop...
Wat betekent dit nu eigenlijk. Kan dit dan voor alle bestaande GPU's via een software update?
In tegenstelling tot FreeSync is G-Sync geen open standaard en is een hardwarematige implementatie vereist.
Dit klinkt niet alsof het softwarematig te realiseren is.
Gync vereist op dit moment inderdaad speciale hardware in de monitor, maar in principe houdt niks Nvidia tegen om hun drivers te updaten om met FreeSync te werken behalve dat ze dan geen +/- 100$ per Gsync chip kunnen vragen.
En er komt ook bij dat wanneer je alles op Gsync hebt, dat de volgende videokaart ook van nVidia afkomstig zal zijn. Met een monitor doet men over het algemeen langer dan met een videokaart. Je levert dus automatisch de keuze in om naar de concurrent over te stappen.

Zelf zal ik nooit een high-end kaart kopen dus het is makkelijk. Op het moment dat het tijd is om voor een videokaart te kijken dan zoek ik de kaart met de meeste bang for the buck. Dat is nu al jaren AMD maar wie weet wordt het nVidia in de toekomst. Dan zou ik niet vast willen zitten aan iets als 'x-sync'.

Maar goed, voor mij is dat allemaal ver van mijn bed met mijn 60hz monitor + R9 285. :P
Nee, er is helemaal geen speciale hardware voor nodig, je kunt FreeSync werkende krijgen op een Geforce kaart. Kijk maar: https://www.youtube.com/watch?v=qUYRZHFCkMw
De reden is heel simpel, de VESA adaptive sync zit in alle Geforce kaarten aangezien het onderdeel van de DisplayPort standaard is.

[Reactie gewijzigd door Tim2010 op 17 november 2018 12:41]

Dat is precies wat ik aangaf, voor Gsync is speciale hardware nodig, voor FreeSync niet. Echter wilt Nvidia geen FreeSync ondersteunen waarschijnlijk omdat dit hun geen geld opleverd. Die workaround werkt dus alleen door een amd gpu / apu te gebruiken die FreeSync support wel aan heeft staan in hun drivers. De enige reden waarom de Nvidia kaarten met FreeSync werken is omdat ze het niet toestaan via de drivers.
Ben nog altijd benieuwd naar hoe high end die high end chip gaat zijn.
Ik heb moeite met geloven dat het ook maar in de buurt van een 1060 kan komen.
Ik heb moeite met geloven dat het ook maar in de buurt van een 1060 kan komen.Ben nog altijd benieuwd naar hoe high end die high end chip gaat zijn.
Het is dan ook geen bijbel waarin geloof "de" voorwaarde is, Het is gewoon een chip
die vooraf wordt getest op daadwerkijlijke waardes
Ben nog altijd benieuwd naar hoe high end die high end chip gaat zijn.

foutje hersteld.

[Reactie gewijzigd door Rev-anche op 16 november 2018 23:59]

Oh wow! Houdt dit ook in dat ik mijn freesync monitor kan aansluiten op de Displayport aansluiting van mijn moederbord en de Nvidia kaart als renderer kan instellen? Een beetje zoals met (gaming) laptops?

Dat zou een beetje "the best of both worlds" zijn.
Dat zou fantastisch nieuws zijn want dat opent de weg naar FreeSync voor gebruikers met een Intel processor (lees: met igpu) en een Nvidia videokaart. Voor Ryzen APU gebruikers is dit namelijk al mogelijk. :Y)


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True