Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 70 reacties

AMD heeft zijn FreeSync-technologie, die stottering en tearing tegen moet gaan bij het spelen van games, gedemonstreerd met losse pc's en externe beeldschermen. De technologie was tot nu toe enkel op laptops getoond, maar moet uiteindelijk ook op pc's gaan werken.

Freesync is AMD's antwoord op Nvidia's G Sync-technologie en zorgt ervoor dat de videokaart bepaalt wanneer het beeldscherm een nieuw frame laat zien. De verversingsfrequentie van het beeldscherm wordt zo variabel, wat gunstig is voor gaming: omdat beeldscherm en videokaart compleet synchroon werken kan er geen tearing optreden. De herhalende frames die nodig zijn bij v-sync en voor kleine stotteringen kunnen zorgen, zijn dan als het goed is ook verleden tijd.

AMD heeft Freesync gebaseerd op bestaande technologie die al deel uitmaakt van de eDP-standaard. EDP, of embedded Displayport, wordt door sommige moderne laptops gebruikt om de gpu met het scherm te laten communiceren en daarom demonstreerde AMD de technologie tot nu toe met laptops. Op Computex toonde AMD echter een opstelling die bestond uit reguliere pc's en prototypen van externe beeldschermen met FreeSync-ondersteuning. Wie de beeldschermen maakt wilde het bedrijf niet vrijgeven.

AMD FreeSync

Onlangs nam de VESA de technologie op in de nieuwe Displayport 1.2a-standaard. Deze Adaptive Sync-mogelijkheid, zoals het door VESA genoemd is, is optioneel en fabrikanten zijn dus niet verplicht het in te bouwen. Daarom werkt AMD samen met de bedrijven die de scaler-chips aan deze monitorfabrikanten leveren; dat is de hardware die het inkomende beeldsignaal verwerkt en monitorbouwers kopen die vaak extern in. Als de fabrikanten van die chips aan boord zijn, komt de ondersteuning vanzelf in beeldschermen terecht, aldus AMD.

Nvidia's G Sync-technologie probeert hetzelfde te bereiken, maar werkt met een losse module die fabrikanten in hun beeldschermen in moeten bouwen. Deze module, een pcb met daarop een fpga en wat werkgeheugen, is op dit moment nog flink prijzig; volgens Asus, dat G Sync-monitoren maakt, bedraagt de meerprijs ten opzichte van een normaal scherm zo'n 200 dollar. AMD benadrukt dat FreeSync op dat vlak in het voordeel is: zolang een fabrikant zich compleet aan de Displayport 1.2a-standaard houdt, en dus Adaptive Sync ondersteunt, is Freesync feitelijk gratis.

Asus zegt vooralsnog de voorkeur te geven aan G Sync omdat er rondom FreeSync nog teveel onduidelijkheid is. Zo zou AMD's technologie voor een nog niet bekende hoeveelheid cpu-overhead zorgen. AMD zegt dat FreeSync de cpu niet extra zal belasten. Het bedrijf verwacht dat de eerste monitoren met ondersteuning voor FreeSync nog voor het einde van het jaar te koop zullen zijn.

Moderatie-faq Wijzig weergave

Reacties (70)

Ik vind het echt heel vet dat AMD met een 'gratis' tegenpool komt voor NVIDIA's Gsync maar ik vraag me af hoe het komt dat ze niet eerder deze oplossing hebben geboden sinds de technologie al meerdere jaren beschikbaar was in de VESA-standaard. Daargelaten kan ik alleen maar AMD het grootste geluk wensen en ik hoop dat Freesync een succes wordt aangezien ik geen zin heb in nog meer proprietaire technologieŽn waar extra voor betaald meot worden.
Het is niet gratis, AMD laat je denken dat het gratis is maar je bent net zoals bij nvidia een nieuwe monitor nodig waar een stukje nieuwe hardware in zit die je er bij koopt.
In theorie wel
The demo system is powered by an AMD FX-8350 processor and Radeon R9 290X graphics card. The monitor is running at 2560x1440 and is the very first working prototype of the new standard. Even more interesting, this is a pre-existing display that has had its firmware updated to support Adaptive Sync. That's potentially exciting news! Monitors COULD BE UPGRADED to support this feature, but AMD warns us: "...this does not guarantee that firmware alone can enable the feature, it does reveal that some scalar/LCD combinations are already sufficiently advanced that they can support some degree of DRR (dynamic refresh rate) and the full DPAS (DisplayPort Adaptive Sync) specification through software changes."
Bron:
http://www.pcper.com/news...ort-Adaptive-Sync-Feature

[Reactie gewijzigd door Vburen op 5 juni 2014 12:01]

Het is Free als in Free speech, niet Free als in Free beer.

Ik heb het idee dat er nogal wat onduidelijkheid is omtrent FreeSync / G-Sync.
Het idee om een paneel een variabele refreshrate te geven is niet nieuw en bestaat al in bijvoorbeeld de eDP standaard en dient voornamelijk om energie te besparen. Nvidia ziet in dat dit voor gamers ook interessant is omdat het stuttering tegen gaat. Ook al is het de bedoeling om variabele refreshrate op te nemen in de DisplayPort 1.3 standaard heeft Nvidia om commerciele redenen besloten hier niet op te wachten. Omdat variabele refreshrate een hardware aanpassing vergt heeft Nvidia zelf hardware ontworpen die dit ondersteund en geeft dit in licentie weg en houdt de techniek voor zichzelf.

AMD ziet vervolgens dat het aanslaat in de pers en maakt snel een demo die gebruik maakt van de al bestaande standaard en noemt het FreeSync. Omdat DP 1.3 nog even op zich laat wachten spoort AMD VESA aan om het alvast als optionele standaard op te nemen in DP 1.2a zodat ze sneller monitoren op de markt hebben die de technologie ondersteunen.

Adaptice sync zit nu dus als optie in DP1.2 a, maar dat betekent nog niet dat alle monitoren het gelijk ondersteunen. Eerst zal de hardware moeten worden aangepast en dan pas komen de monitoren op de markt. Je zal dus toch een nieuwe monitor moeten aanschaffen omdat het gewoon een nieuwe techniek is, of je het nu over FreeSync of G-Sync hebt.
Ja je zult toch eerst een nieuwe monitor moeten kopen om het beschikbaar te krijgen dan is het een gratis feature zonder meerprijs. Het sluipt er zowat in omdat standaard scalers het als de zoveelste feature scaler implementeren. Zolang zij de nieuwe type scaler inkopen.

Ik ben voor de komende tijd niet zo toe aan nieuwe monitor. Maar krachtigere G-kaart of twee kan altijd nog dan is gewoone Vsync ook het probleem niet meer.
Ik denk dat er meer nodig is dan alleen een nieuwe monitor, het kan geloof ik sowieo al niet op nvidia werken vanwege de aansluitingen en op driver gebied. Zoals je hier kun zien word het ook maar door een aantal AMD kaarten ondersteund.

http://techreport.com/new...added-to-displayport-spec

.

[Reactie gewijzigd door Magherb82 op 5 juni 2014 11:07]

Het is dan ook vrij nieuw, jammer dat het niet gelijk op alle kaarten werkt maar meer dan begrijpelijk dat de ontwikkeling ervan tijd kost.
Bovendien moet je als je nu een VGA monitor hebt staan zowel bij Nvidia als bij AMD een nieuwe display kopen, als je een Nvidia gpu hebt en AMD's versie wilt moet je zoiezo al een nieuwe gpu kopen dus ook die kosten hebben niks met Freesync te maken.
De enige kosten zijn die van AMD voor de ontwikkeling van Freesync, de monitorfabrikant hoeft zich alleen maar aan de specs te houden.
Btw werkt een displayport monitor gewoon prima op AMD kaarten en Nvidia kaarten.
de monitorfabrikant hoeft zich alleen maar aan de specs te houden.
Dat is het belangrijkste aan de AMD oplossing.
Ik heb geen zin om ook een nieuw display te kopen al ik van GPU verander omdat het toevallig van een andere fabrikant is en dus bijhorende monitor moet nemen.
Als het in de standaard zit, is het beschikbaar op alle kaarten en monitoren die die standaard (en functie) ondersteunen.

Dat ik ooit een nieuwe monitor moet kopen, dat zit er zowieso wel al aan te komen, maar dat die monitor afhankelijk zou moeten zijn van mijn GPU ??? dat gaat een stap te ver.
Die GPU zal in de toekomst ook wel veranderen, en of het dan een NVidea of AMD zal zijn, dat zal ik dan wel zien.
De enige kosten zijn die van AMD voor de ontwikkeling van Freesync, de monitorfabrikant hoeft zich alleen maar aan de specs te houden.
Het omgekeerde is waar, amd laat de ontwikkeling van de scalers volledig over aan de monitorfabrikanten.
Ben het niet eens met je -1, je reactie lijkt me wel on-topic... Maar ruikt wel naar fanboy-ism.
Het is een nieuwe techniek die aangepaste hardware vereist, een nieuwe monitor kopen is dus (helaas) uiteraard nodig.
Maar er is toch een enorm groot verschil tussen een nieuwe monitor kopen die een algemene (gratis) standaard ondersteund; of een monitor kopen waarvoor je nog eens $200 extra betaald die rechtstreeks naar NVIDIA gaat voor het voorrecht 'hun' technologie te mogen gebruiken? Je hebt al betaald voor hun graphische kaart.

[Reactie gewijzigd door Xzylvador op 5 juni 2014 10:32]

Het is geen fanboy reactie, het is meer om te laten zien dat het niet helemaal gratis is zoals AMD verkondigde, en omdat nvidia veel afgezeken word omdat het alleen op hun kaart werkt wat ik hniet terecht vind voor een techniek die ze zelf hebben ontworpen en AMD heeft dit niet ontworpen. Het is allemaal zo tegenstrijdig en dat bevalt mij niet.

Maar mijn excusses als het fanboy achtig over komt, dat is niet mijn bedoeling, is streef wel naar gelijkheid in reacties tegen fabriekanten door lezers hier.

Zoals Beide hebben hun voor en nadelen en om dan altijd alelen maar de nadlen van A te bekritiseren vind ik onterecht

[Reactie gewijzigd door Magherb82 op 5 juni 2014 11:13]

AMD bedoeld natuurlijk gratis voor fabrikanten. Ze hoeven AMD niks te betalen voor dit .
is streef wel naar gelijkheid in reacties tegen fabriekanten door lezers hier.
dat is alleen een goed iets als er gelijkheid tussen de fabrikanten. dat is hier niet het geval.

Nvidia is weer een propitiatory standaard aan het pushen zoals gewoonlijk, en AMD komt zoals gewoonlijk weer met een open standaard die in dit geval misschien niet technologische superior, is maar duidelijk wel veel vriendelijkere licentie voorwaarden en prijskaartje heeft voor zowel consumenten als monitor fabrikanten.

nvidia op aanspreken op hun gedrag (zeker bij de zoveelste herhaling daarvan) is zeker niet iets dat je zou moeten ontmoedigen.

[Reactie gewijzigd door Countess op 5 juni 2014 15:13]

Enige nadeel is dat een AMD gebruiker niet van bepaalde technieken gebruik kan maken, dat vind ik ook jammer want als ik nu een AMD kaart zou kopen vind ik het jammer dat ik geen hbao+ kan draaien. Voordeel is wel dat het en los stukje software is die buiten de source code werkt.
Maar goed zo heeft AMD ook weer zjin streken met tress fx wat helemaal niet goed werkt op nvidia kaarten maar wel op en is, dan heb ik liever iets wat ik helemaal niet aan kan zetten dan iets als tress fx wat wel werkt maar niet goed werkt.
tressFX werkt anders prima op nvidia kaarten.

http://www.hardocp.com/ar..._iq_review/6#.U5HrFfmSybw

alleen de minimum frames zakken iets verder terug op 1 punt, verder is het verschil met en zonder tressFX zelfs kleiner op de nvidia (maar -7 op de gemiddelde FPS met gtx680 ipv de -15 voor de hd7970)

er waren wat problemen met nvidia in het begin ja, maar wat game en driver updates hebben die al lang verholpen.

ik vind je kritiek daarom onterecht. het is niet aan AMD om te zorgen dat het goed en snel werkt op Nvidia kaarten. maar omdat ze er een open standaard van hebben gemaakt (en hem gebazeerd hebben op direct-compute) kan nvidia dat zelf wel doen. nvidia staat met hun standaarden echter niet toe dat AMD het zelfde doet (zoals bij hboa+, wat wel werkt op AMD kaarten, maar met een enome hoge performance hit).

[Reactie gewijzigd door Countess op 6 juni 2014 18:38]

Ik denk dat het een beetje het offensief is voor de 'budget' kant van gaming waar AMD erg druk mee bezig is. Prestaties verbeteren zonder daadwerkelijk de hardware zelf aan te raken.

Denk ook aan andere punten van de laatste tijd zoals uitbrengen van mantle (welke beter werkt voor goedkope hardware), crossfire tussen APU/GPU (kan waanzinnige bang for buck gaan geven) en dat de hardware in veel consoles zit (zo goedkoop mogelijk zo veel mogelijk prestaties leveren).

Dit lijkt me ook weer typisch iets om prestaties te verbeteren zonder hardware duurder te maken.
Dan mogen ze de drivers voor Linux ook wel eens wat sneller maken.
Metro LL draait op halve snelheid onder Linux vergeleken met Windows, net zoals diverse benchmarks.
met welke generatie videokaart? want dat maakt nogal een flink verschil.

met de nieuwere videokaarten liggen de linux en windows drivers helemaal niet ver uit elkaar met de binary drivers.

de opensource drivers zijn voor oudere videokaarten vaak sneller. en bij de hd4-6 series lopen de open source drivers niet heel ver achter de propriarty drivers aan.
Kan ook omdat er misschien vroeger niet veel vraag naar was of zagen de fabrikanten geen brood in.

Gebeurt wel vaker.
Of ze waren er al mee bezig, maar is dit naar voren gedrukt omdat Nvidia hun technologie heeft laten zien. Zoals het artikel al zei, een antwoord op Nvidia.

[Reactie gewijzigd door MaxForce800 op 5 juni 2014 09:10]

De technologie is pas net toegevoegt aan de standaard, daar heeft AMD voor gezorgt.
Ik vind het echt heel vet dat AMD met een 'gratis' tegenpool komt voor NVIDIA's Gsync maar ik vraag me af hoe het komt dat ze niet eerder deze oplossing hebben geboden sinds de technologie al meerdere jaren beschikbaar was in de VESA-standaard. Daargelaten kan ik alleen maar AMD het grootste geluk wensen en ik hoop dat Freesync een succes wordt aangezien ik geen zin heb in nog meer proprietaire technologieŽn waar extra voor betaald meot worden.
Nee was nog niet beschikbaar is nu pas is toegevoegd aan displayport 1.2 standaard, notebook DP 1.0 had deze standaard al gekregen maar die ontwikkeling staan los van elkaar. Kom nu dus pas eerste DP 1.2 monitoren uit die het ondersteunen.
Dit lijkt mij een betere technologie dan G Sync. Mooi dat het opgenomenen is de de standaard.

Dit lijkt mij ook zinvol voor bijvoorbeeld informatie display's die kunnen dan kiezen voor een on demand refresh, scheelt weer energie :)
Ik weet niet of het beter is. Het is in ieder geval goedkoper, en volgens mij werkt het intern net een beetje anders.

Het systeem van nVidia werkt met
een pcb met daarop een fpga en wat werkgeheugen
waar Freesync alleen de chip heeft, dus zonder werkgeheugen. Sprekend zonder kennis van de exacte werking, lijkt het dus of G-sync een deel van het variŽren van de frames offload naar het beeldscherm waar AMD dit alles in de grafische kaart/cpu regelt.

Hoe dan ook, de kans dat het beste van Freesync en G-sync samenkomen in een nieuwe standaard lijkt me sterk. Al bij de introductie van G-sync heeft nVidia trots verteld dat ze de hele techniek hebben dichtgetimmerd met patenten. Kijkend naar de praktijken van het bedrijf denk ik niet dat ze dit (voor een normaal bedrag) onder licentie zullen verkopen.

EDIT @ TheGhostInc: bedankt voor de opheldering. Kan je helaas zelf geen + geven.

[Reactie gewijzigd door Sjigy op 5 juni 2014 11:05]

Ik weet niet of het beter is.
Als je 'theoretisch' kijkt, dan is het denk ik wel beter.

nVidia heeft een 'extra' buffer ingebouwd. Je gaat van framebuffer, naar G-sync, naar schermbuffer. Extra complexiteit dus om de framebuffer gelijk te laten lopen met de schermbuffer.
Bij de oplossing van AMD gaat de framebuffer (meer) gelijk lopen met de schermbuffer en kan het scherm direct de nieuwe content tonen, zodra deze beschikbaar is. Je hoeft niet 'extra' te bufferen omdat alles al gelijk loopt.
De 'extra' CPU power is het 'in de gaten houden' van de buffer, een paar duizend keer per seconde. Daar komt een hedendaagse processor nog amper uit slaapstand voor.
De 'extra' CPU power is het 'in de gaten houden' van de buffer, een paar duizend keer per seconde. Daar komt een hedendaagse processor nog amper uit slaapstand voor.
Dit statement snap ik dus niet.
Op dit moment is het zo dat er in feite een netwerkverbinding is tussen video-output en monitor, die synchroon loopt op een vast aantal frames per seconde.
Je hebt twee (of meer) buffers in videogeheugen... De frontbuffer wordt steeds naar de monitor gestuurd, op een vaste snelheid.
Het nieuwe frame wordt in de backbuffer gerenderd. Het probleem van tearing ontstaat als je de frontbuffer en de backbuffer omwisselt terwijl je middenin het versturen van een frame zit. Het eerste deel is dan de oude frontbuffer, en het tweede deel is de nieuwe frontbuffer.

De 'oude' oplossing was dus vsync: wacht totdat het beeld volledig is verstuurd, en switch dan de buffers. In dat geval moet de CPU dus wachten totdat er weer een buffer beschikbaar is om in te renderen (maar met 3 buffers is daar weer omheen te komen omdat je dan dus niet hoeft te wachten totdat de oude frontbuffer weer beschikbaar is om een nieuw frame in te renderen... De CPU hoeft ook niet te pollen, want de GPU kan een interrupt genereren op het moment van vsync. Ook met maar 2 buffers kan de CPU dus wel achtergrondtaken doen terwijl je wacht op de interrupt, ook al kan hij niet renderen).

De nieuwe oplossing kan gebruik maken van het feit dat er sowieso een geheugenbuffer in een modern scherm zit. Het verversen van het scherm op een vaste rate stamt nog af van de CRT, waarbij iedere pixel maar beperkt nagloeit, en dus steeds opnieuw ververst moet worden.
Bij een LCD/plasma/LED worden de pixels continu aangestuurd, en is er geen sprake van periodieke verversing (wel weer periodieke 'bijregeling', maar dat is een ander verhaal, meer een soort post-processing/oversampling om om de beperkingen van de LCD-cellen heen te komen). Er is dan ook geheugen nodig om het frame in op te slaan, zodat de pixels daarmee aangestuurd kunnen worden.

Het enige dat er dus hoeft te gebeuren is dat de vaste framerate vervangen wordt door een simpel handshaking-protocol: zodra de videokaart een nieuw frame kan versturen, kan hij dat direct eenmalig doen, ipv wachten op het eerstvolgende 'slot' in de verversingscyclus (vsync dus). De monitor houdt dit frame vervolgens vast in z'n geheugen totdat er een nieuw frame komt (het lijkt me ook niet eens nodig om in de monitor een tweede buffer te hebben: een frame wordt nu doorgaans op 60 Hz of meer verstuurd. Zelfs als het 'on the fly' geupdate wordt, gaat het in 1/60e van een seconde, en zal het voor het menselijk oog waarschijnlijk niet waarneembaar zijn dat de eerste pixel 1/60e seconde eerder geupdate wordt dan de laatste. Dat zagen we immers op een CRT ook niet).

Ik zie niet in waar de CPU uberhaupt ergens zou moeten wachten. Het hele idee van G-sync/FreeSync moet juist zijn dat het wachten uit de cyclus gehaald wordt, en frames asynchroon geupdate kunnen worden. In feite is het gewoon een soort triple-buffering, waarbij de eerste buffer verplaatst is van de videokaart naar de monitor.

[Reactie gewijzigd door Scalibq op 5 juni 2014 13:15]

Volgens mij 'leeft' vSync al in de CPU en niet in de GPU.
De CPU is uiteindelijk 'verantwoordelijk' voor de framerate.

Maar het is inderdaad een soort 'dynamische' vSync...
Daarvoor hoef je dan niet een extra buffer te bouwen, je hebt immers je 2 buffers al.
Volgens mij 'leeft' vSync al in de CPU en niet in de GPU.
De CPU is uiteindelijk 'verantwoordelijk' voor de framerate.
Nee, tuurlijk niet. De GPU (of eigenlijk de RAMDAC, of hoe ze dat tegenwoordig noemen met DVI/HDMI/DP) is verantwoordelijk voor het sturen van het beeld met stricte timing. De CPU kan hooguit opvragen waar de GPU op dat moment is (je hebt bv vsync en hsync status bits, of een pixelteller en een scanlineteller).
Die synchronisatie leeft dus allemaal in de display hardware.
Alleen bij hele oude computers (zoals een Atari 2600) heeft de CPU zelf direct met de beeldopbouw op dit niveau te maken, maar dan is de hardware er ook specifiek op ontworpen, en draait de CPU op een speciale kloksnelheid die gesynchroniseerd is met het display. Bij een moderne PC draaien CPU en GPU asynchroon, ieder op hun eigen timers en kloksnelheden.

Ik denk dat je hier twee betekenissen van 'framerate' door elkaar haalt.
1) Framerate van het versturen van beelden van videogeheugen naar monitor.
2) Framerate als in het aantal nieuwe beeldjes dat gerenderd wordt per seconde.

We hebben het hier over geval 1) natuurlijk. Ook als er geen nieuwe beeldjes gerenderd worden, moet het beeld constant ververst worden (of tenminste, dat moest met een CRT... en moderne interfaces als DVI, HDMI en DP zijn nog steeds op die vaste verversing gebaseerd, zoals ik al zei).
Wat G-sync en FreeSync dus willen doen, is deze twee combineren: alleen beelden naar de monitor sturen als er ook daadwerkelijk iets nieuws gerenderd is, en dit dan ook zonder enige vertraging.

Edit: Nu ik er iets meer over gelezen heb, lijkt FreeSync niet precies hetzelfde te zijn als G-sync.
G-sync is inderdaad wat ik beschrijf: de videokaart signaleert aan de monitor wanneer er een nieuwe frame is.
Als ik FreeSync goed begrijp, dan is de framerate op zich vast, maar wordt er door de videokaart 'gegokt' welke framerate op dat moment het dichtst in de buurt komt, en wordt de monitor dus naar een andere framerate geswitcht, waardoor de frame zo snel mogelijk (maar niet direct) naar de monitor gestuurd kan worden.
Asus heeft dus wel een punt: FreeSync is een minder goede oplossing, en heeft dus ook aan de PC-kant meer werk nodig (het steeds kiezen van de juiste frequentie... en dus nog steeds wachten op de eerstvolgende vsync). Het is aan de monitor-kant eigenlijk passief.

[Reactie gewijzigd door Scalibq op 5 juni 2014 15:53]

[...]
Ik denk dat je hier twee betekenissen van 'framerate' door elkaar haalt.
1) Framerate van het versturen van beelden van videogeheugen naar monitor.
2) Framerate als in het aantal nieuwe beeldjes dat gerenderd wordt per seconde.

We hebben het hier over geval 1) natuurlijk. Ook als er geen nieuwe beeldjes gerenderd worden, moet het beeld constant ververst worden (of tenminste, dat moest met een CRT... en moderne interfaces als DVI, HDMI en DP zijn nog steeds op die vaste verversing gebaseerd, zoals ik al zei).
Wat G-sync en FreeSync dus willen doen, is deze twee combineren: alleen beelden naar de monitor sturen als er ook daadwerkelijk iets nieuws gerenderd is, en dit dan ook zonder enige vertraging.
Volgens mij kun je in situatie 1 nooit tearing krijgen. Het gaat nu juist over de samenwerking tussen framebuffer -> ramdac/uitsturing.
Vandaar ook Triple buffering e.d., van alles wordt gedaan om maar te voorkomen dat de buffers 'out of sync' lopen en halve resultaten geven.

Mijn opmerking over de CPU was verkeerd, ik was in de veronderstelling dat uiteindelijk de CPU de vSync uitlas, maar het is de GPU.
Zoals jij ook al aangeeft, de vSync zit uiteindelijk in de RamDAC, wat weer een los onderdeel is (met ook een eigen kloksnelheid), vroeger zelfs een eigen chip. Maar meestal benaderde je die niet direct, maar via de framebuffer, die weer door de CPU & GPU te benaderen is.

Eigenlijk 'slopen' ze nu alles er tussenuit en komt er een directere verbinding tussen het laatste (actuele) frame en het scherm, in plaats van een framebuffer, ramdac/uitstuurlogica en weer buffer logica op het scherm.

[Reactie gewijzigd door TheGhostInc op 5 juni 2014 15:56]

Volgens mij kun je in situatie 1 nooit tearing krijgen.
Natuurlijk wel, dat had ik ook al uitgelegd in m'n eerdere post:
"Het probleem van tearing ontstaat als je de frontbuffer en de backbuffer omwisselt terwijl je middenin het versturen van een frame zit. Het eerste deel is dan de oude frontbuffer, en het tweede deel is de nieuwe frontbuffer."

Dit is dus wat er gebeurt als je vsync uitzet: er wordt dan geswitcht zodra een buffer gerenderd is, wat meestal dus middenin een transfer van het beeld valt.
Als je wacht op vsync, zit je dus in de periode tussen het versturen van de laaste pixel van het vorige frame, en de eerste pixel van het volgende frame. Dit heet ook wel 'vertical blank interval', of 'vertical retrace interval', en dat was in de tijd van de CRT nodig om de kathodestraal van rechtsonder weer naar linksboven te laten terugkeren. Op dat moment 'tekende' de monitor dus niet.

Sterker nog, men maakte vroeger 'misbruik' van dit verschijnsel: Je kon meer kleuren op het scherm toveren dan dat je computer fysiek aankon, door het palet tijdens de beeldopbouw aan te passen. Het bovenste deel had dan het oude palet, en het onderste deel had het nieuwe palet. Raster/copperbar-effecten zijn hierop gebaseerd.
Vandaar ook Triple buffering e.d., van alles wordt gedaan om maar te voorkomen dat de buffers 'out of sync' lopen en halve resultaten geven.
Double-buffering + vsync is wat je doet om tearing te voorkomen. Triple-buffering doe je zodat je in de derde buffer door kunt renderen totdat de eerstvolgende vsync komt om de eerste twee buffers zonder tearing te switchen. Hierdoor haal je dus effectief een iets hogere framerate, en heb je minder last van schokken als je niet op de volle refreshrate van de monitor kunt renderen.
Mijn opmerking over de CPU was verkeerd, ik was in de veronderstelling dat uiteindelijk de CPU de vSync uitlas, maar het is de GPU.
Ja, in het vroege CGA/EGAVGA-tijdperk moest je met de CPU de vsync-status pollen, en dan de buffers zelf switchen. Latere (S)VGA-kaarten kregen een vsync-interrupt, zodat de GPU dus de CPU signaleerde.
De meeste andere computers hadden al veel eerder raster interrupts om de CPU te signaleren dat de beeldopbouw een bepaald punt had bereikt.
Nou lijkt mij eerder dat nV de scaler industrie passeerd en zelf custom scaler programmeerd met programeerbare hardware. Lekker duur.
Ze zouden ook een gsync scaler kunnen ontwikkelen en concureren met de andere scaler firma en die dan massa produceren en dat zou al stuk goedkoper zijn. Maar die stap is mischien te groot en zouden zich ook al snel uit de markt prijzen. Mij lijkt scaler chip een massa volume lage marge chip.
nV ziet dat kwa profits mischien niet zitten. En nV liever hun fan uitmelkt door met hun mytical imago hun slag te slaan.

Een beetje instap monitor zit zo rond die meerprijs. Dus zou toch meer naar hogere klasse kijken. 144hz groot formaat of grote 1440P of 4K panelen.
De meer op gaming gerichte varianten.
Hadden niet alle schermen met hoge refreshrates werkgeheugen aan boord voor de overdrive berekeningen?
Mij ook. Vind dan ook de reactie en uitspraken van Asus niet alleen heel vreemd maar ook zeer tegenstrijdig. Asus geeft aan 200 euro per module kwijt te zijn voor G-Sync, heeft twijfels bij de effectiviteit van FreeSync. Om vervolgens nog even een mogelijk fabeltje over cpu-overhead erin te gooien (als je het niet zeker weet, waarom meld je het dan? Dat kan alleen maar zijn om zonder al te veel risico even op AMD te schieten). Het lijkt allemaal erg veel op een leuke deal met Nvidia voor G-Sync modules die op papier 200 euro kosten maar met een dikke marge naar Asus gaan. Sowieso staat een pcb met wat werkgeheugen totaal niet in verhouding tot de prijs van een midrange GPU met koeling, want daar hebben we het over.

Dit zaakje stinkt. (Ook niet onlogisch: er zit weinig tot geen marge op FreeSync)

[Reactie gewijzigd door Vayra op 5 juni 2014 09:19]

Het is heel simpel, Asus heeft gekozen voor NVidia, zich wellicht voor een hele tijd verplicht om die dingen te leveren, en nu moeten ze dat verdedigen. Als nu opeens iedereen FreeSync gaat gebruiken staan zij (en NVidia) met lege handen, dus het enige dat ze nu kunnen doen is heel hard schreeuwen dat FreeSync zuigt, en FUD verspreiden.

Ik vind het wel best, het betekent dat ik gewoon een FreeSync scherm haal, Asus links laat liggen, en m'n leven verder leid. Gam3rzzz die graag die 200 euro extra aftikken weten ook waar ze moeten zijn, en ik zie ze vanzelf wel in m'n virtuele vizier komen :) Zien we dan wie de snelste scherm-update heeft :+
Alleen gaat het dus niet om de scherm-update.

Het gaat erom dat het scherm niet schokt, maar vloeiend is.
Tot zover lijkt nVidia daarvoor de beste techniek te hebben, die echter wel duurder is en aan nVidia voorbehouden.

Free sync is een mooi alternatief, maar waarschijnlijk niet zo goed doordacht als G-sync, en vooral bedacht als "counter" voor G-sync.
Ik denk niet dat gsync nou zoveel voordeel geeft. Als je echt voor ie smooth bunny hop actie framerate close encounters voordeel gaat. Dan tweak je je game setting al naar
Je hebt dan sowieso een 144HZ game monitor waardoor stotteren en gewone vsync stotter al reduceerd.
Dan tweakt door lage setting zonder poospas voor smooth frame rate dat dichter rond de 144 fps blijft.
Met Gsync en free sync heb ietje meer tweak ruimte. Iets hoge setting mogelijk.

Ik game juist die adhd games zoals CoD op PS3.
Op PC met tombraider
WiiU walking dead.

Heb ook 120hz monitor eerder voor 3D dan 120 fps gamen.
Asus maakt geen scalers, ze hebben nu dus de keuze, of gsync, of niks. Als ze ergens een adaptive sync scaler kunnen halen zullen ze dat echt niet laten.
De vraag is: Is Freesyns ook compatible met nVidia kaarten?
Dat is niet de vraag, dat is zeker. Tenzij Nvidia er zťlf een stokje voor steekt.

De techniek zit in de monitor, niet in de gpu en is universeel.
en zorgt ervoor dat de videokaart bepaalt wanneer het beeldscherm een nieuw frame laat zien.
Het ligt dus aan de combinatie van de videokaart met het beeldscherm. De technologie moet ook in de videokaart aanwezig zijn, lijkt me (hier ben ik overigens niet zeker van).

Edit: Nu zal een simpele driver-update dit wel bereiken, zowel voor AMD als voor Nvidia.

[Reactie gewijzigd door MaxForce800 op 5 juni 2014 10:53]

Het is nu een standaard dus als nVidia mee wil doen met de volgende generatie techniek moeten ze die wel ondersteunen. Ze kunnen ervoor kiezen dit niet te doen, maar dat is vanuit zakelijk oogpunt niet zo slim.
Omdat het nVidia is kunnen ze wel proberen om de implementatie erg matig uit te voeren, waardoor hun eigen techniek beter lijkt te presteren, zoals ze met PhysX uithalen.
Nee. De monitor stelt de verversingssnelheid bij aan de hand van het aantal FPS. Zolang die gelijk zijn is de tearing verleden tijd.

De videokaart bepaalt Šltijd wanneer het beeldscherm een nieuw frame laat zien, en is daardoor alleen beperkt door de verversingssnelheid van het beeldscherm.
Freesync werkt alleen met de gcn 1.1 kaarten als de 290x en 260x, niet met de 280x. Het is dus niet zo dat het met elke displayport gpu werkt. Waarschijnlijk wordt het ooit wel compatible met nvidia kaarten, maar waarschijnlijk niet met de huidige.
"Asus zegt vooralsnog de voorkeur te geven aan G Sync omdat er rondom FreeSync nog teveel onduidelijkheid is."

Asus bedoelt dat ze onlangs een vette checque hebben ontvangen van Nvidia.
Of omdat er daadwerkelijk onduidelijkheid is.


Nvidia heeft al hele presentaties gegeven, producten gemaakt, en deals gesloten met fabrikanten.
AMD heeft een paar videos en vooral veel geschreeuwd onder het mom van "Bij ons is het gratis!!!"
Ik denk niet dat asus door nvidia betaald wordt. Asus maakt zelf geen chips, voor schermen die compatible zijn met adaptive sync heb je nieuwe hardware nodig die asus zelf niet kan maken.

Gsync is nu dan nog lomp duur, maar het is wel verkrijgbaar, en als je een 800 dollar monitor als de rog swift maakt dan is de prijs van de gsync module wat beter te behappen.

[Reactie gewijzigd door haarbal op 5 juni 2014 10:08]

dan ken je duidelijk de markt nog niet van r&d sponsering.... zeker van dat nvidia dit aanbied om asus speciale schermen te laten bouwen.
Maar Asus levert wel schermen met deze techniek, dan zullen ze natuurlijk nooit gaan roepen dan Freesync net zo goed werkt, want dan verkopen ze die dure Gsync schermen niet meer.
Op het plaatje afgaande verlaagt FreeSync dus automatisch je schermhelderheid.

Marketing 8)7
Volgens mij is het linker beeldscherm anders als die van rechts. Links heft een glans en die van rechts is naar mijn inzien een mat scherm. Je ziet ook dat het linker scherm ronde hoeken heft en het rechter scherm weer traditioneel hoekig. Daarnaast zijn de kleuren bij links voller en daardoor lijkt het donkerder. Ik zie verder kwa helderheid niet veel verschil. het is maar net wat je gewent bent.
je moet eens kijken tussen de rode gedeeltes van de windmolen, zie dat er onder wel heldere is als bij de rest (is dat niet tearing?) of zie ik het verkeerd?
Video link ;)
Want 1 video zegt meer dan 1000 fotos
https://www.google.be/url...g2=3_jMdOI_jY2lvFSZLc4A2w

[Reactie gewijzigd door laserdesign op 5 juni 2014 10:08]

Helaas kan je het niet goed vastleggen met een video omdat deze ook weer zijn eigen framerate heeft :p.

In het echt zal het resultaat dus ook een stukje beter zijn.
Veel 120 en 144 hz moniroren ondersteunen ook 3D shutterglass methode en dan heb je extra dosis helderheid nodig. Zou mooi zijn dat 3D scherm automatisch helderheid aanpast bij 3D input detectie.
2 verschillende beeldschermen..... eerlijke vergelijking is dat idd.
Die je vergelijkt op een andere beeldscherm :+ . Ik vind het altijd zeer moeilijk om beeldschermen te vergelijken op een andere beeldscherm( lees:laptop/monitor/tabet). Zolang ik het niet in het echt heb gezien of meetwaardes kan ik geen conclusie of oordeel geven.

Met meetwaardes alleen heb ik sowieso geen zak aan. Het heeft alleen nut als ik er zelf ook erbij blijf staan. Er zijn meerdere factoren die meespelen namelijk :Y) .
En bijkomend voordeel dat er geen gloss laag meer is :+
Goed alternatief voor G-sync, hoe geweldig het ook allemaal kan zijn, ik zie niet veel mensen 200 euro extra leggen voor een scherm met een soort van ingebouwde hardwarematige V-sync.
Dan heb je PhysX gemist, of de andere Grote Voordelen die toch ietwat geflopt zijn. Marketing doet veel, en er zijn altijd hordes mensen die er wel geld voor overhebben, zeker als er een grote naam achter staat. Thunderbolt anyone?
Thunderbolt wordt in de pro branch toch echt veel gebruikt hoor. Het is veel sneller als USB/Firewire en heeft de voordelen van beiden. zo erg geflopt is het niet. Acc komen er steeds meer en worden steeds "goedkoper" (minder duur eigenlijk)
Volgens computerbase is het nog met een constante refresh.

http://www.computerbase.d...re-guenstiger-als-g-sync/

leuke techniek voor films, ook compatible met oudere kaarten als de 7970.

[Reactie gewijzigd door haarbal op 5 juni 2014 09:15]

zorgt deze technologie dan ook voor betere prestaties bij CrossFire?
bullshit asus, jullie hebben waarschijnlijk weer een contract getekend met nvidia hiervoor met extra r&d budgetten en zien die nu in rook opgaan.

open standard is de toekomst
Het is gewoon in de Displayport standaard opgenomen, dus niet alleen is het mogelijk voor NVidia om dit te implementeren, het is gewoon viable (in tegenstelling tot Mantle). Er hoeft alleen hardware support voor aanwezig te zijn.

[Reactie gewijzigd door Wolfos op 5 juni 2014 13:33]

Er hoeft alleen hardware support voor aanwezig te zijn.
Sterker nog, ik denk dat de huidige hardware het al kan (zeker bij kaarten die ook G-sync doen), er is alleen firmware/driver support nodig om te zorgen dat de Displayport het juiste protocol spreekt.
Zou mij niet verbazen als ze gewoon 2 laptopschermen in een dekstopmonitor behuizing gestopt hebben.

Tada... 2 prototypes!

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True