Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 125 reacties

Nvidia heeft in samenwerking met een aantal elektronicafabrikanten de G-Sync-module aangekondigd. De module kan in een gamingmonitor worden geplaatst en moet aanzienlijk hogere beeldverversingssnelheden bieden dan de reguliere 60Hz.

Tijdens een persconferentie in Montreal vrijdag onthulde Nvidia zijn G-sync-technologie. Deze technologie, in de vorm van een module, moet een einde maken aan de door pc-gamers gehate fenomenen tearing, inputlag en stotterende beelden als gevolg van de huidige v-sync- en framebuffer-implementaties. De door Nvidia ontwikkelde G-sync-modus wordt in een gamemonitor geplaatst als vervanger voor een videoscaler en geactiveerd zodra deze 3d-content van de videokaart detecteert, maar blijft uitgeschakeld bij normaal desktopgebruik. Er dient wel een recente videokaart van Nvidia gebruikt te worden voor de propriëtaire technologie.

Nvidia G-sync

G-sync zou in tegenstelling tot een vaste refreshrate van bijvoorbeeld 60Hz bij 3d-beelden zelf de beeldverversingssnelheid dynamisch omhoog of omlaag kunnen bijstellen door continu met de videokaart te communiceren. Hierdoor zouden storende fenomenen als tearing en lagging vrijwel niet meer voorkomen. Developers bij Nvidia zouden veel tijd kwijt geweest zijn aan het finetunen van de technologie om zo te zorgen dat de hogere refreshrates geen lagere beeldkwaliteit op de lcd-monitoren zouden opleveren.

Tot nu toe hebben ASUS, BenQ, Philips en ViewSonic aangekondigd dat zij de G-Sync-technologie in hun high-end gamingmonitoren gaan toepassen, maar Nvidia hoopt uiteraard meer fabrikanten te strikken. Onduidelijk is nog wanneer de eerste monitoren met een ingebouwde G-sync-module verkrijgbaar zullen zijn.

Nvidia maakte vrijdag ook bekend dat vanaf 28 oktober zijn Shadowplay-functionaliteit als bèta beschikbaar zal zijn. Met Shadowplay kunnen op videokaarten met een Nvidia Kepler-gpu gamebeelden worden weggeschreven tijdens het spelen. Deze zijn ook live te streamen. Shadowplay zal bovendien niet langer m2ts-containers voor de videobestanden gebruiken, maar mp4-containers voor een verbeterde compatibiliteit.

Ook Gamestream zal op 28 oktober als bèta beschikbaar komen. Deze technologie laat een pc met Nvidia-videokaart gamebeelden streamen naar een client, zoals naar Nvidia's Shield-handheld. Gamestream kan ook ingezet worden voor Grid, de cloudgamingdienst van Nvidia.

Moderatie-faq Wijzig weergave

Reacties (125)

Ik begrijp niet goed wat G-sync nou precies doet. Is er een probleem bij de monitoren die de hoeveelheid beelddata niet kunnen verwerken?
Zouden er dan ook aparte kabels bij zitten? Ik heb geen idee of de kabels momenteel een bottleneck zijn.
Ik begrijp niet goed wat G-sync nou precies doet. Is er een probleem bij de monitoren die de hoeveelheid beelddata niet kunnen verwerken?
Het is een timing issue.
Ergens in het geheugen op de videokaart is een stukje gereserveerd waarop het huidige te tekenen beeld staat: het framebuffer. x keer per seconde (de refresh rate van het scherm) begint de monitor met het tekenen van het scherm. Voor elke pixel op het scherm wordt in het framebuffer gespiekt welke kleur die pixel moet krijgen.

y keer per seconde vult de grafische kaart dit framebuffer met de pixels voor de volgende frame (de frame rate van het spel).

Het probleem ontstaat als deze twee operaties, lezen vanuit en schrijven naar het framebuffer niet netjes gesynchroniseerd verlopen; de monitor is net begonnen om het frame te tekenen, terwijl ondertussen het spel alweer het volgende frame erin aan het plempen is. Als dan het spel de monitor inhaalt (dus buffer wordt sneller volgeschreven dan uitgelezen) dan zie je op de bovenste helft van het beeld nog het oude frame, terwijl op de onderste helft al het volgende beeld staat.
Bijna goed, het is echter net precies andersom. Het nieuwe beeld zit boven daar het beeld altijd van linksboven naar rechts en naar beneden word opgetekend.
Hij bedoelt dat als de monitor het beeld aan het 'tekenen' is en bij het onderste deel is aangekomen, hij in de buffer al informatie vindt voor het vólgende frame, in plaats van het frame waaraan op dat moment gewerkt wordt. Daardoor verschijnt er een gedeelte van een nieuwer frame op de onderste helft :)

[Reactie gewijzigd door Peenutzz op 20 oktober 2013 19:48]

Min of meer.
Een redelijk standaard monitor heeft een refresh rate van 60Hz. Dit betekent dat de monitor het beeld maximaal 60x per seconde updaten. Als je te maken hebt met een stabiele 60 fps dan zal dat niet zo'n probleem zijn, dan worden er 60 frames verstuurd naar de monitor. Dit kan hij aan, omdat het beeld 60x per seconde kan updaten.

Echter als je minder dan 60 fps hebt, bijvoorbeeld steeds rond de 30 fps, dan zal het beeld nog steeds 60x per seconde updaten. Dit heeft als gevolg dat het beeld gaat stotteren. Hetzelfde geld als je 120 fps zou kunnen versturen, dan zal het beeld nog steeds maar 60x per seconde updaten. Wanneer dit gebeurt, dan kan het voorkomen dat twee frames elkaar overlappen. Dit wordt 'tearing' genoemd.

V-sync bestaat om te voorkomen dat 'tearing' optreed door een limiet te zetten op de fps en deze te koppelen aan de refresh rate van de monitor.

G-sync zal ervoor zorgen dat je beeld even vaak update als het aantal fps dat verstuurd kan worden door je videokaart.

Er zal hiervoor waarschijnlijk geen speciale kabel nodig zijn.
Edit na aanleiding reactie van YopY:
Ik heb het even nagekeken en ik ben bij de volgende conclusie aangekomen:
Het is op dit moment met geen enkele gangbare connector mogelijk om meer dan 120Hz aan te sturen. Dit geld voor Dual-Link DVI, HDMI en DisplayPort. Dit is een 'probleem' in de huidige specificatie van de connectoren en ligt dus geheel hardwarematig.
Deze versies van de specificaties zitten in de huidige Kepler-GPU's, de GPU's waar G-Sync op zal 'werken'. Dit betekent dus dat er wel degelijk een hardwarematig limiet op de fps en dus de refresh rate zal zitten. Nu zijn de maximale refresh rates in de specificaties niet zo belangrijk aangezien dit in de GPU behandeld word, maar het gaat natuurlijk vooral om de bandbreedte. Nu weet ik niet hoeveel 'overhead' er is in de beschikbare bandbreedte, maar ik betwijfel het dat het ook maar dicht bij het dubbele aantal te versturen data komt van een 120Hz signaal. Maar zelfs als dat wel zo is, dan zitten we nog op een limiet van 240 fps waarna er tearing ontstaat.
Er zal altijd een hardwarematig limiet zijn, het zal alleen de vraag zijn of de gebruiker hier wat van merkt. Voor de komende jaren? Ja, waarschijnlijk. Er zijn op dit moment gewoon moderne games waarbij je met een redelijke computer al aan de 100 fps komt.
Als er over 5-10 jaar een maximale bandbreedte is die meer dan 1000 fps aan zou kunnen met behulp van G-Sync, dan zal de gebruiker geen last hebben van het limiet, tenzij hij/zij een oud spel gaat spelen.

[Reactie gewijzigd door Ionicawa op 18 oktober 2013 20:36]

Er zal hiervoor waarschijnlijk geen speciale kabel nodig zijn.
Mits die kabel natuurlijk informatie over het aantal frames - en mogelijk een voorspelling over komende frames oid - kan versturen, en natuurlijk dat het meer dan 60 frames per seconde kan vervoeren.
Dank je wel, hier had ik even niet over nagedacht. Zie edit.
DisplayPort v1.2 kan wel tot 240h bij Full HD.

Bron

[Reactie gewijzigd door i8086 op 19 oktober 2013 05:29]

G-sync wil ervoor zorgen dat je GPU samen gaat werken met je monitor.
In plaats dat je monitor en GPU allebei op een andere framerate/hertz afspelen zullen ze op elkaar afwegen.
Dus je monitor zal pas een nieuwe frame laten zien als de frame klaar is in plaats van af en toe dezelfde frame te laten zien of een deel van de volgende frame te laten zien, dit voorkomt tearing, lag en de stutter van je monitor.
Een goede vervanging van V-sync zonder de limited framerate.
Ik snap niet dat dat zo ingewikkeld en proprietary zou moeten zijn.
De video kaart zou een variabele verversingsfrequentie kunnen uitsturen ipv een vaste (toevoeging aan de huidige standaarden) en monitors zouden dit kunnen meten, of de videokaart zou de gebruikte frequentie kunnen aangevens middels de datasignalen op de poorten.

Ik wil hier iig niet voor betalen. Geen zin om aan nVidea vast te zitten.
Voor de mensen die live mee willen volgen:
http://www.twitch.tv/linustech
Dit is misschien ook wel een heel erg belangrijke techniek voor de Oculus Rift. Screen tearing lijkt me echt misselijk makend, maar de input lag die Vsync met zich meebrengt is misschien nog wel erger!
prorpriëtaire technologie
Doei wijde adoptie van een technologie die een oplossing voor veel meer dan 'gamers' had kunnen zijn.
Niet geheel onlogisch natuurlijk.
Het is en blijft een bedrijf dat winst wilt maken.
Door deze technologie toe te passen zal de marketshare van Nvidia ongetwijfeld stijgen.

Het is natuurlijk altijd de vraag of het aanslaat bij de consument en als dit het geval is, dan zal AMD vast binnenkort met een alternatief komen.
Ja, maar support in games, niet-Windows software en cross-gpu ondersteuning?
Als er gewoon een open standaard van gemaakt wordt kan iedereen er van profiteren. Nu bepaalt Nvidia wie en wat er gedaan kan worden.
Ja, heb je wel een punt, het is lastig; aan de ene kant gun je een bedrijf zijn inkomsten maar aan de andere kant kan het wel weer beter een open standaard zijn omdat je anders voor elke GPU fabrikant een andere chip in je monitor moet stoppen, als dat al kan en je niet een andere monitor moet kopen.
De vraag is dus of dit standaard-waardig is of niet belangrijk genoeg en fabrikant specifiek mag zijn.
AMD/Intel/etc zouden wel een licentie kunnen nemen op de techniek natuurlijk, dat zou nog een alternatief kunnen zijn.
Ik gun een bedrijf geen inkomsten als ze standaardisering tegen werken. Uiteindelijk is zoiets in het nadeel van de klant.
Ik gun een bedrijf geen inkomsten als ze standaardisering tegen werken.
Vertel eens, welke standaard wordt door Nvidia tegengewerkt?
Of is het wellicht zo dat Nvidia hier juist innoveert en met een oplossing komt voor een probleem dat speelt op alle videokaarten? Welke oplossing heeft AMD dan in de maak? Welk consortium is er opgericht om een standaard te fromuleren om dit probleem op te lossen?

Het moet toch niet gekker worden. Meerdere bedrijven hebben hetzelfde probleem. Dit probleem speelt ook al jaren. Vervolgens komt één bedrijf als eerste met een oplossing en dan zouden we die geen winst gunnen omdat die standaardisering tegenwerkt?

Hoe kan er ooit een standaard komen als er niet een bedrijf als eerste met een idee voor een oplossing komt?

EDIT: Zucht ik word echt moe van dat modden hier. Ja mijn post is offtopic, ok. Maar waarom scoort Durandal dan wel +1? Zelfde topic toch?? Ik wou dat Tweakers de namen van de modders erbij zou zetten dan konden we de facebook modders herkennen.

[Reactie gewijzigd door OddesE op 18 oktober 2013 22:49]

Het probleem is dan ook dat er geen consortium is, die dit goed regelt. Hier gaat Nvidia btw. naar mijn smaak "over haar grenzen" heen, want ze doen het niet alleen met hun videokaarten maar betrekken de monitor-industrie erbij.
ok; en straks is elke gamemonitor 200¤ duurder omdat er een chip inzit van nvidia én amd én een chip van intel én een speciale chip voor zus én een speciale chip voor dit en dat ...

neen, nvidia is hier fout als ze lock in doen...

ze mogen van mij gerust de boel patenteren... maar dat ze dan de boel open maken zodat andere fabrikanten ook van die techniek kunnen gebruik maken...
dan voorkomen ze ineens dat
a) andere fabrikanten die chip ook moeten maken en gaan verkopen aan de monitor fabrikanten voor hun eigen producten
b) straks de monitor onnodig duur worden omdat er 16 chips extra in zitten
Vertel eens, welke standaard wordt door Nvidia tegengewerkt?
Iets hoeft niet te bestaan om de geboorte er van tegen te werken.
Dat lijkt me duidelijk.
ik had liever gezien dat ze inderdaad gewoon direct winst zouden maken met deze chip. door hem voor winst te verkopen, ik heb best wat extra geld over voor deze tech, maar de vendor locking daar wacht ik dan weer niet op.

de module kan niet enorm prijzig zijn dus als er een paar $ winst op gemaakt wordt vind ik dat prima, vindt het ook niet erg als het eest werkt met Nvidia kaarten en amd later support toe kan voegen, maar een echte lock is toch erg jammer te noemen want het idee is erg goed...
Ter info: Het is vendor lock-in.
zonder patenten zou er nauwelijks innovatie zijn. Waarom zelf de kosten maken als de rest het gewoon zal overnemen zonder die kosten te hoeven doen? ;)
Het is geen standaardisering, het is een concept van nVidia in ontwikkeling.
Stel ik ontwikkel morgen een auto, die kan vliegen in de lucht, varen in het water en rijden op de weg. Dit terwijl het uitziet als een quad.
Dan moet iedereen dat zomaar mogen maken en mij vergeten wie en wat ik ben geweest met dit concept? Nah.
Laat ze maar lekker een bepaald aantal jaren mij betalen, VOORDAT HET STANDAARDISERING word.
Klantbinding dus. Dat is waar alle ondernemingen op uit zijn. Daarom hebben winkels klantenkaarten etc. Of zegelsystemen.

Maar als ik nu de keuze heb tussen Nvidia en ATI, dan kies ik inf eite al voor een processoertechnologie.

Ik herinner me de jaren 90 toen mensen altijd praatten over het verschil in beeld tussen beide merken. Daarover hoor ik nu niets meer. Blijkbaar maakt het niet meer uit voor je beeldkwaliteit en kleurdiepte en weet ik veel wat allemaal nog meer welk merk je kiest.

Ik zag geen verschil tussen een ATI kaart en mijn Nvidia kaarten.

Je kunt eigenlijk kiezen voor de binding. Ik kies eigenlijk voor Nvidia vanwege Boinc en hun 3D systeem. Ik heb een BenQ monitor (wees voorzichtig in de aanschaf van een BenQ (3D) monitor)) want als je kapotte pixels hebt dan moet je door de hel om een andere monitor te krijgen. Waarom? Omdat, zo werd me verteld, de bazen in Azië heel moeilijk doen over het terugsturen van schermen. M.a.w. er is een directive van hogerhand om consumenten te naaien.

Dus of ik nu kies voor een GPU zus of zo, dat doe ik nu al. Dit extra stuk techniek is voor elke Nvidia gebruiker een voordeel. Er valt wat te kiezen. Als AMD nu ook gewoon met zoiets komt...prima toch?
Ik heb een BenQ monitor (wees voorzichtig in de aanschaf van een BenQ (3D) monitor)) want als je kapotte pixels hebt dan moet je door de hel om een andere monitor te krijgen. Waarom? Omdat, zo werd me verteld, de bazen in Azië heel moeilijk doen over het terugsturen van schermen. M.a.w. er is een directive van hogerhand om consumenten te naaien.
Toch even offtopic reageren:
Daarom een monitor altijd online kopen. Kan je hem terugsturen onder de wet koop of afstand, heb je ook geen gezeur.
Vervolgens is het het probleem van de webshop. Na twee keer laten ze het wel om BenQ in te kopen. Na een jaartje trekt de fabrikant wel bij.
De webshop was BenQ. En terwijl ik wachtte op advies wat te doen, ging die 14 dagen koop op afstand periode voorbij. Ik dacht dat ik een RMA situatie had. Toen de 14 dagen voorbij waren moest het wel via die manier.
Bovendien waren ze toevallig heel erg druk met hun website. Er was geen pixel policy te vinden, behalve op de Australische site. Formulieren voor aanvragen RMA etc. kon je niet vinden. Informatie over dit soort zaken linkten door naar nietszeggende pagina's. De 'run around' dus.

Uiteindelijk na dreigen met juridische stappen etc. had ik iemand aan de telefoon die me vertelde dat ik een "carre" moest voorstellen in het midden van het scherm en als daarin de pixels zaten, ik de boel kan omruilen. Dat was een grensgeval, net er in of net er uit en dan alleen nog via de pixel policy, namelijk afhankelijk van scherm grootte mochten er zo en zo veel dooie pixels, luie pixels en nog een soort pixel zitten.

De man wilde graag meewerken had ik het idee dus heb ik gewoon gezegd dat het in het carre viel en val lekker maar dood, hm? De man leek erg bang voor de directie in Azie...Zuid-Korea of zo?

De volgende monitor wil ik eerst uitgebreid testen in een winkel, met een USB stick met software die het scherm de primaire kleuren doorjaagt zodat ik elke pixel kan onderzoeken.

Dat dit allemaal legaal is... Als je een auto koopt met een splinter in de voorruit dan pikt niemand dat, maar ik zou wel naar een cluster rode pixels moeten kijken (omdat het er minder zijn dan 10 of zo) off centre in mijn scherm en de fabriek mag bepalen dat dit okay is omdat zij de techniek niet kunnen perfectioneren?
Ja allemaal ellende.
En terwijl ik wachtte op advies wat te doen, ging die 14 dagen koop op afstand periode voorbij.
Hier is het dus fout gegaan. Direct terug sturen en niet zeggen waarom. Of idd in de winkel testen.
Maar dat hoef ik je nu ook niet meer te vertellen denk ik.
Tja het is toch ook door Nvidia ontwikkeld? Niet zo gek dat ze er dan geld mee willen verdienen. Ze hebben er toch ook R&D kosten inzitten.

Vind het verder een mooie technologie en een slimme stap van Nvidia om zo direct het beeldscherm te besturen en niet nog door de aansturing vd monitorfabrikant heen te hoeven. Ben wel benieuwd hoeveel extra het zal kosten en welke kaarten het ondersteunen.
Tja dat we niet met SLI een Nvidia kaart aan een AMD kaart kunnen knopen is te begrijpen maar de monitor is het deel na de kaart, ik kijk er niet echt naar uit dat we straks weer twee technologieen hebben waarvan elke zijn eigen voor- en nadelen hebben...
Verder wel een interessante ontwikkeling, maar ik ben sinds Thunderbolt erg sceptisch...
Heel slim gedaan van Nvidia idd, wellicht halen ze hier niet zoveel nieuwe klanten mee binnen, maar mensen die hun PC upgraden en zo'n monitor met Nvidia kaart hebben zullen bij een nieuwe PC toch voorkeur geven aan een nieuwe Nvidia kaart aangezien een monitor niet zo vaak geupgrade wordt als de PC.
Het is volledig gepatenteerd...
Nouja, DVI en VGA en bijna elke technologie die iets met beeldschermen en videokaarten te maken heeft is propriëtair, dus da's niks nieuws.
Liever propriëtair dan uberhaupt niet.
@johnkeates Ook het eerste wat ik dacht.
Wow dit is echt geweldig als dit goed werkt. Variabele beeldverversing is iets wat ze allang hadden moeten implementeren hiervoor. Alle voordelen van vsync zonder enig nadeel. Ik snap niet dat dit weer in de monitor moet kan dit niet gewoon in de grafische kaart zelf of is dat niet snel genoeg. Voor zover ik weet kun je nu ook gewoon je refresh rate aanpassen in je os.
Je zegt het zelf toch, variabele beeldverversing. Dat moet dus real-time op het scherm geregeld worden. Via het os zou dit veeeel te traag zijn.
Bovendien is niet de refresh rate an sich het probleem. Zelfs als zowel de graka als de monitor op 60 Hz verversen zou dit probleem kunnen ontstaan. Als de videokaart precies tegelijk begint te schrijven naar het framebuffer als dat de monitor begint te lezen dan zit de kaart dus precies die pixels te overschrijven die de monitor probeert te tekenen.

Wat je moet hebben is dat de kaart begint met schrijven naar het begin van het buffer als de monitor net halverwege het tekenen is. En dan in hetzelfde tempo schrijven als wordt gelezen, zodat de kaart de monitor nooit inhaalt (en andersom ook niet) en de monitor als hij weer van voren af aan begint altijd netjes het volgende frame in het buffer aantreft, dat dan alweer voor de helft gevuld is.

. . . . . . . . . . . . . . . . . ._ (buffer start)
Card writes -----> . . |
. . . . . . . . . . . . . . . . . . |
. . . . . . . . . . . . . . . . . . |
. . . . . . . . . . . . . . . . . . |
. . . . . . . . . . . . . . . . . . | . <---- monitor reads
. . . . . . . . . . . . . . . . . . |
. . . . . . . . . . . . . . . . . . |
. . . . . . . . . . . . . . . . . . |
. . . . . . . . . . . . . . . . . . - (buffer end)
Het probleem ligt in feite helemaal niet bij framebuffers enzo.
Het probleem wordt veroorzaakt door de game engines.
Die zijn blijkbaar niet ontworpen om op een stabiele snelheid frames af te leveren.
De informatie over wanneer er een frame verwacht wordt is er gewoon, dat heet vSynch en kan gewoon gequeried worden. Tearing is vooral een probleem op de PC architectuur waar vaker met flexibele en asychrone engine(delen) wordt gewerkt. Dat betekent dan bijvoorbeld dat het beeld gewoon maar net zo vaak wordt berekend als mogelijk. Soms renderen ze teveel frames en soms te weinig. Je rendert dan nooit frames die qua tijd samenvallen met het tempo van je monitor. De gerenderde frames vallen dus op willekeurige tijden tussen de monitor frames en is de inhoud van de frame dus altijd versneld of vertraagd ten opzichte van de vorige frames op de monitor. Je ziet dus ook vaak een frame van een tijd die al geweest is of van een tijd die nog moet komen.

Ondertussen is deze vorm van engines bouwen overgewaait naar consoles en zie je sinds met name de vorige generatie veel games met zwabberende frames.
Het werkelijke probleem met tearing is dus de game engines. Zo'n frame wordt per definitie niet op het juiste moment weergegeven en had eigenlijk tussen 2 monitor frames moeten worden weergegeven om de inhoud van het frame op de juiste plek in tijd weer te geven. Dardoor krijg je, als je vsynch aan hebt, zaken als microstuttering en temporale aliasing.
De JUISTE oplossing is om met je engine rekening te houden met het werkelijke tijdsverloop. Dat wil zeggen zorgen dat je engine altijd net zoveel frames per tijd aflevert als dat je frames kan weergeven, zorgen dat al die frames dezelfde hoeveelheid tijd voorstellen en ook nog op tijd alles tekenen.
Veel engine bouwers zijn gewoon niet goed genoeg om zo'n engine te bouwen, laat staan dat dat op een willekeurige pc configuratie moet presteren.
Het zijn dus ook vooral de consoles waar dit probleem in de kern kan worden aangepakt. Je hebt dan gewoon veel meer controle over het uitprakken van een frame, begin tot eind.
Op de PC is het lastiger vanwege de vele configuraties, maar zeker niet onmogelijk.
1 van de grote probleme in toch echt het OS dat te pas en te onpas overal tussendoor tettert. Je kan dan nog zoveel weet hebben over hoe lang je frame gaat renderen, als er opeens een bulk harddisk transfer gestart wordt door het OS ben je alsnog het haasje.
Veel moderne games kijken gewoon wat ze zoal kunnen produceren en prakken de door de tijd zwabberende engineframes dan richting een strak lopende framebuffer.
En dan gaat het mis.

En nVidia's oplossing is dan om de monitor het gezwabber van de engine te laten volgen. :/
Ik ben het er niet mee eens en ik voorspel dat een zwabberende framerate geen echte oplossing is.
De frames worden dan welliswaar altijd in zn geheel gerendert (dus tearing valt weg) maar je krijgt dan alsnog niet een stabiele stroom informatie voor je snufferd.
Mijn ervaring is dat de monitor pas 'transparant' wordt naar de 3D wereld als de engines een strakke framerate produceren. Hierdoor abstraheren je hersenen de monitor weg en krijg je de indruk door een raam te kijken. Bij zwabberende framerate gaat dat gevoel weg.
Het klinkt dus vooral leuk op papier, maar waarom zou iemand een propietary technologie willen die een nieuwe monitor vereist maar die alsnog niet het eigenlijke probleem wegneemt?
De enige echte oplossing zou zijn om het OS in bedwang te houden zodat een engine beter kan voorspellen hoe langie over een frame gaat doen zodat het op een stabiel tempo frames gaat afleveren.
Deze gadget doet dat helaas niet.
Wat jij zegt ben ik het volledig mee eens. Echter is dit in de praktijk zo moeilijk uit te voeren. Aangezien er heel veel verschillende combinaties mogelijk zijn met computer componenten. Een goed voorbeeld van een hele stabiele framerate vind ik tot nu toe tomb raider (2013) . Geen vervelende frametime spikes prachtige game. Echter er zijn zoveel engines die dit verkeerd doen gamebryo (TES series), unreal engine (bioschock, batman, etc...), q3-engine -_- (COD series).
Ik vindt dit dan ook een goede tussenweg aangezien de engine/game-makers het niet doen soms. Uitzonderingen daargelaten natuurlijk en je kunt het DICE bijvoorbeeld ook niet kwalijk nemen dat op 64 speler servers de framerate soms onder 60 fps valt. Vandaar dat ik dit een goede technologie vind.
Je theorie is goed echter het schrijven naar de buffer toe (die op de GPU zit). Kan onder een ms gebeuren. Dit is een simpele copy-pasta naar de laatste buffer. Ik zie bij mijn eigen redenering nu ook de fout.
In het huidige monitor paradigme is het zo dat de monitor de buffer gewoon om de zoveel ms de buffer uitleest en hij een vsync-singaal stuurt als hij klaar is met LEZEN. Dit geeft de buffer de tijd om nieuwe informatie te verkrijgen uit de buffer achter hem. En als die er dus niet is... Dan moet je wachten tot de volgende vsync. Zie het maar als een bus halte. Als je te laat bent voor de ene bus moet je wachten op de volgende. Met g-sync is het meer een taxi die wacht op je zodat als je te laat komt je alsnog mee kan :).
Daar zit dus ook mijn fout dat de monitor moet wachten met lezen en dat doet die chip dus nu. In het huidige systeem is het zo dat de gehele timing (bus-tijden schema :P) verandert van de monitor veel te langzaam voor dit principe.
Jouw oplossing kan echter wel een kleine prestatie winst opleveren want als je al schrijft naar de buffer toe als de monitor hem aan het uitlezen is. Dan kan in de buffer zelf al worden gewerkt aan de volgende frame--> hogere fps.
Dit is mijn eigen interpetatie als ik fout zit hoor ik het HEEL graag. Ga er dan ook niet vanuit dat dit volledig klopt.
"In het huidige monitor paradigme is het zo dat de monitor de buffer gewoon om de zoveel ms de buffer uitleest en hij een vsync-singaal stuurt als hij klaar is met LEZEN. "

Nee, zo werkt het niet.
Je monitor kan omgaan met waardes die een beetje afwijken van die (zeg) 60Hz.
Jij stelt je videokaart in om beelden te genereren op 60Hz.
Dit gaat nooit helemaal precies op 60Hz en je monitor regelt zichzelf actief in op de binnenkomende beelden. Je videokaart weet helemaal niks over wanneer je monitor een beeld tekent. De vsynch wordt in de videokaart gegenereert en de monitor lockt zich daaraan.
Die buffer (bushalte) zit dus in je videokaart.
Dus zelfs als jouw gpu een beeld niet kan renderen zal er toch een beeld richting monitor worden verstuurd (en wel op de verwachtte refreshrate), alleen is die dan onvolledig (of half over het vorige beeld) getekend.

Het punt met moderne monitoren is dat ze theoretisch een willekeurige framerate kunnen weergeven. Dat wil zeggen dat het binnenkomende beeld niet meer heel dicht bij de huidige refreshrate hoeft te liggen. De monitor kan zich aan willekeurige framerates locken. Alleen is het zo dat als je heftig aan die refreshrate gaat draaien dat er dan een aantal bijverschijnselen plaatsvinden. Hier kan de monitor voor compenseren maar dan moetie wel weten wat de verwachtte framerate is. En daar is die chip voor. Door die chip kan de GPU blijkbaar aan de monitor uitleggen wat de verwachtte framerate is en daarmee kan de monitor zich beter voorbereiden op het weergeven van die framerate.
ah dus die timer zit in de videokaart. Ik dacht stellig dat hij een signaal terug kreeg van de monitor maar dat is dus niet zo. Is er ook een officieel document dat het beschrijft als je googled vindt je alleen maar interpetaties van gebruikers. Het maakt toch geen onderdeel uit van opengl of directx toch? Het zit hem in de drivers dacht ik weet ik niet zeker. Ik heb wel is met opengl gewerkt alleen toen kon je dat niet met opengl aanzetten maar moest ddat in de window manager gebeuren.
Ik hoop dat ik mag linken van tweakers maar dit artikel van reddit zegt ook dat de monitor een signaal terug stuurt.
http://www.reddit.com/r/b...g_vsync_and_other_things/.
Ongeveer in het midden van het artikel staat deze zin.
"With VSync enabled, the graphics card is told to wait for the monitor's signal before generating and sending a newly completed image for display. "
Lastig om nou te weten wat nou correct is :(.
Ik hoop dat ik mag linken van tweakers maar dit artikel van reddit zegt ook dat de monitor een signaal terug stuurt.
http://www.reddit.com/r/b...g_vsync_and_other_things/.
Ongeveer in het midden van het artikel staat deze zin.
"With VSync enabled, the graphics card is told to wait for the monitor's signal before generating and sending a newly completed image for display. "
Lastig om nou te weten wat nou correct is :(.
Ja, das dus onzin.

Je kan hooguit te weten komen wat de huidige/maximale verversingssnelheid van de monitor is, maar je krijgt geen signaal van de monitor terug wanneer die een beeld heeft getekend.
Dus, monitor zegt datie 60Hz aan kan, gpu stelt zich daarop in en produceert beelden op zo goed als 60Hz, de monitor herkent dat als belden die 60 keer per seconde binnenkomen en lockt zich aan die stream.
Hartelijk dank voor je uitleg. Ik heb de dvi en vga specs kunnen vinden en doorgespit en inderdaad de communicatie is one-way (afgezien van edid). De gpu levert gewoon een soort van format stream aan de monitor en die moet het maar slikken. Vandaar dat g-sync natuurlijk ook Display-port nodig heeft (http://www.geforce.com/si...YNC-Performance_Chart.jpg) aangezien die een auxilary channel heeft die bi-directioneel is. Dit geeft de interface dus de mogelijkheid om zich voor te bereiden op een andere snelheid. Ongelofelijk dat vsync op bijna elke site fout wordt uitgelegd.
In ieder geval bedankt ik zal je niet meer lastig vallen ;).
"In ieder geval bedankt ik zal je niet meer lastig vallen ;). "

Ik ben altijd blij als ik dit soort fabeltjes kan rechttrekken, hoor!
:)
Worden hiermee ook de resoluties eindelijk een hoger en de prijzen normaal? z niet zie ik de meerwaarde nog altijd niet aangezien vsync tearing ook voorkomt en niks extras kost.
V-sync zet een maximum aan het aantal fps wat de videokaart uitspuugt (waarbij de maximum het aantal Hz van de monitor is). Volgens mij wordt het een probleem als je videokaart dat aantal fps niet haalt. In mijn ervaring krijg je dan een veel schokkendere ervaring dan zonder V-sync en doet V-sync meer kwaad dan goed.
Daar helpt adaptive vsync van Nvidia dan al voor, alleen heb je dan nog steeds tearing in sommige gevallen
Het nadeel van vsync is een tragere respons op input,
de tijd tussen het drukken van een knop en het verschijnen van de reactie op het scherm vergroot.
Waarom is een Hz/FPS van 61+ zo erg nodig, afgezien van 3D?
Omdat 60hz nogal schokkerig is en niet erg vloeiend als je hogere refresh- en framerates gewend bent. Onder de 100 beeldjes per seconde seconde zijn shooters niet echt lekker speelbaar en onder de 80 schokt het gewoon als een gek. 60 beeldjes per seconde is prima voor strategy games en adventures, maar voor shooters is 60 fps gewoon onspeelbaar.
Onspeelbaar is zwaar overdreven. Er is ghosting op LCD's, ja. En een 120hz verbetert dat sterk, een 120Hz met de lightboost hack is zelfs nog beter op het vlak van ghosting.

120hz biedt een meerwaarde in shooters - als je stabiel 120 fps kan halen - maar het is geen noodzaak.
Ghosting e.d hebben er niks mee te maken (wat niet weg neemt dat het vervelend is hoor).

Waar het om gaat is input lag. Bij 100 hz heb je een input lag tussen de 1 en 10 ms. Als je net voor het volgende frame opzij kijkt dan is die input 1 ms later al in het volgende frame verwerkt. Ben je net te laat dan zit jouw beweging er nog niet in en moet je 'wachten' tot het volgende frame. 10ms is best veel in een competitief FPS spel; het kan het verschil maken tussen doden of gedood worden.

Op een lokaal netwerk kun je een ping halen van 1ms. Dan kan zoiets echt uitmaken. Speel je online over het internet dan gaat dit al snel richting 25 - 50ms. In zulke setups zal een framerate onder de 100hz veel minder relevant worden.
"Bij 100 hz heb je een input lag tussen de 1 en 10 ms. "

Denk meer tussen de 10 en 20 ms. Je loopt altijd een frame achter omdat je op het vorige frame reageert en het resultaat pas ziet als het volgende frame getekend is.
Ghosting op een LCD heeft geen zier met framerate te maken, maar is gewoon de schakelduur van je pixels. Een goede overdrive zorgt er voor dat je geen last van ghosting.
Met een goede overdrive heb je nog steeds last van ghosting. Ik heb een tijdje een CRT + 120hz LCD gedraait en dat verschil was duidelijk te zien. 120hz OLED schermen zullen dit oplossen.
Sorry maar dan zou ik eens naar je setup kijken, want daar is dan wat mis mee.

Ik heb zelf nooit op een 120Hz scherm gespeeld, ik heb liever IPS. Dat mensen voorkeur hebben voor 120Hz en het er stuk beter uit vinden zien, prima! Maar kom dan niet ermee aanzetten dat 80fps als een gek schokt en 60fps onspeelbaar is. Ik durf te beweren dat minstens 98% van de spelers van shooters op 60fps of lager speelt. Allemaal spelen ze iets wat onspeelbaar is?

Zoals ik zei ik heb zelf geen 120Hz scherm, maar dat het er vloeiender uit ziet geloof ik best. Maar als 80 fps als een gek schokt en 60fps onspeelbaar is dan gaat er echt iets mis in je setup.
Toen ik (10 jaar geleden) nog een 120hz monitor had en competitief quake speelde, merkte ik zeer zeker het verschil met 60hz monitoren. Nu speel ik af en toe nog een blizzard spelletje en vind ik het niet meer relevant, daarom heb ik nu een IPS scherm.

Het zijn wel duidelijk 2 verschillende markten, die gelukkig ooit een keer verenigd zullen worden met een 120hz ips scherm met g-sync ;)
Prachtige placebo. De verversingsfrequentie van je oog is ongeveer 60 tot 70Hz. Het verschil tussen 60 en 120Hz kun je dus gewoon niet zien.

Echter: Als je game gemiddeld 60Hz haalt, dan betekent dat dat je af en toe ook beduidend minder dan die 60Hz haalt. En dát is natuurlijk wél zichtbaar.
Vooral wanneer je v-sync aan hebt staan, en minder dan 60Hz daardoor automatisch 30Hz betekent.
Dat is niet waar. Het is al aangetoond dat mensen gebeurtenissen van 1/200ste seconden kunnen waarnemen. Een oog heeft niet zoiets als een verversingsfrequentie.
Waarnemen is wat anders als het daadwerkelijk kunnen zien van een object, ik kan waarnemen dat er een kogel voor me neus langs vliegt maar die kogel daadwerkelijk zien is een heel ander verhaal. Je hersenen geven een seintje dat er iets is maar om het te kunnen identificeren heb veel meer tijd nodig.
Je ogen geven in zo'n geval veel meer informatie dan alleen het feit dat er iets was. Je weet ook hoe snel het ging en in welke richting.
Dat is enorm nuttig in bijvoorbeeld FPS-en.
Verder is er een groot verschil tussen de reactietijd van kegeltjes en staafjes. Dat lijken maar weinig tweakers hier te begrijpen.
Je ogen halen behoolijk wat informatie uit de perifere beeld en dat wordt vooral door de snellere staafjes waargenomen. Als je een beetje grotere monitor voor je snufferd hebt dan gaat de refreshrate voor je perfere visie meespelen.

Overigens zag ik vroeger op mn crt monitor duidelijk het verschil tussen 80Hz ververs en 100Hz ververs. Daarna zag ik nog een minimaal verschil tussen 100Hz en 120Hz.
Op 60Hz kon ik niet werken en had binnen 5 minuten tranende ogen.
Ik onderstaaf de ervaring van Koeitje dus volledig.

[Reactie gewijzigd door koelpasta op 19 oktober 2013 11:44]

*zucht*

Je oog heeft wel degelijk een verversing frequentie. De sensors hebben gewoon een kleine tijd nodig om weer opnieuw een input te registrren. Dat is gewoon de eigenschap van het rhodopsin molecuul in je ogen. Hetgeen dus gelijk staat aan een verversingsfrequentie, die vanzelf synchroon gaat lopen met je beeldscherm.
Die verversing is zelfs enigzins verschillend voor de verschillende kleuren. Dat is met heel simpele experimentjes aan te tonen, door bijvoorbeeld een zwart-witte schijf snel rond te draaien. Je gaat dan kleuren zien, vanwege die verschillen in verversings frequentie.

Die 1/200ste seconden, is een verdraaide interpretatie van een niet-representatief experiement. Bij een compleet zwarte achtergrond, heb je uiteraard geen last van een verversing van je sensor, omdat er überhaupt geen licht op valt. (En het dus niet hoeft te regeneren) Als je dan plotseling iets laat zien, kan je oog onmiddellijk reageren. En dát gaat dan inderdaad met zo'n 1/200ste seconden. Daarna echter, moeten die bewuste sensors regeneren en dat duurt zo'n 1/60e seconden.

Aangezien je in spellen niet een compleet zwarte achtergrond hebt, maar constant licht op de sensors valt, zit je constant in de situatie dat de sensors aan het verversen zijn, en dus daardoor gelimiteerd worden.

[Reactie gewijzigd door AHBdV op 19 oktober 2013 00:50]

Het duidelijk zichtbaar als je nog een CRT hebt staan. Geen LCD, want de reactiesnelheid van de pixels is niet snel genoeg. Zet je CRT op 60hz en speel een in-game demo af van een character dat snel rent. Zet dan je CRT op 140hz en kijk weer naar dezelfde demo. Je zult zien dat de benen veel soepeler bewegen. Ik heb dit soort experimenten gedraaid met 2 monitoren naast elkaar. Placebo mijn reet.
Fyi, ik speelde quake met 300fps+ gemiddeld als ik vsync uitzette.

Theorie blijft onderhevig aan de praktijk, je kunt roeptoeteren dat ik het verschil niet kan merken omdat je iets ergens hebt gelezen en voor waar hebt aangenomen. Ik zou je echter adviseren te luisteren naar mensen met PRAKTIJKervaring.
De praktijk leert inderdaad dat het placebo effect verschrikkelijk sterk is. Daardoor zijn er ook hele volksstammen die in homeopathie geloven, ondanks dat het oontaanbaar nonsense is. Idem met jouw 300fps praktijkervaring.
Haha oke, blijf lekker met je oogkleppen op rondlopen joh, dan heb je namelijk altijd gelijk!
In het geval van 300fps heeft hij wel gelijk. Er zijn geen schermen die dat doen. Ik zie ook het verschil tussen 120hz en 140hz niet meer op een CRT. Maar 60 naar 90 naar 120 zie je duidelijk.
Ik denk persoonlijk dat jij eerder naar je setup zal moeten kijken. Of eens langs moet gaan bij de oogarts ;). Als je jaren op 140hz op een CRT hebt gespeeld zie je het verschil duidelijk.
En na je vorige nogal belachelijke post ga je verder met zo'n post? En nee een smiley maakt het niet beter als je mensen verteld dat ze naar een oogarts moeten.

Ik heb nooit ontkent dat je het verschil niet ziet. Het staat zelfs specifiek in mijn post dat je het verschil kan zien (en dan mij vertellen dat ik langs een oogarts moet gaan). Echter een verschil zien is niet hetzelfde als dat 80Hz enorm schokt en 60Hz onspeelbaar is. Als dat zo is dan is er gewoon iets mis in je setup. Nagenoeg iedereen speelt op 60Hz of minder. Dat het mooier/vloeiender kan geloof ik direct. Dat het onspeelbaar is, is gewoon idioot en slaat nergens op.
60fps is te doen voor singleplayer shooters, maar voor multiplayer is het gewoon te weinig. Het verschil is dag en nacht. Er is een reden dat Quake spelers jarenlang CRT's gebruiken terwijl er al 60hz LCD's waren.
Wat natuurlijk alleen maar kan, omdat hoger dan 60 FPS te doen is. Als alles op 60 FPS gecapped is, is het prima te doen, voor iedereen. Waarom? Omdat iedereen met dezelfde "handicap" speelt.
Maar ik speelde BF4 op 30fps, en ik merk let-ter-lijk helemaal niks dan als ik hem op de laagste settings en 70fps draai(behalve grafische kwaliteit natuurlijk.)
Dat is zeer zeker mogelijk, maar het verschil is er, en mensen kunnen het waarnemen. Sommige mensen vinden het vervelend, andere mensen merken geen verschil. Mijn vader ziet het verschil niet tussen Hd beeld op de tv en gewoon beeld, wil dat zeggen dat niemand het ziet? Ik speel bf3 op lagere kwaliteit zodat ik stabiel boven de 70-80 fps zit, omdat ik het niet fijn vind als ik onder de 60 fps kom. Hangt ook veel van je speelstijl af natuurlijk.
Geen verschil tussen SD- en HDTV beeld zien is een kwestie van een bezoekje aan Hans Anders. ;)
Ja, echt geweldig....mits ATI ook mee doet. Waarom gaat het altijd zo met techniek die niet gestandaardiseerd wordt....dat verlaagt de kans van slagen enorm!

Ow, en SLI trading en framebufferproblemen: gaan we die hier ook mee oplossen??
Omdat deze technologie ontwikkelen bakken van geld kost misschien? Waarom zijn er anders ontelbaar veel patenten denk je? ;)
Waarom zou je anders kosten maken aan technologie als iedereen het zomaar zou mogen overnemen.. (dat houdt de innovatie net tegen)
ik betwijfel of het goed gaat werken zonder Vsynce,

Stel voor je hebt meer dan 120 frames per seconden en je monitor kan maar max 120 Hz, dan zit je weer met het probleem als je Vsynce niet gebruikt.

[Reactie gewijzigd door mysterieworld op 19 oktober 2013 01:01]

Had dan de stream gekeken, de monitor past zich aan naar de GPU. Dus vsync is totaal buiten het plaatje.
Het is eigenlijk een geavanceerde vorm van v-sync. Alleen hoeft het spel niet op de monitor te wachten en heeft hij ook geen risico dat hij te langzaam is met renderen waardoor er een frame wegvalt (frame drop).

Eigenlijk is de huidige situatie ook ultra dom.
Zonder v-sync rendered of het spel steeds frames die nooit getekend worden, of de monitor tekent meerdere malen hetzelfde beeld op het scherm (wat dus nutteloos is).
Met v-sync wordt of alle rekenkracht die over is nadat het frame gerendered is, maar voordat de monitor klaar is met tekenen domweg weggegooid, of het spel red het net niet en je krijgt lelijke tearing en horten en stoten in de animatie.

Kijk je naar een saaie muur haalt het spel misschien wel 200 fps, maar staat toevallig net iedereen tegelijk bij je in beeld dan haal je maar 40 fps. Het is dus nooit goed eigenlijk.
Je snapt niet helemaal hoe v-sync werkt.

Als de v-sync aan staat, krijg je nooit tearing in je beeld, omdat het nieuwe beeld gesynchroniseerd wordt met de scherm verversing. Het probleem is dan echter dat je framerate dan gelijk halveert, wanneer het nét niet die verversingsfrequentie haalt.

Als het spel eventjes 55Hz doet, i.p.v. >60Hz, dan zal je door v-sync onmiddellijk tot 30Hz afzakken. En dat is natuurlijk nogal vervelend.

Als de v-sync uit staat, dan wordt het scherm wél op 55Hz geupdate, terwijl de verversing op 60Hz staat. En dát zorgt dan voor de typische tearing in het beeld, omdat het beeld wordt geupdate, tijdens de refresh, waardoor je aan de bovenkant van het beeld het oude beeld ziet, en aan de onderkant het nieuwe beeld.

Als het scherm zou syncen met de framerate van het spel, i.p.v. andersom, dan heb je geen tearing, en krijg je geen verlies van framerate door v-sync. Het nadeel kan wél zijn dat je meer flikkering en/of ghosting zou kunnen krijgen, omdat de refreshrate van je scherm niet meer optimaal is t.o.v. de schakel en verversings eigenschappen van de pixels.
Ik snap niet waarom ze dit gedaan hebben, de GTX Titan, GTX 780Ti en GTX 780 zullen nu vrijwel niet meer verkocht worden. Als het goed werkt tenminste.

John Carmack zegt ook dat 20FPS vloeiend zal zijn met 20FPS...
Als dat zo zal zijn zal Nvidia veel minder verkopen, ik snap de logica niet.

[Reactie gewijzigd door Veldslag op 18 oktober 2013 18:45]

Vloeiende beeldkwaliteit (as in geen tearing e.d. artifacten) is nog iets heel anders dan een vloeiende game ervaring. De input lag is namelijk gemiddeld de helft van de wachttijd tussen twee frames. Bij 20 fps heb je een gemiddelde input lag van 25 ms met uitschieters naar bijna 50 ms. Geloof me, dat merk je echt wel. Je merkt dan tijdens een FPS dat de tegenstander (die wel 100 fps haalt) steeds net iets sneller is. Logisch, want bij hem reageert het spel al na gemiddeld 5 ms op zijn acties.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True