Doom ondersteunt nu Vulkan na vrijgeven patch

Bethesda heeft maandag laten weten dat de Vulkan-patch voor Doom op pc beschikbaar is. Met de low-level-Vulkan-api zijn hogere framerates te halen dan met de OpenGL-api. Na de patch via Steam krijgen gebruikers met de juiste hardware de keuze of ze OpenGL of Vulkan willen gebruiken.

Dit is achteraf in het spel te wijzigen via 'Settings', 'Advanced' en vervolgens 'Graphics API'. Dat id Software Vulkan-ondersteuning aan Doom zou toevoegen, was al enige tijd bekend. Nvidia gebruikte beelden van het spel op een resolutie van 1920 bij 1080 pixels met ultra-settings tijdens een presentatie van zijn nieuwe GeForce GTX 1080 videokaart. Bij de introductie is te zien dat het spel framerates tot 200fps haalt.

In een blog op Bethesda.net schrijft Robert Duffy, cto van id Software, dat deze 'post-release' een belangrijke duw voor de technologie is. Uit de vraag 'wat is nuttig voor een gamer?' kwam als antwoord bij id Software: 'hogere framerates'.

Ondersteuning voor Vulkan is niet alleen nuttig voor de nieuwste generatie videokaarten van Nvidia of AMD, maar ook voor oudere gpu's denkt id, al hangt het wel van de driverondersteuning van de fabrikanten af welke kaarten uiteindelijk allemaal met Vulkan overweg zullen kunnen.

Volgens de faq van Bethesda zullen gebruikers met de minimale systeemeisen met Vulkan hogere framerates kunnen halen. Bezitters van high-endsystemen zouden van 'exceptionele prestaties' kunnen genieten.

Wel waarschuwt de uitgever voor mogelijke crashes en incompatibele systemen, zo werkt Vulkan niet met de Nvidia gpu's met 2GB ram op Windows 7 en helemaal niet met een Nvidia GTX 690. In combinatie met AMD gpu's crasht de game bij het maken van een screenshot via de Steam-overlay en gebruikers van een AMD R9 Fury X en R9 390X kunnen op Windows 10 last krijgen van framerates onder de 60fps. Uitschakelen van vertical sync zou het probleem tijdelijk moeten oplossen tot er een fix is.

Helaas!
De video die je probeert te bekijken is niet langer beschikbaar op Tweakers.net.

Door Krijn Soeteman

Freelanceredacteur

11-07-2016 • 18:55

100

Reacties (100)

100
98
47
4
1
34
Wijzig sortering
De eerste benchmarks zijn ook gedraaid. Prestatiewinst is vergelijkbaar met DirectX 12 procentueel gezien bij AMD en nVidia. AMD wint zo'n 20% en nVidia heeft eigenlijk geen prestatiewinst, datzelfde zie je ook terug bij DirectX 11 vs 12 bij beide fabrikanten. Dus als een RX 480 en GTX 1060 nu vergelijkbaar presteren in DirectX 11 en OpenGL, dan gaat AMD er zo'n 20% overheen met DirectX 12 en Vulkan.

De test van Hilbert van Guru3D: http://www.guru3d.com/new...lkan-support-to-doom.html

HardwareCanucks heeft ook van meerdere games de prestaties van DirectX 11 en 12 vergeleken tussen AMD en nVidia en beide fabrikanten onderling en ook daar zie je vergelijkbare winsten bij AMD en zo goed als geen verschil bij nVidia.

http://www.hardwarecanuck...erformance-review-24.html

Zoals je kunt zien is een RX 480 in DirectX 11 gemiddeld zo'n 10% langzamer als een GTX 980, maar met DirectX 12 zo'n 10% sneller, ook een winst dus van zo'n 20% bij DirectX 12.
Prestatiewinst is er zeker bij NVIDIA.
http://media.gamersnexus....kan/vulkan-doom-1080p.png

Het enige wat dit jij aantoont is hoe slecht de OGL drivers van AMD wel niet zijn.

[Reactie gewijzigd door aval0ne op 25 juli 2024 09:36]

Nee je ziet vooral hoe veel AMD met hun veel betere architectuur nog uit hun videokaarten kan halen. Overigens is een site als Gamersnexus totaal niet betrouwbaar dus daar zou ik sowieso niet naar kijken. Kijk bijvoorbeeld liever naar de bekende goede site's, ComputerBase is er ook zo één.

https://www.computerbase....an-benchmarks-amd-nvidia/
Je ziet hier een Fury X kaart welke zich kan meten met een GTX 1080 (GTX 1080 is zo'n 22% sneller als een GTX 1070). Wat je ook ziet is een RX 480 die 90% van de prestaties van een GTX 1070 levert, terwijl de GTX 1070 ongeveer dubbel zo duur is!!! Ook verslaat de RX 480 duidelijk een GTX 970 en daarmee zal die ook sneller worden als een GTX 980.

Je ziet ook al al vergelijkbare dingen met DirectX 12 zoals je hierboven in mijn vorige bericht ook al kon zien en dus nu ook met Vulkan is AMD flink sneller. nVidia mag dus hun prijzen wel flink laten zakken en flink goedkoper zijn dan AMD kaarten, anders zijn ze echt niet meer interessant op de lange termijn. nVidia's GPU architectuur van zowel Maxwell maar ook Pascal is eigenlijk gewoon niet van deze tijd.
Scheelt een hoop hier met mijn R9 290, ben van 62 naar boven de 100fps gegaan. :) Die grote FPS drops zijn ook zo goed als verdwenen met Vulkan.

*Als ik de shadows op Ultra zet is het verschil helemaal erg, Opengl maar 38FPS, Vulkan 112FPS!, Gaat het hier toch om een driver probleem bij mij ofzo want dit is wel een heel groot verschil :? "

Screenshots,

http://i.imgur.com/wPox1dm.jpg
http://i.imgur.com/rxtzMpS.jpg

** Heb mijn drivers maar is geupdate naar de nieuwe beta drivers, scheelt nu wel een heel stuk minder XD.

OpenGL 92FPS, Vulkan 131FPS. Alsnog een aardig verschil :) **

[Reactie gewijzigd door SerSam1 op 25 juli 2024 09:36]

Het helpt ook nog eens dat de drivers voor OpenGL van AMD altijd al ondermaats zijn geweest tov NVidia.
Zeker, maar wat ook een rol speelt: Doom schijnt volop gebruik te maken van async compute, iets wat de Radeons ondersteunen en de Geforces niet. Daardoor is het snelheidsverschil nu extra groot.

Ik zou nu wel een vergelijking in Doom van de RX480 met de Nvidia-concurrentie willen zien.
Niet helemaal waar. AMD ondersteund het hardwarematig en Nvidia softwarematig in de 10xx series. Waarbij hardwarematige async compute wel de voorkeur heeft natuurlijk.
Softwarematig = niet.

Alles wat het betekent is dat het de game niet crasht wanneer Async aan staat, maar het geeft tot dusver geen performance increase t.o.v. wanneer Async uitstaat.
Enkel en alleen compatible dus.
Lees de Doom Vulkan-FAQ: Nvidia heeft nog wat werk aan zijn drivers te doen voordat async compute softwarematig mogelijk wordt.
Ik zou nu wel een vergelijking in Doom van de RX480 met de Nvidia-concurrentie willen zien.
De 19e zouden er reviews van de 1060 moeten zijn.
Heb je ook een vergelijking met DirectX? Of heeft deze game geen DirectX? :)
Deze game draait uistluitend op OpenGL en op Vulkan
Helemaal duidelijk. Bedankt voor de reactie! :)
(beetje laat, weet ik, maar:)

id Software heeft in zijn id Tech engines nog nooit gebruik gemaakt van DirectX. Dit stamt nog uit de tijd dat John Carmack, een van de oprichters van id Software, nog bij het bedrijf werkte. Hij vond de Direct3D API verschrikkelijk.
Bedankt voor de reactie. Leuk feit om te weten, dit wist ik niet! :) Goed om te zien, dat mensen innovatieve ideeën blijven bedenken om niet altijd met de grootste speler (DirectX) mee te hoeven gaan.
Bij mij startte Doom niet meer op nadat ik Vulkan had geselecteerd.
Mocht dat bij iemand anders ook het geval zijn is hier de oplossing:

Ga naar C:\Users\gebruikersnaam\Saved Games\id Software\DOOM\base
Open 'DOOMConfig.local' met bijvoorbeeld kladblok en wijzig de value van r_renderAPI "1" naar "0".

Nu zal Doom weer opstarten ;)

[Reactie gewijzigd door Matroxcool op 25 juli 2024 09:36]

Zet hij de api met deze wijziging terug naar openGL of wat? Anders is het maar een halfbakken oplossing.
Werkt perfect. Mijn RX480 deed eerst 80 FPS met alles maxed out en nu haalt ie 160FPS! Ziek!
Anoniem: 789025 @Nils9411 juli 2016 20:12
Nice! Ik ga het straks ook ff proberen. Tot nu toe alleen maar lof voor de RX 480!
Werkt super he! Ik had alleen problemen met het installeren van de RX 480, drivers etc.
Maar werkt nu super.

@LopendeVogel
Voor zover ik weet maakt het geen drol uit of je meer fps draait dan je scherm aankan. Voor mijn idee meer fps = nog smoother beeld. Of je nu een tv,144hz of 4K scherm hebt.

Ik game overigens op een 55 inch Sony 3D TV, dus 60 Hz.
Dan heb je alleen last van screen tearing als je geen vsync dus gebruikt of een free of g-sync monitor hebt. Desalniettemin heb je daar minder last van op hoge framerates :)
Maar heb je daar ook iets aan? Nu weet ik niet hoeveel Hz monitor je hebt, maar kan 160 niet juist een negatief effect hebben wanneer je scherm dat niet aankan? Althans dat ken ik van "vroegah".
Ja screen tearing, maar dat is nog irritanter wanneer je maar 50fps haalt of 70. Des te meer frames, des te sneller de screen tearing (lijnen) over het beeld lopen en het minder opvalt dus.
Ik heb wel het idee dat de grafische kwaliteit iets achteruit gaat. Hebben meer tweakers deze ervaring?
Zou niet zo horen te zijn. Wat ervaar je precies qua achteruitgang?
Bij mij lijkt er meer input lag te ontstaan met een geforce 1070 en een core i7 920.
Vreemd, zou niet mogen gebeuren. Zeker omdat je meer frames per seconde behaalt en dat feit eventuele input lag dus an sich al verlaagd...
Net nog getest. De fps ligt misschien iets hoger (al valt dat ook mee), maar er is inputlag.
Bij een 2e speelsessie lijkt dit niet zo te zijn. Ik kwam in een level in de buitenlucht net toen ik vulkan had aangezet. Ik miste toen de gedetailleerdheid en grafische effecten die ruim aanwezig zijn in de compacte ruimtes. In de wat uitgestrekte buiten levels is dit sowieso minder aanwezig. Nu ik de begin levels heb bekeken ziet het er inderdaad hetzelfde uit, de fps heeft een boost gekregen.
Ah duidelijk en goed om te horen.
En ik maar denken dat Vulkan als spreektaal bedoeld werd :)
Waar wordt dat hier op aarde gesproken dan? Ze gaa toch ook geen ondersteuning voor Elvish of Dothraki inbouwen?
:+
Ach, Klingon ondersteuning kom je soms ook tegen
Tijd voor een Doom performance comparison update , inclusief de oudere generatie kaarten :) ( en dan doel ik op mijn 7970Ghz }:O )
En nu nog crossfire
Jij wilt boven de 300FPS gaan draaien *O*
Goede zaak dat ze Open API's stimuleren. Hoop dat bedrijven flink inzetten op Vulkan aangezien MS DX12 pusht en veel mensen niet naar Windows 10 willen (waaronder ik). Nu nog een Linux-port.
Wie heeft er uberhaupt v-sync aan staan?
Eh, ja duh.

Waarom nou die GTX z'n volle 200W laten trekken als ie op 68% daarvan ook gewoon hetzelfde vloeiende beeld triple buffered op het scherm kan toveren?

Tuurlijk het wisseld per titel, maar over het algemeen is v-sync way to go. Tenzij je van extra hete hardware en hogere stroomrekeningen houd.

Disclaimer; dit natuurlijk op hardware die de refresh van je monitor ook gewoon consistent haalt. Niemand zit te wachten op 30fps opdat de game 60 net niet haald op je kaart.
V-sync ziet er misschien beter uit maar het introduceert "lag" en als 60fps echt niet gehaald wordt schakelt vsync terug naar 30fps. Ik speel FPSs en heb het uit staan. Hier wordt het uitgelegd.
Als je er vanuit gaat dat je per seconde 60 fps krijgt, dan is het 1 seconde / 60 fps = 0.017 seconde (17ms) input lag. Kan veel lijken, maar tegen de tijd dat je reageert is veel langer, en dan kan je er ook van uit gaan dat degene tegen wie je vecht hoogst waarschijnlijk het zelfde probleem heeft.

Natuurlijk kan je ook zonder V-SYNC door gaan, maar dan krijg je screen tearing, wordt je ook niet blij van.

Reactie test snelheid: http://www.humanbenchmark.com/tests/reactiontime
Ik kan je uit eigen ervaring verzekeren dat bepaalde games heel veel input lag vertonen bij vsync aan op 60hz. Zo merkbaar, dat ik het schat op 40ms of hoger, en dat merk je niet alleen (in mindere mate) aan muisclicks (schieten bijvoorbeeld) maar des te meer aan het draaien / aimen, heel erg irritant lijkt wel een extra zweem/swieper te geven. Hierop anticiperen is veel lastiger dan op de vertraagde muisklik. Fast sync en adaptive sync heb ik geen ervaring mee overigens.

Deze ervaring is onder andere gebaseerd op unreal tournament, quake 3 en red alert 2.

[Reactie gewijzigd door ToFast op 25 juli 2024 09:36]

Je eigen reactiesnelheid neemt niet weg dat vsync voor extra vertraging zorgt. Stel die is 200ms en die van jou ook. Nu heb jij vsyns en ik niet. Is jou totale vertraging 200+17ms en de mijne 200ms...

Ik ben dus bijna 10% sneller als we gelijk denken te reageren...

Speel zelf ook met vsync hoor, maar ben wel bewust dat het je acties gewoon vetraagd.

[Reactie gewijzigd door watercoolertje op 25 juli 2024 09:36]

Het probleem is niet dit 17 ms. Veel spellen doen dubbele of drievoudige buffering, waardoor de processor eerder aan frames begint te rekenen als dat ze getoond worden. Maar alvast aan een frame beginnen te rekenen, betekent in de toekomst kijken, zonder dat je al invoer van de toekomst hebt.

Als je dan ook nog niet genoeg rekenkracht hebt om de 60fps te halen, en een je bijvoorbeeld 1/30 seconde lang geen invoer kunt verwerken, omdat je een frame aan het renderen bent, dan wordt het merkbaar.

Monitoren met hogere refereshrate bieden soelaas. Bij een 120Hz monitor duurt het wachten op de retrace half zo lang en is er dus veel minder lag.

Overigen ben ik zelf een mannetje van Vsync aan, want het aantal spellen waar lag echt een probleem is, is zeer klein.

[Reactie gewijzigd door dmantione op 25 juli 2024 09:36]

Anoniem: 669957 @immetjes11 juli 2016 21:23
Die "lag" is grotendeels tegen te gaan door in je Nvidia Configuratie Panel "tripple buffering" op aan te zetten.
Krijg je er gratis input lag voor terug, vsync en tripple buffering zet ik alleen aan als ik wagenziek wil worden :D.

Je kan beter een frame limiter gebruiken imho.

[Reactie gewijzigd door Sp3ci3s8472 op 25 juli 2024 09:36]

Anoniem: 669957 @Sp3ci3s847212 juli 2016 08:02
Je bent in de war met render ahead van directX. Dat introduceert namelijk wel input lag. Maar zolang je een videokaart heb met minimaal 1 gig vram zou je geen last moeten hebben van tripple buffering als die aan staat.

Edit:typo's

[Reactie gewijzigd door Anoniem: 669957 op 25 juli 2024 09:36]

Dat heeft niks met elkaar te maken behalve dat als je v-sync met tripple buffering 2 frames buffered en dus op 60fps 2x 16.66ms input lag extra hebt. Als je dan nog eens je pre rendered frames omhoog schroeft naar 3 of iets dergelijks dan kan je er nog eens 3x 16.66ms bij doen.
Jij bedoelt bij AMD de "Flip Queue Size" of bij Nvidia "Max Pre-Rendered Frames"?

Je hebt ook geen 1gig aan vram nodig voor tripple buffering, de grote van een frame op 1920x1080x32bits is maar 8 megabyte. Dit kon vroeger al prima op mijn Radeon 9600 met maar 128 megabyte aan vram :P.
Anoniem: 669957 @Sp3ci3s847212 juli 2016 11:46
Met vsync aan en tripple buffering buffer je geen 2 renders maar 3.
Het gaat namelijk zo:
De frame die je ziet - front buffer
De frame die je na de vsync ziet - 1ste back buffer
De frame die momenteel gerenderd word - back buffer.

Met Double buffering is het alleen de bovenste 2 wat jij benoemt hebt.

Ook heb ik niet gezegd dat je 1 gig nodig hebt voor tripple buffering, maar werkt het beter bij een videokaart van 1gig of hoger omdat de gpu load omhoog kan gaan.
Dat klopt, maar het frame wat je in je front buffer hebt heb je sowieso. Ik geef aan dat je door vsync zelf 1 extra frame latency hebt en met tripple buffering 2.

Die latency blijf je houden, aantal geheugen maakt niks uit. Het geheugen heeft ook niks te maken met hoe snel een gpu is dus minimaal 1gig is een rare standaard om aan te geven dat een kaart snel genoeg is.
Anoniem: 669957 @Sp3ci3s847212 juli 2016 12:16
Je begrijpt wel dat als je je visuals hoog hebt staan en je gelimiteerd bent aan 1 gig vram die hellemaal vol je gpu er niet sneller op word. Het ligt natuurlijk er ook aan welke applicatie je gebruikt, maar tripple buffering verhoogt de gpu load en verhoogt je vram gebruik. Hier nog een link, hij is best oud maar ze hebben het er wel over:
https://forums.frontier.c...ng-Triple-Buffering/page2

Latency zal je altijd hebben maar het zal geen 16 ms zijn maar minder ( ligt ook aan de applicatie )

Hier nog een link:
http://gamedev.stackexcha...uffering-causes-input-lag

Overigens heb ik nooit gezegd dat je de latency kan weghalen maar verminderen.

[Reactie gewijzigd door Anoniem: 669957 op 25 juli 2024 09:36]

Dat snap ik, maar 8mb zal je niet snel merken.

Latency is afhankelijk van je fps. Op 60fps zal dat 16.6ms zijn, de reden dat je tripple buffering wil is dat je niet naar 30fps zakt indien je onder de 60 komt met vsync maar op 45fps komt. Nadeel is dat je daar door wel een iets hogere latency hebt namelijk 50ms in plaats van 33.33ms wat je op 30fps met vsync extra zou hebben, voordeel is natuurlijk vloeiender beeld.

Met een snellere fps zal je latency inderdaad lager zijn (stel dat je 300fps kan halen maar je limiteerd het op 60 met vsync). Alleen dan heb je volgens mij geen tripple buffering meer nodig want dat is vooral leuk op een lagere fps.

Ik lees het vanavond waarschijnljk even door, nu geen tijd voor. Als ik fout zit dan kan je dit lekker negeren ;).

Nog een leuk artikel hierover (wat ik ook pas vanavond goed kan doorlezen)..
http://www.anandtech.com/show/2794
Dit dus.En ja er zijn games die een brakke v-sync implementatie hebben. En het moment dat je dan de input lag ervaart gooi je het uit.

Daarnaast voor settings gaan die nooit onder de 60 doen dippen en het hele input-lag verhaal is weg, net als tearing. Met triple buffering spelen is daarnaast gewoon lekker rustig voor de ogen vind je niet? :D

Maar goed, lekker makkelijk praten met die GTX 1080 erin op 2560x1440.
Anoniem: 669957 @djunicron12 juli 2016 12:17
Goed punt !
Dat schakelen is bij sommige games. Normaale vsync gebuikt dat schakelen niet.
Ik heb standaard adaptive vsync van Nvidia aan staan... Persoonlijk merk ik nooit wat van verhoogde inputlag, maar het oogt en voelt wel veel vloeiender in veel games. Misschien ben ik niet zo gevoelig voor input lag (speel ook niet echt competitive shooters of zo), maar het is dus niet zo dat die lag gelijk voor iedereen een probleem is.
Tja, ik speel dus veelal met het AAN zodat ik niet zo nu en dan wat tearing krijg en geen 400fps. Het heeft namelijk echt geen zin, m'n monitor zit toch maar op 60 stuks (59,8 zelfs) te wachten.

60fps niet halen gebeurt me eigenlijk maar zelden. En het is ook de reden dat ik niet naar een 120 / 144hz monitor ga. Als je dan dipt is het veel storende voor de continuiteit in je aim enzo.

Uitzonderingen zijn er wel hoor. Ik limit CS:GO b.v. op >120fps (ik geloof 125 of 128), als ik daar v-sync aanzet, (geen tripple buffer support) wordt ik echt niet goed. Maar als ik geen limit instel, krijg ik een 75 graden GPU en 400-900 fps. En het wordt er echt niet soepeler van, ik heb ook wel degelijk m'n limit op 300, 500 etc gezet.

Het enige spel dat ik ben tegengekomen dat niet altijd op ultra en filters maxed boven de 60 blijft is Far Cry 4 (en voorheen Crysis 2). En dan wordt ik inderdaad spontaan niet zo blij van 30 fps. Achja.

Waar ik pas echt last van input lag van kreeg (nahjah niet echt, maar zelfde gevoel) was Cross-Fire en SLI. Bah, leuk dat je meer frames haalt, maar de extra microstutters in een groot deel van de titels vond ik veel storender.

[Reactie gewijzigd door djunicron op 25 juli 2024 09:36]

In dat geval kan je beter Fast sync aanzetten, mits je natuurlijk een GTX 1000 serie hebt. :)
Ja, een leuke marketing gimmick lijkt het tot nu toe.

Allereerst heb ik in Win / Linux / OS X eigenlijk altijd een extra scherm staan. Of twee. En dan werkt het dus niet. Moet ik iedere keer kabels eruit gaan trekken. M'n GTX1080 heeft op het moment een DP, HDMI en een DVI aangesloten staan, omdat hij in m'n primaire Adobe PS machine zit. Die HDMI is er zo uit, maar die DVI niet.

Daarnaast ondanks wat Nvidia roept, is de functie nog steeds niet consistent aanwezig in m'n control panel. Hij heeft soms gewoon geen zin in lijkt het wel. Zeker op 125% scaling is de optie maar 25% van de tijd werkelijk te kiezen. En als je em niet met inspector of in de hex van je driver erin zet, ben je de setting ook nog eens regelmatig kwijt.

Daarnaast werkt het simpelweg niet altijd. Ik heb het zelf opgegeven om het aan te blijven zetten, terwijl Overwatch het met Monitor based limits prima oppikt. CS:GO gaat er compleet van over z'n nek, DOOM (4) kan er niet echt iets mee (he, weer ontopic) en zo waren er nog wat meer titels (non-fps) die problemen gaven. (Ohja, DS3 crashed ervan)
Ik. Meer dan 60FPS geeft mijn televisie niet weer en met adaptive v-sync ziet het er allemaal net wat fraaier uit. :)
Ik. Het scherm is 60Hz. Dus met V-Sync aan geen tearing en meer frames kan het scherm toch niet laten zien.
Ik. Meer dan 144 heb ik niet nodig. Alles extra is onnodige warmte.
Vsync aanzetten om je FPS de cappen is natuurlijk gewoon dom.

Gebruik dan een FPS limiter. Vsync heeft nogal wat nadelen en introduceert extreem veel input lag.

Trouwens, hebben de meeste gangbare 144hz schermen geen Free of G-sync? Lol

Edit: is het idee van een twitch shooter die zo 'snel' gaat niet heel onwenselijk met zulke latencies te spelen (aka Vsync?)

[Reactie gewijzigd door Marctraider op 25 juli 2024 09:36]

Waarom zou vsync inputlag moeten veroorzaken? moderne engines hebben de input los staan van de rendering..
Het feit dat dit uberhaupt iets was wat een ding was is al verontrustend genoeg natuurlijk... Maar jammergenoeg zijn er dus wel nog zat spellen waarbij de input NIET los staat van de rendering.

Heb zelf een tijd geleden (inmiddels gepatcht) StarMade gespeeld en ik kon gewoon niet op 21:9 spelen omdat blijkbaar de muis Y-Z axes gekoppeld waren aan de schermverhouding. (in 16:9 cirkels maken resulteerd in een cursor die in een cirkel beweegt, in 21:9 zorgde het voor een ovaal! Ondanks dat het spel wel gewoon correct de gamewereld weergaf en het beeld niet gestretched was)

Dus ja, onbedoeld of niet, het gebeurt nog wel degelijk dat developers zulke fouten maken.
Met de FPS cappen op 60 als je een refreshrate van 60 hebt voorkomt geen tearing. Alleen is Vsync op op het moment zo vernaggeld dat ik in Batman arkham knight rustig 90fps+ haal, maar met vsync aan knalt ie naar sub 30.

Ik gebruik dus die fps limiter, maar heb hem op 75 gezet. Dat blijkt voor mij met mijn 60Hz scherm de instelling te zijn waarmee ik het minste zie aan screentaring.
ja lang leven de crappy console ports.
Haal je geen 60 fps dan zakt ie naar 30 haal je geen 30 fps dan zakt ie naar 15.

Erg irritant maar gelukkig zijn er nog games waar het wel goed gaat.
Het hangt er vanaf waar je je prioriteiten stelt: Input-lag of mooi beeld. Ik kies toch voor mooi beeld.

Bovendien geldt het probleem input-lag alleen als de invoer in dezelfde thread afgehandeld wordt als de Vsync. Nu spellen steeds meer van multi-threading gebruik maken neemt dat probleem af. En met een monitor van 144 Hz is de input-lag zo klein dat het in geen geval nog een probleem is.
Trouwens, hebben de meeste gangbare 144hz schermen geen Free of G-sync? Lol
In ieder geval bij G-synch heeft de V-synch instelling nog steeds effect op de maximale FPS cap, in dit geval 144.
Gebruik dan een FPS limiter. Vsync heeft nogal wat nadelen en introduceert extreem veel input lag.
Ik denk dat je verward bent met triple buffering, die inderdaad input lag creert doordat het 2 frames vooruit moet renderen.

Nadelen met vsync krijg je pas wanneer je onder de verversingssnelheid van je monitor duikt.
Anoniem: 138024 @krentebol11 juli 2016 19:54
ik
Ik. Screen tearing speelt namelijk rare spelletjes met mijn hoofd en ik vind het tamelijk vermoeiend om naar te kijken.
Iedereen die slim is en geen screen tearing wil...

Een game met screan tearing is onspeelbaar dus MOET je vsync aanzetten aangezien dat vaak beter werkt dat de fps limiter in games.

Op dit item kan niet meer gereageerd worden.