Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 90 reacties

Er is een nieuwe update beschikbaar voor de PlayStation 4-launchtitel Killzone: Shadow Fall. De Nederlandse ontwikkelaar Guerilla Games voegt daarmee een optionele limiet van 30fps toe aan de singleplayer-modus.

De nieuwe feature wordt door gamers op fora positief ontvangen. De gamers zijn van mening dat een framerate die tussen de 30 en de 60 schommelt, vervelender is om naar te kijken dan een framerate die constant op 30 blijft. In september van 2013 stelde Eric Boltjes, hoofdontwikkelaar bij Guerilla Games, nog dat een constante framerate niet beter hoeft te zijn dan een variabele, maar met deze patch geeft de ontwikkelaar alsnog gehoor aan de wensen van de spelers. Gamersyde heeft een vergelijkingsvideo van de twee opties gemaakt.

De ontwikkelaar maakte het nieuws bekend via de officiële Killzone-website. Naast de fps-limiet voegt Guerilla onder andere bredere ingame-ondersteuning voor clans toe en meer checkpoints in de campaignmodus. Verder is een aantal kleinere bugs en exploits verholpen.

Killzone screenshot

Moderatie-faq Wijzig weergave

Reacties (90)

Hoezo is het vervelender als het schommelt tussen 30 en 60fps?
Je scherm ververst meestal op 60Hz en als je dan een instabiele frame rate hebt krijgt je een judder effect.

Hiernaast zorgt dit ook voor een variabel input lag, wat soms storend kan werken.
Hiernaast zorgt dit ook voor een variabel input lag, wat soms storend kan werken.
Helpt dit ook om het spel eerlijker te maken voor spelers met iets mindere hardware?
Ja.. vooral de spelers met een ps2 zijn hier over te spreken.
Ik denk het niet, het is meer iets gevoelsmatig. Als je constant dezelfde inputlag hebt, weet je in je hoofd wat je kunt verwachten en er op aanpassen. Hoger is wel beter, dus iemand met stabiel 60FPS heeft het uiteraard beter dan iemand met 30FPS

Volgens mij draait KZ:SF online op 60 fps om deze reden.
Op consoles is dat een non-issue natuurlijk
Bedoel je spelers van wie de identieke PS4 een dagje rustig aan doet? Die willen graag een eerlijkere singleplayer?
In elke ps4 zit toch dezelfe hardware? Of heb je daar tegenwoordig ook weer keus in :P
Waarom zou input lag variabel zijn bij een variabele framerate? input HOEFT! niet gekoppeld te zijn aan de framerate...
Als je de reactie van jouw muisbeweging al na 1/60e ipv 1/20e van een seconde ziet, merk je dat wel degelijk hoor... Da's in snelle shooters gegarandeerd het verschil tussen leven en dood ;-)
de deltatime die je altijd gebruikt om beweging framerate independed te veranderen is enigsinds gekoppeld aan het aantal fps
hier kun je het prachtig zien, http://frames-per-second.appspot.com/

op een 60hz monitor is 30fps een stuk mooier dan 48fps, vanwege die judder :)
Het gros van mensen ziet namelijk het verschil in wijziging van frames, maar niet individuele framerate an sich. Dus als je van 60 dipt naar 40, zal dit als 'irritanter' ervaren worden dan een continue 30fps.
Dat heeft verschillende redenen, maar allemaal leiden ze tot een schokkende bewegingen.

Het eerste probleem is dat je eigenlijk niet weet hoe lang een frame gaat duren. Als een object met een bepaalde snelheid voortbeweegt, dan wil je dat dat object op de juiste plek staat op het moment dat de frame getoond wordt, maar daarvoor moet je dus weten hoe lang de huidige frame duurt. Dat weet je niet, en vaak wordt de tijd van de vorige frame daarvoor gebruikt. Bij een schommelende framerate klopt de beweging dus niet helemaal.

Het tweede is dat je display wel gewoon de frames laat zien met een vaste framerate. Als jij frames aanlevert op een snelheid dat geen deler is daarvan krijg je ht welbekende tearing, maar het betekent ook dat dat bewegende object wederom niet op de juiste plek staat op het moment dat de frame wordt getoond.
waarschijnlijk staat vsync aan, dus in plaats van tearing heb je dan een nog grotere mismatch van weergeven beeld en ingame tijd.
Ik kreeg juist het idee van niet uit het artikel maar misschien is dat ook nog eens waar ja. Dan is de schommeling maximaal want dan switch je steeds tussen de 60 en de 30.
V-sync wordt tegenwoordig ook anders opgelost dan tussen 30 en 60 FPS switchen. Volgens mij wordt er een frame gewacht (of meer) om de beelden te laten zien, zo heb je geen tearing en toch een variabele framerate. Echter speel ik liever met een constante framerate (dus OF 30 OF 60) om zo het judderachtige effect te voorkomen. V-sync aan framecap op 60. Speel vaak singleplayer dus voor mij is een beetje lag geen probleem, een beetje schokkerig op geteared beeld kan ik niet echt hebben, mijn PS3 was al snel een blu rayspeler en ben weer terug gegaan naar PC-gaming.
Ik denk dat je dat alleen kan weten als je het spel gespeeld hebt. Daarom blijft dit voor ons allebei een vraagstuk.
Nee hoor, het is een redelijk algemeen probleem.

Bi een hogerer framerate is de tijd (en gemiddelde tijd) tussen de beelden een stuk kleiner dan bij een lagere fps. Een hogere fps betekend ook een betere ervaring. Jij wilt immers niet met 10 fps spelen. Dit is veels te weinig en ziet er eerder uit als een slideshow, dan als een (semi-)realistische ervaring. Inprincipe kan men met 20fps spelen. het is niet optimaal, maar men leert er aan te wennen.

Als de fps schommelt dan is er niet aan te wennen. Stel dat het schommelt tussen de 10 en 40 fps. De vertraging tussen de beelden is altijd verschillend en op het ene moment is het vloeiend en het volgende moment is het weer bijna een slideshow. Dit speelt niet lekker en daarom zijn er veel mensen die vinden dat een constante fps belangrijker is dan zoveel mogelijk fps, maar dan met schommelingen.

Voordat mensen beginnen over dat meer dan 24fps niet waarneembaar is, dit is het wel degelijk, maar je moet een soort van getrained oog hebben. Het voelt allemaal veel vloeiender aan en vooral de randen (waar objecten van het scherm verdwijnen) zijn goede plekken waar je het verschil merkt tussen 30 en 60 fps
boven de 60fps is nog steeds prima waarneembaar bij games, simpelweg omdat games anders werken dan video-opnames:

Stel, bij 30 fps, heb je bij video per frame een totaalbeeld van alles dat in die 1/30e seconde gebeurde. Bij beweging zie je alle "states" van het object in die 1/30e seconden tegelijk in 1 beeld dat voor 1/30e seconden getoond wordt.

Bij games is dit een ander verhaal. Bij 30fps krijg je per frame niet een samenvatting van alles in die 1/30e seconde, maar een snapshot van een specifieke tijd die voor 1/30e seconden getoond wordt.

Zo heb je bij snelle bewegingen geen "smooth" animatie maar een schokkend voorbij-vliegend object.
Film werkt voor zover ik weet typisch met een sluitertijd die de helft is van de framerate. (Dus bij 24fps film, is hetgeen je in 1 beeld ziet een gemiddelde van 1/48ste seconde)
Je krijgt dus deels motion blur, en deels onafhankelijke frames.

In theorie is het ook mogelijk om dit in games te simuleren, maar ik vermoed dat dit voornamelijk door het extra rekenwerk meestal niet gedaan word.
En dat je er misselijk van kan worden :p er zijn wel games die motion blur ed. implementeren, maar het is vaak zwaar irritant.
Vergeet ook niet dat bij film het focuspunt wordt bepaald (hetgeen waarop scherpgesteld wordt), terwijl je in een game zoveel mogelijk in focus wil hebben (om zoveel mogelijk te kunnen zien). Nu zie je ook steeds meer games die met die focus spelen (om iron-sights mikken ook meer nut te geven).

Motion blur in games zal gewoon nooit hetzelfde zijn als in een film, hoe goed je het ook nabootst. In een game bestuur je zelf de camera, in film wordt dit voor je gedaan
Lensonscherpte is iets heel anders dan bewegingsonscherpte ...
Dat klopt, maar ze hebben zeker wel met elkaar te maken. Over het algemeen het je meer motionblur op hetgeen wat niet in focus ligt.

Maar het punt wat ik probeerde te maken, was niet om motionblur en scherpte op 1 hoop te gooien, maar wel dat het niet zomaar iets simpels is. Een echt realistische camera (met motion blur en brandpunt) is voor een game gewoon irritant.
Dan vind ik brandpuntonscherptje in games in ieder geval veeeel iritanter dan motion blur.
Motion blur in games zal gewoon nooit hetzelfde zijn als in een film, hoe goed je het ook nabootst. In een game bestuur je zelf de camera, in film wordt dit voor je gedaan
Nou ja, zeg nooit nooit. Er is een scenario waarin game motion blur hetzelfde of zelfs beter kan zijn dan film:

Stel dat monitoren beperkt blijven op 60Hz, maar de rekenkracht van onze hardware sterk genoeg word om 20-30 frames te renderen in dezelfde tijd dat het nu kost om 1 frame te renderen. Als je al deze frames interpoleert heb je een natuurgetrouwe motion blur bij een 60fps beeld. Het zou er zelfs beter uit zien dan bij film omdat bij film de sluiter tussen frames even dicht zit. Dit terwijl onze fictionele super PC je de volle beweging van het hele frame kan laten zien.

Klinkt misschien absurd, maar volgens mij halen we dit soort framerates al bij oudere games zoals Quake Live. Als je 1800 fps kunt runnen kun je ook natuurgetrouwe motion blur hebben bij 60fps.

(disclaimer: ik weet niet welke fps er momenteel gehaald word bij quake3, corriseer mij als ik er helemaal naast zit)

[Reactie gewijzigd door simen op 8 februari 2014 00:49]

Ik zie zelfs verschil tussen 85 fps/hertz (1:1) en 125fps/hertz (1:1). Dit uiteraard in dezelfde games, op dezelfde monitor (CRT). Boven de 125 merk/voel ik geen verschil meer. Voor de console vind ik 60FPS (steady) prima, daar het ronddraaien met de muis en actie toch veel sneller op de pc is (muis moet ook =>500hz usb rate hebben om er volop van te kunnen profiteren, nog vloeiender).

En ontopic: Liever een stabiele fps van 50 dan 100 fps met drops naar 50 ;)

[Reactie gewijzigd door ToFast op 7 februari 2014 12:45]

Je moet echter niet vergeten dan refreshrate op een CRT iets anders is dan de refreshrate op een LCD scherm.
Een CRT werkt doordat een electronen straal tegen een pixel op het scherm straalt en het tijdelijk in een bepaalde kleur oplicht.
Bij een refreshrate van 75 Hz betekent dat dus dat het 1/75e van een seconde duurt vanaf linksboven naar rechtsonder om alle pixels in het scherm op te doen lichten. Tegen de tijd dat hij rechtsonder beginnen de bovenste pixels echter alweer te doven, hierdoor lijkt het scherm bij lagere refreshrates ook een beetje te flikkeren. Hoe sneller de refreshrate, hoe minder de pixels kunnen doven voordat ze opnieuw aangestuurd worden, dus hoe minder flicker. Hierdoor zie je (los van framerate van het weergegeven beeld) dus ook verschil tussen 60 en 85 Hz CRT schermen.
Een LCD werkt echter door pixels die gewoon oplichten in een bepaalde kleur en zo blijven (zo lang er stroom blijft lopen) totdat ze het commando krijgen een andere kleur te worden. Hierdoor doven pixels dus niet tussen refreshes en flikkert het beeld een stuk minder (of niet eigenlijk)

Dit zorgt er echter ook voor dat bij een CRT het veel belangrijker is om op hoge snelheid het scherm te refreshen dan bij LCD.

Hoewel dit weliswaar los staat van de discussie of framerate boven een bepaald punt niet meer waarneembaar is, maar wat ik bedoel is dat je genoemde voorbeeld van framerate op een CRT wel heel anders is dan op een LCD, en dat je bij een LCD veel minder waarneembaar verschil zult hebben tussen 85 en 125 Hz dan je op een CRT ziet (en hiermee zeg ik niet dat er geen verschil is, alleen dat het op een LCD minder is dan op een CRT).

En dan on-topic: Ja het is wel degelijk erg merkbaar als framerate steeds fluctueert. Wat in een andere post hierboven al genoemd wordt is dat je ogen wennen aan een bepaalde framerate, omdat je hersenen in feite de missende delen invullen en er voor je gevoel een "vloeiend" beeld van maken. Als het fluctueert dan moeten je hersenen steeds compenseren en kunnen ze het niet goed meer bijbenen. Hierdoor voelt stabiel 30 fps beter dan variabel tussen de 30 en 60 bijvoorbeeld.
Dat klopt betreffende de hertzfrequentie, schermopbouw en het flikkeren van het beeld. Dit verhaal had ik expres achterwege gelaten. Er zijn tegenwoordig ook 120hz TFT schermen, daarvoor geldt hetzelfde voor mij, ik zal tot 120FPS (1:1 met hz) verschil merken/zien/voelen. Het is een combinatie, want boven de 100hz 'zie' je het verschil niet duidelijk, maar voor het gevoel is 120fps nog beter (mits de muis een hoge usb-rate heeft, anders heeft het geen zin qua gevoel/vloeiendheid).

Verder moet ik erbij vertellen dat dit in de tijd van het CRT tijdperk was, een dikke 10 jaar geleden voor mij. Maar nog steeds ben ik gevoelig voor dit zaken. Meteen ook de reden dat ik een plasma-paneel op de console gebruik met lage input-lag, lage responstijd en gewoon 1080lijnen scherp tijdens beweging. Vooral dat laatste is een euvel met de LCD/TFT schermen, de bewegingsonscherpte. Deze hebben vaak maar 500~600 beeldlijnen aan 'motion resolution'. Een minpunt wat mij ook direct opvalt bij plasma schermen is het flikkerend beeld (beetje zoals TL-verlichting), bijna zoals bij de tradionele CRT monitoren (beneden de 100hz).

[Reactie gewijzigd door ToFast op 7 februari 2014 13:46]

Mwa, bij een refreshrate van 75 hz en hoger zie ik persoonlijk toch geen geflikker meer op een CRT. Bij een LCD echter heb je weer het probleem dat je brein er minder goed beweging van kan maken juist omdat het beeld continu belicht is. Normaal vult je brein automatisch de beweging in tijdens de donkere periode zeg maar, maar omdat een LCD die niet heeft ziet het er eerder uit alsof een bewegend object verspringt ipv vloeiend beweegt. Ik weet niet of je daar misschien ook op doelde met zeggen dat het op een LCD belangrijker is het scherm op hoge snelheid te verversen?

Om deze reden heb ik zelf een plasma tv, juist omdat deze ook knippert, maar je hebt tegenwoordig ook LCD schermen met knipperend backlight juist om dit effect weer terug te halen.

Helaas heb ik nog geen hogere refresh monitor dan 60 hz mogen gebruiken, maar aangezien ik op mijn 60hz monitor (die dus geen knipperende backlight heeft) nog duidelijk objecten zie verspringen als ik er op let denk ik dat daar nog wel winst te halen is.
Vreemd hoor ik heb heel wat spellen gespeeld in mijn tijd en had nooit problemen met 60FPS die schommelt.

En ze doen het alleen voor de Single player mode.
De Nederlandse ontwikkelaar Guerilla Games voegt daarmee een optionele limiet van 30fps toe aan de singleplayer-modus.
Vaak omdat multiplayer varianten van dit soort games minder zwaar zijn dan de single player. Vaak kleinere omgeving, en de graphics een tikje omlaag, dit om een vloeiende gameplay te evenaren. Echter in single player wil je het zo mooi mogelijk hebben natuurlijk (en heb je niet zo snel last van latency, lag, input lag etc etc)
Wanneer het erg druk is kan een variabele framerate erg vervelend zijn: het beeld kan er dan [wat] schokkerig gaan uitzien. Als je enkel door gangen wandelt valt dat veel minder op.
de reden dat dit vervelend is is omdat monitoren en TV's en vaste refresh rate hebben.
ook wel vertical sync geheten.

dit gebeurt 60 keer per seconde. als je 60 fps haalt dan ververs je dus elke keer het beeld en ziet het er dus goed uit. 16.6ms per frame.
60/60= 1

als je 30x per seconde ververst, dan heb je elke constant 33.3 ms tussen elk frame
60/30 = 2

stel je hebt 40 fps. 60/40 is 1.5
dus je krijgt 2x een beeld op 16.6 ms achter elkaar en dan 1 na 33.3ms
dan weer 16,6 2x en dan 1x 33.3 dat of je krijgt tearing:
http://static.giantbomb.c...2225/1156042-ggdsg_19.jpg

en das deze framerate niet constant 40 is maar dus ergends tussen de 35-50 zit krijg je een framerate zoals dit:

beeldscherm: 1-2-3-4-5-6-7-8-9-10-11-12
game 1-1-2-3-3-4-5-6-7-8-9-9-10
soms kan het zelfs zijn dat je omdat het beeldscherm net een frame mist je een frame overslaat, dat zorgt voor echt flinke "judder" daarom is het fijner om 30FPS constant te hebben, waar onze hersenen iets beter interpoleren, in plaats van soms somooth en soms niet.

G-sync probeert dit probleem onder andere nu aan te passen (Freesync ook)
door een beeldscherm te laten refreshen waaneer de GPU klaar is, echter TV's zullen dit niet kunnen. daarom is er de harde keuze tussne 30/60 fps wat een enorm verschil maakt in visuele kwaliteit en het gros van de spelers kijkt naar de plaatjes op het hoesje, of filmpjes op youtube welke toch al 30FPS zijn...
en wat als je scherm en de fps niet synchroon lopen.... in het beste geval heb je 120 fps waardoor je ool dit niet meer kunt merken. 30 fps op een next gen console al bij release... man o man. Deze consoles zullen veel sneller een opvolger krijgen dan de ps3 ben ik bang
Neuh, dat is prima voor te stellen toch? Dit is niet heel anders bij elke andere shooter die niet op 60 fps locked kan draaien. Het is inderdaad prettiger om een stabiele framerate te hebben dan eentje die constant onder de refresh rate van je beeldscherm duikt; dat zie je en voel je als 'hakkelig' of 'niet soepel'. Speel je echter constant op een lagere FPS, dan merk je die verschillen niet (want geen fps drops) en voelt het geheel natuurlijker aan.

Vergelijk het met autorijden op de snelweg en in de file staan: het is verdomd vermoeiend als bestuurder om constant met die koppeling te spelen, dan kun je beter je auto rustig uit laten rollen en afstand nemen; je gemiddelde snelheid dus aanpassen aan de laagste snelheid op de weg zorgt ervoor dat je dat kan doen.
Ik heb het nergens kunnen vinden waarom het vervelender kan zijn. Ik denk zelf omdat je op locked 30fps je aan de framerate gewend raakt.

[Reactie gewijzigd door BJ_Berg op 7 februari 2014 11:34]

Ik denk dat het komt omdat je niet kunt anticiperen op de fps-drops. En aan minder fps raak je gewend inderdaad, daarop kan je je wel anticiperen.
'bekijk' het als een zachte toon op de achtergrond waar je snel gewend aan raakt,
bvb: tuuuuuuuuuuuuuuuuuuuuuuuuuuuuuuuuuuuuuuuuuuuuuuuuuuuuuuuuu..... dan begint je brein deze snel te negeren.
Maar als deze als volgt klinkt:
bvb: tuuuuuuuuiuuuuuuuuuuuuuuuuuuuiiiiuuuuuuuuuuuuuuuuuuuuiuuuuuuuuuii... dan ga je je er mateloos aan irriteren :-)

ik althans toch :-)
Vandaar dat ze die 'toon' stabiel willen maken hé

edit, misschien is het mijn OCD kicking in, maar zelfs die tweede versie ziet er al storend uit :D

[Reactie gewijzigd door musback op 7 februari 2014 16:00]

Mooi gezegd :) Het menselijk brein houdt (blijkbaar) van stabiliteit :)
Zet bijvoorbeeld eens vsync aan in een game die je tussen de 50 en de 60FPS kunt draaien. Je merkt het direct als ie naar 30FPS springt en dat bederft je spelervaring behoorlijk.

Vooral voor de input (ook met een controller) is het irritant.

[Reactie gewijzigd door Wolfos op 7 februari 2014 11:48]

Als de framrate niet constant is krijg je een schokkerig beeld, je ogen kunnen makkelijker aan een framerate wennen als deze constant is. Vergelijk het met een achtergrond geluid, als een achtergrond geluid constant is zoals bijvoorbeeld een fan van een computer, begin je na een tijdje aan het geluid te wennen en merk je het na een tijdje bijna niet meer. Als het geluid onregelmatig is blijf je er last van hebben. Hetzelfde geld voor framrate van visuele content, als je een constante framerate hebt beginnen je ogen aan een lagere framerate te wennen. Waneer je speelt op 40 fps en je krijgt soms een dipje naar 30 fps of een piek naar 60fps ga je dit merken, als de framerate constant 30 is valt het minder op.

[Reactie gewijzigd door maevian op 7 februari 2014 12:13]

Ik heb dat bij elk spel, en het weerhoudt mij er de laatste jaren van om games te spelen. Het is iets puur psychologisch. Het ene moment kijk je naar een heel soepel beeld, en het volgende moment weer niet. En dat wisselt dan steeds af. Vergelijk het met wanneer iemand met de brightness zit te rommelen. Of het geluid steeds harder of zachter. Dan wil je ook roepen "blijf met je tengels vans die knoppen af!". Maar bij de framerate heb je er nooit invloed op, en dat maakt het vervelend.
Als PC-gamer hoef je daar geen last van te hebben. Je kan met externe programma's framerate op 60 cappen, de instellingen laag zetten zodat je theoretisch altijd boven de 60 uitkomt en klaar is kees (anders cappen op 30 met hetzelfde effect).
Ik lees een hoop onduidelijkheid over het nut van een fixed fps vs een variabele fps.

Als de game een variabele fps heeft,dan heb je last van tearing als vsync uitstaat en stuttering als vsync aanstaat. Op anandtech staat dit allemaal uitgelegd in het artikel over g-sync: http://www.anandtech.com/show/7582/nvidia-gsync-review

Door de fps te limiteren naar 30, en aangenomen dat die 30 dus niet variabel is, en je op een 60hz of 120hz lcd gamed, dan heb je dus geen last van tearing en stuttering.

Een variabele fps betekent dus eigenlijk dat je een variabele refresh rate hebt. En alle LCDs zijn fixed refresh rate: 60, 120, of 144. Tenzij je een G-sync monitor hebt natuurlijk :)

[Reactie gewijzigd door gnik op 7 februari 2014 12:28]

Ik kan het verschil tussen 120 en 60 al goed zien. Denk dat het nog erger is voor 60 - 30.
Naar mijn mening is meer beter. Uitzonderingen daargelaten ( Glitches bij uncapped fps)
Ik denk niet zozeer dat je het verschil tussen 120 en 60 fps 'ziet' (als in, als je iemand anders ziet gamen dan zul je het verschil niet zien), maar dat je vooral merkt dat de input latency veel lager is bij 120 fps. Leesvoer.

[Reactie gewijzigd door .oisyn op 7 februari 2014 11:45]

Eeh,. ik denk niet zozeer dat je gelijk hebt alswel dat je aan het projecteren bent.
Ik kan tot iets boven 100Hz nog merkbare tijdsartefacten waarnemen al is dit wel afhankelijk van het materiaal. En dat zonder een invoerapparaat aan te raken.
Maak dus alsjeblieft geen aannames over de waarneming van anderen.

Input latency is ook een probleem maar refreshrate en het waarnemen ervan kan prima opzichzelf beschoud worden.
Negeer deze comment. Mijn verkeerde intepretatie van de hdmi specificaties maakt deze comment waardeloos en ronduit vervelend. Daarom heb ik hem weggehaald

[Reactie gewijzigd door mikesmit op 7 februari 2014 11:41]

Naar mijn mening is een constante framerate beter, want dan weet je qua input wat je kunt verwachten. Input die het ene frame net iets anders geinterpreteerd word of aanvoelt kan erg vervelend zijn.

Maar goed, daarom is het ook een optie.
Een goed signaal van Guerilla dat ze luisteren naar de community! _/-\o_
Ja inderdaad. Ik vind dat ook erg netjes. Kunnen sommigen nog wat van leren.
Met alle respect, maar als fps fan speel ik een fps game het liefst op 60 fps. Of de graphics moeten minder of het systeem moet zwaarder. Aangezien de PS4 nu eenmaal zo is vind ik dat Guerilla pas netjes was geweest als het bedrijf voor de gameplay was gegaan.

Begrijp me niet verkeerd, ik vind graphics echt heel belangrijk, maar gameplay staat op één en wat mij betreft mag er niets ten kosten gaan van de gameplay, omdat dit imo het grootste invloed heeft op de spelervaring van een fps. Uiteraard is dit mijn mening, maar ik kan me goed voorstellen dat het overgrote deel van de fps gamers hun game op z'n best willen spelen, zonder haperingen o.i.d.

In dit opzicht heb ik puur de indruk dat de presentatie het voortouw had, omdat het om een showcase title ging.

Overigens wel goed dat er nu een pleister beschikbaar wordt gesteld. Maar hiermee geeft guerilla wel toe dat deze game eigenlijk geen 60 fps game genoemd mag worden en dit is indirect ook een slap in the face van Sony en haar PS4.

Er zou bijna een soort van 60 fps label op game doosjes mogen komen, net zoals Full HD op een HD tv (zodat je weet dat het geen HD ready product betreft..)

Voor de mensen die denken dat meer dan 24 of 30 fps niet merkbaar is: http://nl.hardware.info/t...aming-wat-is-het-verschil
Zelfs 120 FPS heeft een merkbaar verschil ten opzichte van 60 fps (schermen van 60 hertz kunnen praktisch niet meer dan 60 fps weergeven, en 120 hertz dus niet meer dan 120 fps).

[Reactie gewijzigd door IngamerX op 7 februari 2014 15:50]

Om deze reden zijn de graphics van KZ:SF in de multiplayer ook een klein beetje bijgesteld om een constante 60 FPS te behalen. Als je je zorgen maakt over competitief spelen is dit dus geen probleem.

In singleplayer is dit iets minder belangrijk omdat dat een wat meer "begeleide" ervaring is. Je bent daar minder vaak 180 graden aan het omkeren, waarbij een lagere fps sneller merkbaar is.

Het is één van de eerste console shooters die ik daadwerkelijk heb uitgespeeld. Ik had geen last van een lage fps gedurende het hele spel. En dat terwijl ik opgegroeid ben met UT99 en Q3, en een lange tijd bij mijn CRT monitor heb gezworen omdat lcd panels zo'n input lag en lage Hz hadden.
Ik heb de filmpjes bekeken en heb geen verschil kunnen ontdekken. Ook heb ik tijdens het spelen geen enkele last van de framerate gehad. Wat ik wel weet is dat het toch echt het grafisch mooiste spel is wat ik tot nu toe heb gespeeld :)
Ga maar eens goed op de split lijn letten. Daar zie je het degelijk wel. Dan speel ik liever op 30fps locked. Ook al heb ik geen PS4 :c
Bij de verticale split zie ik het ook niet, maar kijk eens goed bij de horizontale split, op de split lijn. En dan vooral op het moment dat het beeld snel horizontaal beweegt. Je ziet dan dat de variabele framerate even achter blijft ten opzichte van de gelockte op het moment van een framedrop, en zodra deze weer omhoog schiet wordt het weer gecompenseerd. Allemaal net iets hakkeligger dus.

Echter, ik ben ook van mening dat je het niet of nauwelijks merkt als je geen vergelijkingsmateriaal hebt om het naast te leggen.
"Ik heb de filmpjes bekeken en heb geen verschil kunnen ontdekken."

Weet je zeker dat de player de filmpjes wel op 60Hz afspeelt op een 60Hz monitor?
Anders ga je inderdaad geen verschil zien.
Dat spreekt voor zich natuurlijk, 60Hz op een 120Hz monitor ;)
Ik heb Killzone volledig uitgespeeld en nergens heb ik irritatie ondervonden dat de frameraten een drop neemt op drukke momenten.
Volgens mij draait de Singleplayer dan ook op 30FPS :+, waardoor ze grafisch wat meer/mooier konden tonen.
SP draait op 30+ fps, vandaar dat er een optie is om alleen op 30fps te kunnen spelen. Singleplayer draait dus tussen de 30&60, waarbij de MP op 60fps draait.
Helpt een gecapte framerate eigenlijk ook om drops onder de 30 fps te voorkomen? Dus omdat 30 fps minder performance vraagt dan pieken van 60 fps, dat er een soort buffer is voor de zwaardere momenten?
..soms.
Er kunnen situaties optreden waarbij het niet hoeven tekenen van een extra frame ervoor zorgt dat je eerder aan het frame erna kunt beginnen.\
Nee, doorgaans niet. Een dergelijke 'buffer' ontstaat eigenlijk alleen maar als de videokaart 60 fps niet haalt vanwege een te hoge temperatuur (en dus terug moet klokken om niet te crashen / throttlen heet dat). Op dat moment zorgt de lagere temperatuur die 30 fps met zich meebrengt (want: minder frames om uit te spugen, dus gpu minder heet) dat er ruimte is voor de gpu om heter te worden en dat deze dan bijvoorbeeld vaker naar een turbo modus kan (zie Kepler boost, bijvoorbeeld, maar ook AMD heeft dit mechanisme op basis van warmte) op het moment dat dat nodig is om 30 fps te houden.

Maar eigenlijk betekent dat gewoon dat de koeling van de videokaart ondermaats is. Los van temperatuur heeft een videokaart gewoon heel simpel een maximale capaciteit en die wordt altijd maximaal benut tenzij je frame limiters of Vsync erop loslaat.

[Reactie gewijzigd door Vayra op 7 februari 2014 16:02]

Constant is denk ik ook beter. Daar wen je aan en dan is het altijd hetzelfde. Bij een wisselende frame rate merk je de veranderingen de hele tijd. Al zijn er ook mensen die er niet gevoelig voor zijn.
Next-gen hoor!
Ik bezit zelf geen next-gen console, en ook geen high-end pc. Sterker nog ik game nauwelijks. Maar toch denk ik dat mensen hele vreemde verwachtingen hebben van next-gen.

Als je wilt zien wat next-gen kan, kijk dan naar de high-end PC videokaarten en schroef dat een paar stukjes terug. Een high-end PC videokaart als de GTX 780 Ti, krijgt het bij BF4, op Ultra, 1080p, niet voor elkaar om elke scene op 60fps te renderen. Minimaal 44,7 en gemiddeld 72,5. Gemiddeld! Dat schommelt dus nog véél meer! En dat voor een videokaart dat bijna 2x zoveel kost als een volledige PS4.

Bron: reviews: GeForce GTX 780 Ti: de kroon heroverd

Dus waar de opmerking 'next-gen hoor!' op slaat? Ik heb werkelijk geen flauw idee.
Wow! Een (grote) developer die luistert naar de community! Hulde!

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True