Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 274 reacties

Ratchet & Clank: A Crack in Time is waarschijnlijk het laatste spel van ontwikkelaar Insomniac Games dat draait op een framerate van 60fps. Zowel gamers als recensenten zouden een framerate van 60fps geen noodzaak vinden.

In een blogpost legt Insomniac-medewerker Mike Acton uit dat een framerate van 60fps weinig uitmaakt voor de reviewscores en verkopen; er zou nauwelijks verschil zijn ten opzichte van gebruik van een framerate van 30fps. Ook zouden maar weinig gamers een dergelijk hoge framerate belangrijk vinden.

Daarentegen zouden de reviewscores wel worden beïnvloed door de kwaliteit van de graphics. Dat zou blijken uit een onderzoek van Insomniac over 47 games; de grafische score van spellen zou een duidelijke correlatie hebben met de algemene score. Onduidelijk is van welke spellen de scores zijn gemeten, en van welke media de scores afkomstig zijn.

Acton schrijft dat framerate nog steeds van belang is voor Insomniac, maar wel minder dan vroeger. "En dat betekent dat Ratchet & Clank: A Crack in Time waarschijnlijk Insomniacs laatste 60fps-game zal zijn", aldus Acton. "Wanneer er moet worden gekozen tussen framerate en verbeterde beeldkwaliteit, zou beeldkwaliteit moeten prevaleren."

Overigens gaf in een poll van Insomniac 16 procent van de respondenten aan dat 60fps een halszaak vinden. Acton zei dat die 16 procent uit leugenaars bestond, aangezien de verkoopcijfers dit tegen zouden spreken, of dat de onderzoeksgroep niet erg representatief was. Insomniac Games ontwikkelt zijn spellen exclusief voor Sony-platformen en is onder meer bekend van Ratchet & Clank, Resistance en Spyro.

Graphis-scores t.o.v. algemene scores volgens Insomniac


Moderatie-faq Wijzig weergave

Reacties (274)

1 2 3 ... 7
Overigens gaf in een poll van Insomniac 16 procent van de respondenten aan dat 60fps een halszaak vinden. Acton zei dat die 16 procent uit leugenaars bestond, aangezien de verkoopcijfers dit tegen zouden spreken, of dat de onderzoeksgroep niet erg representatief was.
Nou, lekker, doe nog eens mee aan een poll zeg..

Ik vindt 60fps zelf geen noodzaak, maar 30 vindt ik wel vrij laag. Wat is er mis met 40/45fps?
[img]http://www.insomniacgames.com/assets/extras/fps_poll.jpg[/]

^ ^

Geeft meer duidelijkheid waarom de overweging is gemaakt in vergelijking tot het bovenstaande figuur.
Dit is inderdaad duidelijker. Maar de vraagstelling duwt de mensen al naar een bepaalde hoek toe.

Ik denk enkel dat er wel een aantal feiten hier door elkaar lopen (en ook in de reacties hierop) of niet echt goed bekend zijn.


Laten we even naar de spellen zelf kijken:

-Meeste puzzlespellen zijn zelfs al goed te spelen met 12 fps (zie de enorme userbase van Realgame/Zylom). Bijna iedereen van ons heeft zich wel eens bezondigt aan een flash spelletje dat best vermakelijk was.

-Vele van ons hebben wel eens een 2d vechtspel gedaan en geen van die spellen werkt op 60fps(als je let op hoe houterig zelfs de meest geanimeerde spellen zijn zoals Guilty Gear of Street Fighter 3). Dat we bij sommige spellen wel 60fps voorgeschoteld krijgen, wil nog niet zeggen dat de animatie zelf 60fps is.

-Ook veel van de adventure spellen, rts en platformspellen hebben geen 60 fps nodig. Kijk in dit geval maar naar de Zelda spellen, topscores en nooit 60 fps. Heeft een command and conquer nu echt 60 fps nodig?

Dus op deze manier van kijken heeft insomniac wel gelijk. Hier staat dan wel tegenover dat sommige spellen juist leven op een hoge fps, shooters en racers bijvoorbeeld. Snelle waarnemingen zijn essentieel en een kleine drop in fps is roonduit iritant als je in de flow van het spel zit. Dus ik denk dat de belangrijkste conclusie is: Het aantal FPS hoeft niet voor elk spel belangrijk te zijn


Laten we naar het fenomeen fps zelf kijken:

Er wordt ook nog wel eens vergeten dat films op 24fps draaien en er uiterst vloeiend uitziet. Alleen wordt er door de mensen die dit argument graag gebruiken wel vergeten dat de bewegingszweem(wat je ook ziet met een foto van een snelbewegend iemand) onze hersenen helpt het als een vloeiende beweging te zien. Daarom zien we ook beweging in een strip verhaal als er bewegingsstreepjes zijn. Deze bewegingszweem bestaat niet (tot nauwlijk) in de spellen. Spellen die dat wel hebben (zoals de Soul Calibur serie) zie je dan positief op het gevoel werken qua animatie.

Er zijn dan ook uitgebreide tests gedaan en daaruit blijkt dat het onder de juiste omstandigheden, dat de gemiddelde mensen zelfs ver boven de 100fps kunnen waarnemen (ik meen tot 240fps te hebben gelezen). Dus indien gewenst "kan" het zelfs nog verder dan die 60fps die heilig lijkt. Dus qua dat denk ik dat bepaalde statements van mensen hier in de reacties echt niet zo overdreven/onrealistisch zijn.


Laten we naar het platform kijken en de manier waarmeee we het spel besturen

Spelen op het type beeldscherm en het platform waarop je speelt is ook erg van belang. Imperfecties zijn overduidelijk beter waarneembaar op een monitor die 50cm bij je vandaan staat, dan een HD tv van 3-4m bij je vandaan. Ook is de reactiesnelheid die niet top is met een muis beter waarneembaar dan met een controller. De reactiesnelheid en precisie van de Wii is ook met de Wiiplus bedroevend... Maar niemand die een Wii heeft er er over klaagt.


Mijn persoonlijke conclusie:

Ik denk over de grove lijn gezien dat Insomniac een sterk punt heeft. Maar het wel vooral geldt voor het type spellen dat ze zelf utigeven(op resistance na) en hoe het beleeft wordt door de gebruiker.

We hebben allemaal wel eens spellen gespeelt die we als goed ervaarden, terwijl we de minpunten er in in een ander spel extra zwaar zouden laten wegen. Het mooiste voorbeeld wat ik kan noemen hierin is GTA3: Grafisch gezien een monster, constante pop ups en absoluut geen goede fps die tot onder de 30 kon zakken. Maar bijna geen één reviewer of gebruiker die zich daaraan ergerde. Dit is dan ook een van de weinige spellen die bewees dat gameplay > graphics kon staan.

[Reactie gewijzigd door AYCE op 31 oktober 2009 12:57]

vergeet niet dat hoewel 30fps wel goed is.
de framerate, in tegenstelling tot bij een film, bij een game niet stabiel is.

dus tussen de frames zit 25 millliseconden dan 33 dan 22 en dan ineens 84...
bij die laatste voelt het ineens hakkelig.

logisch maar je haalt nog steeds 30fps.
30fps is dus relatief.

ps waarom geen switch?
kunnen spelers kiezen meer detail of 60 fps.

gewoon betere anti-alias hogere resolutie.
minder agressieve LOD, evt hogere resolutie textures en models
ok kost extra werk maar dan heeft iedereen wat ie wil
Ik zou er graag een voorbeeld van willen zien dat met een constante 30fps dit inderdaad te zien is. denk dat we echt over lagere fps moeten praten voordat het opvalt ipv binnen in de fps zelf te zoeken. Maar als we zelfs binnen de fps zelf druk moeten maken, dan kan geen één spel het nog goed doen. Dus ik persoonlijk betwijfel dit.

Maar om deze reply wat op te vrolijken:
http://www.100fps.com/how_many_frames_can_humans_see.htm
Go tto love google... Feitelijk bevestigt het wat ik verteld heb, hier en daar ook wat interessante aanvullingen.

[Reactie gewijzigd door AYCE op 31 oktober 2009 21:52]

Dat is alleen zo als je het op 50Hz weergeeft. Speel je het spel op 60Hz, dan is de framerate wel stabiel. Weet overigens niet of de PS3 dergelijke spellen via HDMI met 60Hz of 50Hz weergeeft… volgens mij is 60Hz gewoon onderdeel van de HDTV-standaard dus zouden in principe alle TVs het moeten ondersteunen, en is Sony niet meer gedwongen om Europese spellen op 50Hz weer te geven… niet?

[Reactie gewijzigd door Grauw op 1 november 2009 12:15]

maar 30 vindt ik wel vrij laag. Wat is er mis met 40/45fps?
Net zoveel of weinig (doorhalen wat niet van toepassing is) als wat er mis is met 25 or 30 fps. Helemaal niets.

Boven de 24 a 26 frames per seconde zie je het verschil toch niet meer. De andere verschillen die er zouden zijn, zoals het rustiger zijn voor je ogen, zijn zo marginaal dat het geen donder uitmaakt.
Alles wat boven de pak em beet 26fps uitkomt is leuk voor de e-peen maar verder niet.

Dan heb je ook nog de discussie over het sneller kunnen reageren bij een hogere framerate. .

Je praat over enkele milisecondes. Ook al *zou* je dat verschil kunnen merken (en dat zijn er echt maar enkelen op deze aardkloot)

Dan nog spelen er zoveel fysieke en geestelijke factoren mee voordat het opmerken van een tegenstander is omgezet in een daadwerkelijke aktie (het goed richten en klikken van de muis)
Die enkele milliseconde valt in het niet bij alle andere processen en factoren die een rol spelen bij de uiteindelijke reactiesnelheid van een persoon. Kortom, ook niet relevant.

[Reactie gewijzigd door DamageCase op 30 oktober 2009 13:32]

Dat oude wijven verhaal weer. Dit geldt alleen voor NATUURLIJKE beelden, zoals van een film die de echte wereld waarneemt en waarbij de camera die ook langzaam is de blur vastlegt.

Bij een CGI beeld, zoals een computer spel, heb je geen blur en ziet je oog dus de harde overgangen van het ene naar het andere beeld.

Dacht dat dit toch eindelijk eens begraven was, maar ja.
Dit is inderdaad het enige juiste antwoord.
(Zat al te zoeken of iemand anders het zou posten voordat ik het zelf zou doen).

Ik heb hier ooit een artikel over zitten lezen van meerdere pagina's 'dik' waar dit verschil haarfijn werd uitgelegd en iedereen eens zou moeten snappen hoe onjuist en ongegrond het is om te roepen dat een game met meer dan 24-25 fps onnodig was.

Bron: http://amo.net/NT/02-21-01FPS.html
Een film camera met motion blur is geen natuurlijk beeld ... de hoeveelheid motion blur die word toegevoegd is vele magnitudes groter dan het effect van persistence of vision (natuurlijke motion blur). Zelfs als we de grootte van het effect even achterwege laten is de blur alleen maar natuurlijk wanneer je rotsvast in the midden van het beeld focused.

Motion blur in een spel toevoegen is niet zo heel moeilijk met een modern spel, maar een spel met een speler die vrijelijk kan rondbewegen legt zichzelf niet de verschrikkelijke beperkingen op die een film ploeg zichzelf oplegt. Motion blur (en depth of focus) zijn daarom in een spel vaker irritant dan op zijn plaats.

Er is niks natuurlijk aan de scenes of de camera bewegingen in de gemiddelde film ... alle twee zijn bewust beperkt om de limitaties van de lage frame rates van films niet al te irritant te laten worden.
idd. 24fps is het maximale verschil wat je als mens waar kan nemen.
De link is op zich grappig en waar. Ook goed waar te nemen als je een goed scherp 720p filmpje hebt op 25fps.

Speel het op een digitale televisie af via DVI/HDMI/VGA aansluiting. Daarna ter vergelijking via een analoge(antenne) uitgang op dezelfde televisie in SD formaat.

Het analoge signaal is van lagere kwaliteit en vager, maar het zal er (subjectief) vloeiender uitzien.

Computer gegenereerd beelden zijn over het algemeen zeer scherp en vereisen dus een hogere framerate om het als vloeiend te ervaren. Een oplossing zou kunnen zijn om de bewegende delen te blurren.

Alleen kan je er dan op rekenen dat ze bij reviews een still nemen en deze volledig af gaan kraken. Ik heb daadwerkelijk al reviews gezien waarbij actiespellen werden gekraakt op beeldkwaliteit 'issues' die je tijdens het spelen nooit en te nimmer zal zien.
Dat is dezelfde oplossing die ze gebruiken in de film ... maar het is niet zo'n hele goede IMO. Werkt ook niet bij dingen als langzame pans, die er gewoon altijd verschrikkelijk uitzien bij lage framerates IMO. Je ogen kunnen een echt bewegend voorwerp prima scherp houden. Is gewoon een kwestie van meebewegen, en dat doen ze uit zichzelf.

Dat dit bij een LCD met lage framerate (en bij de Film) niet werkt is omdat het beeld stil staat tussen de updates (het is sample&hold). Dit soort bewegingen zijn zeer onnatuurlijk en je ogen kunnen zich daar dan ook niet aan aanpassen (dit effect heet overigens judder, ook aanwezig bij film omdat daar elk beeldje herhaalt word). Als het beeld zou stroben (zoals bij CRT) kan je het weer prima scherp houden ... maar dan krijg je weer verschrikkelijke flicker bij 24 Hz.

Met sample&hold displays heb je feitelijk hogere framerates nodig om een even vloeiend beeld te krijgen dan bij een strobe display.

[Reactie gewijzigd door Pinkys Brain op 30 oktober 2009 16:56]

Mbt deze link: deze wikipediasite geeft geen bron.

Dat betekent dat deze link niet meer (of minder) waarde heeft dan andere posts van mensen hier op tweakers.net die zeggen dat de mens meer kan zien dan 25 fps.
Bovendien heeft hij het stukje niet goed gelezen. Er staat namelijk het tegendeel: "Een groot misverstand is dat vanaf zo'n 25 beelden per seconde elk beeld als vloeiend wordt ervaren, dit is niet zo."
Een mens ziet niet in absolute frames-per-second, de beelden die je opvangt overlappen in je hersenen. 60 fps ziet er wel degelijk vloeiender uit dan 30 fps.
Absoluut niet waar. Hoe kom je erbij. Films zijn duidelijk heel stotterig, zeker in de bioscoop met groot scherm. Beweging wordt pas vloeiend bij meer dan 70 fps.
idd. 24fps is het maximale verschil wat je als mens waar kan nemen.
Zoals al velen hebben aangehaalt is dit complete nonsense. De stelling is dat vanaf 24 fps een film als vloeiend gezien wordt. Dit betekend niet dat je daarboven geen verschil meer ziet. 24 fps is het minimum, niet het maximum.

Net zoals een snelheidslimiet (van bv 50Km/h) niet wil zeggen dat je minimaal die snelheid moet rijden.
Nee het maximale wat een mens kan zien is 30fps geen 24/25/26 fps.
Het midden van je ogen heeft een hogere resolutie, de zijkant een snellere reactietijd. (je ziet iets heel snel aankomen in je ooghoeken, vanuit de evolutie was dat schijnbaar handig) led-achterlichten van auto's zie je in je ooghoeken bijvoorbeeld wel knipperen (en trekken daardoor helaas de aandacht) maar als je er recht naar toe kijkt zie je ze niet knipperen.

Ik kan zelfs met 30fps door mijn fotoalbums heen bladeren en de beelden nog verwerken (bijvoorbeeld tellen op hoeveel ervan een auto in beeld staat) en dat zijn 30 volledig verschillende frames met het midden van mijn ogen.
Bij bewegend beeld (films/games) kan ik het verschil tussen 30 en 60fps heel duidelijk waarnemen. Dus een mens kan zeker meer dan 30 fps zien.

En dan hebben we het nog niet over het snelle deel van mijn ogen, daarmee kun je waarschijnlijk wel bewegingen waarnemen van boven de 200fps.
Bedankt voor deze uitleg.
Nu is me ook duidelijk waarom ik vroeger een CRT op 60Hz niet zag knipperen als ik er recht naar keek, maar als je er naast keek, zag je in je ooghoek wél het geknipper van de lage refresh rate.
Ben ik het niet mee eens... je hoort iedereen wel roepen dat je het verschil niet ziet... maar ik zie het wel. Daarbij kan een spel misschien wel 95 procent op 30fps lopen maar bij een fps drop hapert dan ineens het hele spel, terwijl met 60 fps je tenminste nog een marge hebt. Snelle FPSen als COD en UT wil je ook gewoon boven de 50fps draaien
/concur....

no offense intended, maar het punt waaarop je FPS verschil niet meer waarneemt ligt bij iedereen anders.

Persoonlijk zie ik het verschil tussen 10 / 20 / 30 / 40 /50 /60 /70 / 80 / 90 / 100+


Bij anderen die ik ken houdt het al op bij ~30.

En weer bij anderen op 80...

het is geheel persoonlijk.
Er is een verschil tussen refresh rate en framerate. Het is menselijk gezien niet mogelijk meer dan 24 frames per seconde te onderscheiden. Een refresh rate van 75 of meer is aan te bevelen om beelden zonder haperingen te zien op een beeldbuis (CRT). Doordat het beeld bij een TFT overvloeid is 60Hz genoeg.

De 100Hz televisie is er gekomen omdat de 50Hz die men daarvoor had wel merkbaar knipperingen kon opleveren en een verdubbeling ervan technisch gezien eenvoudiger is dan van 50Hz naar bijvoorbeeld 70 of 75Hz gaan.

Als jij zegt het verschil tussen 30, 40 of 50 frames per seconde te kunnen zien dan ga je vast nooit naar de bioscoop. De 24 frames per seconde die daar worden weergegeven zouden je hoofdpijn bezorgen.
Het is menselijk gezien niet mogelijk meer dan 24 frames per seconde te onderscheiden.
Ik hoor het een aantal mensen roepen, maar heb nog geen enkele verwijzing naar een relevante bron aangetroffen.

Het is zeker wel mogelijk om onderscheid te maken tussen 30 en 60 frames per seconde. Zo draait een spel als Forza 3 op de Xbox 360 ingame met 60 fps, terwijl de replays met 30 fps afspelen om meer detail te kunnen laten zien. En reken er maar op dat ik een duidelijk verschil zie.

Hetzelfde geldt voor Halo 3 (30 fps) vergeleken met Call of Duty 4 (60 fps). Wanneer ik die laatste een tijd heb gespeeld en schakel dan over naar Halo 3, moet ik altijd even aan de omschakeling naar een lagere framerate wennen.
het menselijk oog kan in een normale situatie 24 beelden per seconde waarnemen (bron elk willekeurig biologie handboek van een belgische leerling die in het 3e jaar ASO zit.) Maar aangezien je beeldscherm nooit perfect gelijk loopt met je ogen zal je op 24fps dus vaker een kleinere waarneming waarnemen doordat je oog een beeld twee keer zag of er 1 gemist heeft. Dit kan je goed waarnemen door naar je horloge te kijken (lukt het best met een analoog) wanneer de seconde verspringen kan je soms zien dat hij er precies 2 in een keer verspringt.

http://nl.wikipedia.org/wiki/Beelden_per_seconde
Het gaat niet om de synchronisatie ... of je nou een LCD of CRT gebruikt, het beeld wacht netjes op je netvlies (bij LCD door sample and hold en persistence of vision en bij CRT alleen door het laatste effect) tot de hersenen klaar zijn om het te verwerken. Dat het af en toe wat vergeet mee te nemen is interresant, maar niet relevant. Het oog is analoog, het integreert (persistence of vision) en het volgt (motion tracking), alle twee volledig tijd continue processen die bepalen wat op het netvlies komt voordat de hersenen er iets mee kunnen doen. Om een object wat beweegd in je gezichtsveld op een natuurlijke wijze op je netvlies te krijgen is gewoon zeer hoge framerate nodig.

Bij lage framerates krijg je judder (je ogen willen niet graag een object volgen wat 24 keer per seconde een sprong maakt) of flikker (bij een CRT) of soms allebei (bij film, omdat elk beeldje herhaalt word).

Alle informatie die mijn hersenen kunnen verwerken in een hogere fps film zit misschien ook in 24 hakkelige en oog vermoeiende frames per seconde ... maar dat betekent niet dat het er niet kut uitziet.
Er zijn genoeg mensen die de lage framerate in de bioscoop irritant vinden.

Om een beroemt voorbeeld te geven ... James Cameron (die graag zou zien dat film naar 48 FPS gaat).
Hoofdpijn niet direct, en je gaat voorbij aan het belangrijkste punt hier, niemand zegt dat je het in IEDERE situatie kunt zien, maar je moet voor de grap maar eens met 24fps in een shooter in 1 seconde 180graden draaien, dan is de framerate niet snel genoeg meer om het aantal veranderingen per seconde vloeiend in elkaar over te laten gaan, met voor de meeste mensen schokkerig beeld als gevolg. Dit is meteen ook de reden dat vooral veel fps gamers vertellen het te zien (zijn vaak veel bewegelijker) dan de rustige tweaker die op de bang een potje tetris speelt.

overigens stoor ik me enorm aan de 24fps in de bios, vooral wanneer de camera zich vanaf de grond opricht naar een groot shot... erg irritant. Maar bij beelden met weinig veranderingen, is dit zo goed als niet te zien.
Leuk verhaal, maar er klopt helemaal niets van. Je kan niet zeggen dat je het verschil altijd kan zien omdat dit van een hoop factoren afhangt.

Zo goed als alle TFT schermen gaan maar tot 60Hz, dus daarboven kun je dat verschil niet meer zien. Daarnaast verschilt het per situatie. Het heeft te maken met de hoeveelheid verschil in contrast tussen de frames, of het een lichte of donkere scene is, en vooral bewegingsonscherpte. Bioscoopfilms draaien op maar 24 fps, en dat ervaren we niet als haperig. Ik zal je uitleggen waarom. De film die wordt gebruikt bij bioscoopfilms heeft een relatief lange belichting nodig. Als er dus beweging is, wordt het beeld uitgesmeerd. Als er onscherpte is, zien je hersenen het als beweging. Dit geldt ook voor je ogen. Als je in de auto zit, zie je ook niet alles scherp wat snel voorbij komt.

Ze kunnen met digitaal nu een stuk makkelijker snelle beelden opnemen zonder bewegingsonscherpte. Een film die op 50fps draait waarbij elke frame haarscherp is, ziet er een heel stuk schokkeriger uit dan een film die op 24fps draait waar wel beweginsonscherpte is. In de film Gladiator gebruiken ze dit effect een paar keer tijdens de gevechtsscenes.

Moderne films die digitaal worden opgenomen hebben minder bewegingsonscherpte, waardoor het soms schokkerig overkomt.

In moderne games zit tegenwoordig vaak ook bewegingsonscherpte, waardoor 30fps meestal genoeg is. Bij bijvoorbeeld Crysis valt een framerate van 25fps veel minder op dan bij oudere spellen, omdat er erg goede bewegingsonscherpte gesimuleerd wordt. Terwijl Half Life 1 of Quake of zo er meteen haperig uitziet als het onder de 60fps komt; want elke frame is haarscherp.

Die nieuwe TV-schermen die 200 of zelfs 400 fps claimen doen niets anders dan frames tussen de 'echte' frames in 'bedenken'. Dit zorgt er voor de bewegingsonscherpte die het idee geeft dat het heel vloeiend loopt.

Daarnaast hebben je ogen ook een limiet, en dat verschilt echt niet enorm veel per persoon. Ik geloof voor geen moer dat jij het verschil kan zien tussen 60 en 100 fps. Zelfs als je een super CRT monitor hebt die boven de 100Hz gaat.

[Reactie gewijzigd door bluesman op 30 oktober 2009 20:31]

70 / 80 / 90 / 100+
Hoe neem jij dat verschil waar? Er is geen Tv die een hogere framerate accepteert dan 60 fps en LCD monitors gaan ook niet verder dan 60/75 fps. Oude CRT monitors konden nog wel eens verder gaan, tot boven de 100 fps maar die zie je niet veel meer.

Overigens ben ik wel met je eens dat het verschil tussen 30 en 60 voor veel mensen gewoon waarneembaar is.

[Reactie gewijzigd door Xenan op 30 oktober 2009 14:09]

Op een goede CRT kan ik persoonlijk het verschil nog zien tot zo'n 100Hz (refreshrate), al kan de precisie verloren gaan, als in dat ik niet weet of het nu 80 of 90Hz is, maar wel dat het hoger is dan 70 en lager dan 100.

Verder merk je het verschil wel vaak, je voelt het, helemaal in snelle spellen. Dan is het een een groot verschil of het 30, 60 of 120fps is. Als je iedereen nu 'handicapt' op 30fps dan heeft iedereen gelijke kansen, maar iemand met 120fps tegen iemand met 30fps heeft een een groot precisievoordeel.
ho effe - framerate heeft niets te maken met refreshrate van je CRT. Je kunt 30 fps gamen op een 100 hz scherm en je graka kan 120 fps uitpoepen naar je 60 hz TFT.

Het verschil tussen 60 Hz en 100 Hz is enorm. Tussen 60 FPS en 100 FPS is het verschil echter zeer (onmerkbaar?) klein.

Het verschil tussen 30 fps en 60 fps is overigens niet klein. Je kunt het wel zien - mensen die denken dat het met meer dan 25 fps ophoudt hebben iets niet begrepen: dat je hersenen "vloeiend" beeld maken van 25 fps is nog wat anders dat daar geen verbetering meer te behalen valt.
Ik vind het echter prima dat deze studio z'n games op 30 fps schokkerig gat begrenzen voor de beeld kwaliteit - het is tenslotte lang, lang geleden dat een playstation nog enige aanspraak kon maken op beeldkwaliteit in vergelijking met de PC en ik heb geen playstation dus watch me /care :+
Voor de PC gaat dit verhaal van naar 30 fps afzakken alleen misschien ooit op voor console-ports. Maar ja, hoeveel daarvan zijn leuk genoeg om te spelen?
Framerate heeft wel wat te maken met Refreshrate.
Als je een 75 hz beeldscherm hebt kun je maximaal 75 frames per seconde zien; als het spel in 100 fps of 80 fps loopt maakt dan niet uit. En ik merk het verschil wel tussen 50 en 30 fps , ook wel tussen 75 en 50, in CoD4 is 50 niet al te best voor online.
de snelheid van je grafische processor heeft niets te maken met de grootste bottleneck in jouw online game ervaring; je modem.

het regelen van netwerk verkeer door je pc is een klein puntje t.o.v. het uiterekenen van graphics
Het verschil in beeldkwaliteit door een hogere framerate bij een CRT komt door de achterliggende techniek (hogere framerate = minder geflikker), dat is een andere kwestie die geen rol speelt in dit verhaal.

Volgens mij kan een mens het verschil in vloeiendheid (waar het hier dus om draait) van een spel dat op 60Hz en 120Hz (op een LCD, motionblur buiten beschouwing gelaten) niet waarnemen.
Wat ik zelf merk is dat 75Hz op een CRT scherper is dan 85Hz. Ik denk dat TerraGuy dat bedoelt. Het heeft ongetwijfeld te maken met natuurkundige verschijnselen die optreden als je dit soort technieken gebruikt. Elektronen op hoge snelheden schieten op een fosforlaag is een lastig te controleren process.

Ik zou weleens een test willen zien waarbij gestest wordt of (en zo ja hoeveel) mensen het verschil tussen 60Hz en 120Hz kunnen waarnemen. Ik denk dat er wel mensen zijn maar dat de meeste mensen het niet zullen zien. Ik zelf merk het verschil tussen 45 a 50 en 60 fps zelfs wel vrij goed dus het zou wel toevallig zijn als het geen zin heeft om hoger te gaan dan de refresh rate die we hebben afgesproken voor LCDs (en NTSC tv's).
75Hz is niet altijd scherper op een CRT dan b.v. 85Hz, dat verschilt per CRT en graka en resolutie. Op de kwalitief betere CRT ziet een hogere refreshrate als 85Hz (mits ook een goede graka) er juist weer beter uit.

Zelf zie ik duidelijk het verschil tussen 60-75-85Hz, daarboven niet meer. Het veel aangehaalde argument 'meer dan 24fps kun je niet waarnemen' gaat maar deels op; 1) de 'refreshrate' van je ogen is immers niet in-sync met de refresh-rate van het beeld en 2) een lagere refreshrate betekent een grotere 'lag' tussen de besturing en het beeld; als dat een bepaalde kritische grens (uniek per persoon) overschrijdt, dan wordt het als storend waargenomen, denk maar aan een video waarvan de audio out-sync is.
Overigens bedoel ik het verschil in snelheid van de frames... niet het exacte getal van de FPS natuurlijk ... ik ben geen machine... maar zoals ik zei, voor alle mensen ligt de grens waarop je niet meer waarneemt of beelden sneller worden weergegeven ergens anders.
Wat versta jij dan onder de snelheid van de frames?

Want dat is wat FPS aangeeft, het aantal frames per seconde, dus de snelheid ervan.

En ik denk eigenlijk dat jij je ernstig vergist tussen FPS en refreshrate, wat 2 totaal verschillende dingen zijn.
nee hoor, hij snapt het wel. Hij bedoelt alleen te vertellen dat hij niet exacte getallen kan geven, maar het verschil in FPS wel opmerkt.
Lol zo gedetailleerd zie ik het niet (je zou je aanmelden voor z'n show op sbs6 ofso is dit echt wat voor :P). Maargoed ik zie het ook, zeker van 30 naar 60+ is een heel groot verscheel, waaronder dat het veel rustiger overkomt en je beeld ververs (iig in mijn geval) ook 60 keer in een seconde! Maar dit is zoals gezegt heel persoonlijk, net als de ene zich stoort aan CRT TV's of TL lampen die biede ook meer dan 30hz hebben ;)
Ondanks alle discussie over of je nu wel of niet het verschil ziet tussen 30 en 60 fps, uiteindelijk ziet de fabrikant vh spel dit verschil dus niet terug in z'n portomonee. Of sterker nog, hij ziet het wel degelijk terug, maar dan omgekeerd evenredig want voor die extra 30 fps moet er worden bespaard op grafisch detail en dat is schijnbaar de belangrijkste faktor in het succes van een game. Dus vanuit een zakelijk standpunt is het een goede beslissing om de grafische kwaliteit van de game te verhogen, ook al gaat dat ten kosten van de fps.
Maargoed, dat is natuurlijk alleen maar gebaseerd op de uitkomst van dit 'statistisch' onderzoek.. Wellicht zijn er ook andere correlaties te vinden, zoals bv dat deze top-games ook een goed verhaal hebben, of dat ze een LAN multi-player optie hebben, ik noem maar wat...
Of sterker nog, hij ziet het wel degelijk terug, maar dan omgekeerd evenredig want voor die extra 30 fps moet er worden bespaard op grafisch detail en dat is schijnbaar de belangrijkste faktor in het succes van een game. Dus vanuit een zakelijk standpunt is het een goede beslissing om de grafische kwaliteit van de game te verhogen, ook al gaat dat ten kosten van de fps.
Dus omdat de makers van een game te lui zijn om knappe graphics neer te zetten met 60Fps moet de gebruiker er de dupe van worden omdat men toch nog enig vorm van kwaliteit wil hebben en het maar moeten nemen met schokkende beelden.
Lijkt wel een beslissing van EA.
Dus omdat de makers van een game te lui zijn om knappe graphics neer te zetten met 60Fps
Wat een kromheid allemaal. Zelfs als de makers een topplaatje neerzetten bij 60fps, kan dat plaatje altijd nog (ongeveer) twee keer zo gedetailleerd bij 30 fps. Kwestie van technische beperkingen.
Het is zelfs nog krommer ;) Omdat je beeld tweedimensionaal is, heb je 4x zoveel pixels nodig, om 2x zo gedetailleerd te zijn. Het verloopt voor je oppervlak kwadratisch, terwijl de framerate lineair verloopt. Halvering van de framerate geeft dus minder extra details als dat jij denkt.

Wat _JGC_ ^^ opmerkt over het loskoppelen van de event handling snijdt meer hout volgens mij. Het probleem is niet dat een framerate van 30 fps schokkerig of lelijk zou zijn, maar juist dat de bewegingen van de speler minder vloeiend zijn dan bij 60 of zelfs 120 fps. Geoefende spelers (not me) hebben daar echt last van.
Om het nog even krommer te maken, je hebt helemaal niet meer pixels nodig om iets meer gedetailleerd te krijgen. Je hebt meer rekenkracht nodig zodat je je modellen uit meer polygonen kan laten bestaan. Dat heeft niets te maken met pixels of wat dan ook.

Ik kan een kubusje in openGL laten tekenen op 800X600 en 1900X1080 Maar de kubus word er niet gedetaileerder van. Het gaat in dat geval zelfs niet eens om polygonen etc, maar puur om de textures en kleuren die je er op toepast.

Om absurd veel detail weer te kunnen geven heb je weer meer pixels nodig. maar om dat te bereiken moet je wel heel wat gedetaileerdere modellen/textures etc nodig voordat je echt een hogere resolutie moet hebben.

Neem bijvboorbeeld counterstrike. Speel het op 800X600, en speel het op 1900X1080. Krijg je er meer detail van? Nee, het oogt misschien ietsjes beter omdat het iets scherper is, maar gedetaileerder word het er niet van. Start counterstrike source op en speel het op 800X600, en je hebt meer detail dan met counterstrike op 1900X1080 :+

In dit geval klopt je theorie, maar dat is voor scherpte, niet detail.
@ Toff:
nee nu haal je resolutie en detail door elkaar.

detail komt uit textures, (en normalmaps)
en effecten (ambient occlusion, lighting global illumintaion particles)
aantal polygonen. stijl en artist skill.

(waar stijl eigenlijk niet eens een technische maatstaaf is voor detail maar wel zwaar meeweegt)

niet uit de resolutie.

crysis op 1024-768 is mooier dan UT 1 op 1920-1200 niet waar?

[Reactie gewijzigd door freaq op 31 oktober 2009 13:07]

30fps continu met uitschieters naarboven is gewoon vloeiend. Bij shooters zijn er veel spelers die Vsync uitzetten om een hogere framerate te krijgen. Dat is niet omdat ze verschil zien tussen 60fps en 120fps, maar dat is omdat die spellen de event handling bij elke frame doen ipv in een losse thread. Als een spelmaker het voorelkaar krijgt om de event handling los te koppelen van de framerate is er niks aan de hand.

Wat wel invloed kan hebben is snel scrollende tekst, maar of dat op 60fps leesbaar is, ik betwijfel het. Op onze 100Hz plasma TV is de aftiteling bij veel programma's niet te lezen, en dan heb ik het over 50 halfbeelden per seconde die kunstmatig omgerekend worden naar 100 hele beeldjes per seconde.
Sorry? Je weet dat game-makers bedrijven zijn en geen overheidsinstantie?

Ze bestaan omdat ze winst draaien, ze draaien winst door de gaan voor de opties die de meeste winst met de minste moeite (/kosten) combineren.
Wat ze zeggen is dat de meeste mensen meer waarde geven aan hogere kwali graphics dan een FPS boven de 60... Een fps van 30 is geen stotterend beeld, niet zo zeiken..
Heeft niets met lui te maken. Iedere activiteit die uitgevoerd moet worden kost geld. En als de extra investering niet terugverdient wordt, ga je als bedrijf die investering niet doen. Veel moeilijker is het niet.

Een optie zou zijn om personeel te vinden dat graag extra werk verzet, zonder daarvoor betaald te krijgen....
Als de minimum fps dan maar 30 is en het alleen opwaards kan pieken.

Want sub 30 fps wordt voor mij echt tergend irritant.
Dat je het verschil ziet betekent niet dat je het noodzaak is. Anders zouden veel mensen achter de telefvisie ziten te vloeken dat er maar 24 beeldjes per seconden zijn en ze liever 100 beeldjes willen (want dan is de ervaring verschrikkelijk veel beter). Je moet dus een afwezig maken en dat doet dit bedrijf.
Je zegt het zelf al, bij een fps drop. Dus dan komt de framerate onder de ondergrens en is het dus een ander verhaal.
Je merkt dat wel bij snelle bewegingen omdat het het beeld accurater blijft, als je echt snel moet aimen en je ziet ook maar de minste stotter dan zal dat een bepaalde invloed hebben.
Dat je het verschil niet zou zien tussen hoge fps is ook nonsens.
Zo zag ik duidelijk het verschil tussen 60Hz en 75Hz op mijn TFT scherm in games als UT2004.
Beeldscherm refresh rates is volgens mij toch een heel ander verhaal.. En het verschil tussen CRT's en LCD's telt hier voor een heel groot deel mee. Ook het verschil tussen nieuwe en oude LCD's is vrij groot.. Op een CRT krijg ik hoofdpijn van 60Hz op een LCD niet maar ga je rondjes draaien in een FPS dan krijg je een waas op lage refresh rates..

kortom refresh rate <> fps

Voor de eigenwijze gamers wat betreft response tijden van LCD's:
Nee reponse tijden zijn niet belangrijk! niet meer in ieder geval.. tegenwoordig zijn ze zo laag dat we lcd's op 120Hz kunnen laten werken, maar dat doen LCD makers vaak niet, response tijden zijn al sind het begin van de lcd selling point nr2 (na oppervlak) en nr1 voor gamers. Koop een scherm dat een 120Hz refreh rate heeft, meer dan dat gaat geen mens zien.
"Koop een scherm dat een 120Hz refreh rate heeft, meer dan dat gaat geen mens zien."

Totdat mensen daar een hoop geld voor hebben betaald.... Dan zien ze het wel (of denken ze dat ze het zien).
Ik zie het zelf ook erg. Vooral als er 'cinematische' dingen gebeuren zoals het langzaam bewegen van beeld. Dan zie je echt heel snel dat het hakkelig gaat. Ik vind het hele HD-films bekijken en gamen op lekker hoge resolutie echt zo leuk niet als ik die hakkelige beelden zie. En dan heb ik 't niet eens over de framedrops die je af en toe hebt.
Ik vind het hele HD-films bekijken [..] op lekker hoge resolutie echt zo leuk niet als ik die hakkelige beelden zie.
Precies! Nu HD ingeburgerd begint te raken is de volgende stap een hogere fps. Want het hakkelen doet afbreuk aan de beleving. Er zijn al experimenten geweest met film op 30 fps en 48 fps, maar ik denk dat de volgende stap moet zijn 72 fps (compatible met film, 3 * 24) of anders 60 fps (compatible met HDTV). Dat heb ik liever dan Quad HD waar ook al mee geëxperimenteerd wordt.
zie jij ook in films dat het afzonderlijke foto's zijn?

dat is toch ook 24 frames?

ik bedoel er mee te zeggen dat het vaak niet de frames zijn maar de houterige animaties

[Reactie gewijzigd door mm_the_matrix op 30 oktober 2009 15:07]

Echter bij films word er veel geblurred en worden veel andere effectjes gebruikt in snelle scenes om te voorkomen dat je het ziet haperen. Bij games kan dat ook uiteraard, maar kost je wel meer rekenkracht. Dus wat je wint met lagere FPS, ben je weer kwijt aan effectjes om het alsnog soepel over te laten komen

edit: daar komt overigens bij de bij films eigenlijk altijd bekend is hoe de volgende frame(s) er uit zien waar de effectjes op aangepast kunnen worden. Bij games is dat vaak niet het geval.

[Reactie gewijzigd door VNA9216 op 30 oktober 2009 16:20]

Het is niet waar dat het menselijk oog maar tot 26 frames per seconde kan waarnemen.

"Though animated media works on distinct frames sampled at discrete points in time, there is no evidence suggesting that the human visual system works in the same way. Therefore, it is impossible to express the limitations of human perception as a given maximum frame rate."

bron

En dat kan je zelf makkelijk zien bij bijvoorbeeld een first person shooter zoals sommige mensen hier al aanhaalden.

edit: Men is mij hier weeral voor ;)

[Reactie gewijzigd door Beretta1979 op 30 oktober 2009 13:42]

Die quote van wikipedia is net zo onnozel alsdie dat je maar 25fps kan waarnemen.

Het is in weze heel simpel: Vanaf ~24fps worden bewegende beelden door je hersenen als 'vloeiend' geinterpreteerd. Vandaar dat je films prima op 24fps kun bekijken.

Maar dat wil uiteraard niet zeggen dat je niet sneller kunt waarnemen. Dat kan wel degelijk. De maximale framerate die je kunt waarnemen, wordt bepaald door de verversings snelheid van de sensors in je ogen. En dat is gewoon te meten. Afhankelijk van de kleur, zit dat tussen de 45Hz en 60Hz. Intensiteit waarneming zit op zo'n 70Hz in het midden, tot 90Hz aan de zijkant. De waarnemingsgrens zit dus inderdaad op ongeveer 60fps.

Er zijn ook nog veel van die verhalen, als dat je 300 fps zou kunnen zien. Dat is onzin. Wat men daar doet, is een korte licht puls in het donker, vertalen naar framerate. En dat mag niet, want nadat je zo'n korte puls hebt waargenomen, geldt gewoon de verversingssnelheid van je sensors... Iedereen weet dat je de flash van een camera kan zien... Maar die kan rustiger 1/64000 sec zijn. Dat betekent niet dat je 64000 fps kan waarnemen.

[Reactie gewijzigd door AHBdV op 30 oktober 2009 14:57]

Het is in weze heel simpel: Vanaf ~24fps worden bewegende beelden door je hersenen als 'vloeiend' geinterpreteerd. Vandaar dat je films prima op 24fps kun bekijken.
Het verschil tussen games en film is dat een game een oneindig korte sluitertijd heeft. Het is een pefecte momentopname, terwijl in een film de sluiter even open staat en alle beelden in die tijd geaccumuleerd worden. Je krijgt dus motion blur, een proces wat zich doorgaans ook in de ogen plaatsvindt. Op een film van 30Hz zit je dus weliswaar 33.33ms naar hetzelfde beeldje te kijken, maar dat ene beeldje bevat wel veel meer informatie omdat de camera nou eenmaal alle tussenliggende beelde bij elkaar op heeft geteld.

Bij een game dat 30fps aan beeldjes produceert zonder kustmatige toegevoegde motion blur zit je naar snapshots te kijken van 33.33ms lang. Daartussen ligt geen vloeiende beweging. Nou is dit wat overdreven, want gegeven de fysische processen van monitoren en TV's staat een beeldje niet instantaan op het scherm maar heb je een enigszins vloeiend verloop, en dus kun je een rock solid 30fps game met vsync gewoon als vloeiend ervaren. Desalniettemin is kunstmatige motiion blur een heel belangrijk effect voor hedendaagse games om de boel wat vloeiender te laten ogen, en dit is ook de reden waar je weldegelijk het verschil tussen 30fps en 60fps merkt (zelfs als je input lag buiten beschouwing laat)
Boven de 24 a 26 frames per seconde zie je het verschil toch niet meer.
Ik blijf dit horen en dit is de reinste onzin. Dit argument wordt enkel gebruikt, omdat films meestal ook niet meer dan 24-30fps weergeven. Films zijn geen maatstaaf voor games.

Bij strategiespellen is een framerate van 30 opzich prima en meestal niet belemmerend. Dat neemt echter nog steeds niet weg dat je wel degelijk verschil ZIET tussen 30fps en 60fps. Vooral in snelle shooters merk je makkelijk verschil tussen 30 en 60fps. Pas vanaf 60-70fps draait het 'perfect vloeiend' en merk je geen/nauwelijks verschil meer met een hogere framerate. In snelle shooters waarbij snelle reactietijden en snelle/explosieve bewegingen nodig zijn is een framerate van boven de 30 wel degelijk een groot voordeel.

Ik verwacht dan ook niet dat deze trend (voor zover je daar al van kunt spreken) zich ver zal doorzetten. Daarnaast vind ik de interpretatie van de enquête uitslagen door Acton te belachelijk om serieus te nemen.

[Reactie gewijzigd door Yokozuna op 30 oktober 2009 13:39]

Ik zal het nog sterker vertellen; in de online-modus van Unreal Tournament 2004 (heel snelle shooter) is de maximum toegestane FPS ongeveer 85 / 90.

Via een trucje valt dat te omzeilen waardoor je met een FPS van rond de 200 kan gaan spelen. En dat verschil zie en voel ik ook als ik speel. Wetenschappelijke verklaring heb ik er niet voor, maar ik merk het wel en dat is nu eenmaal zo.

Verder in het algemeen: voor films wordt 'motion blur' gebruikt waardoor je met 24 of 30 frames per seconde het gewoon vloeiend ziet afspelen. In games gebeurt dat niet.

[Reactie gewijzigd door FreddyFish op 30 oktober 2009 13:50]

Natuurlijk... En wat doet jouw monitor? Je LCD schermpje van 60 Hz a 75 Hz?
Maakt niet uit, je krijgt alsnog een frame van een later moment met meer fps stel om het makkelijk te houden even het volgende voor:

Je haalt 60 fps, en je hebt een 60Hz scherm dan heb je elke milliseconde 1 frame, dus aan het einde van de sec bij de laatste refresh van je scherm heb je op 1000ms het frame van 983.3ms te pakken (en dan reken ik de rest van de vertragingen binnen de kaart zelf niet mee ;))... Echter heb je nu 120 fps met 60 hz heb je op de laatste refresh van je scherm dus het frame van 991.6ms. 180 fps zie je nog eerder wat het gebeurd op het frame van 994.4ms! Om dan ook meteen maar 30 te bereken om te vergelijken met de 60fps waar het hier om draait, daar zie je het frame van 966.6ms!

Dus vertraging van het tonen van nieuwe beelden bij 60Hz is als volgt:
  • 30 FPS 32.4ms vertraging
  • 60 FPS 16.7ms vertraging
  • 120 FPS 8.4ms vertraging
  • 180 FPS 5.6ms vertraging
PS als ik hier nu een compleet onzin verhaal zet moet je het zeggen, gewoon mijn voorstelling hoe het werkt ;)
Dat is idd echt een onzinverhaal ja ;)
Je haalt 60 fps, en je hebt een 60Hz scherm dan heb je elke milliseconde 1 frame
Hoe kom je daar in hemelsnaam bij :? Vanwaar die 1 milliseconde? 60 Hz voor een monitor betekent 60 refreshes van het beeld per seconde. Een zichtbaar frame duurt dus 1/60s = 16.67ms. De data van de frame zal niet instantaan van je videokaart naar de monitor verstuurd worden, dus ergens in die periode van 16.67ms zit een periode waarin het frame verstuurd wordt. Wat er gebeurt als je videokaart meer dan 60 beeldjes per seconde rendert is dat hij halverwege het versturen van het ene beeldje de interne buffer alweer overschrijft met de volgende. Aangezien de pixels doorgaans van links naar rechts, van boven naar beneden verstuurd worden, heeft dit als gevolg dat de onderste helft niet meer bij de bovenste helft hoort. Dit heet tearing.

De framerate (die verder geheel los staat van de refresh rate) is wel van invloed op vertragingen in de gameplay. Als een game 30 frames per seconde eruit jast, dan duurt elke frame dus 33.33ms. Terwijl jij naar een beeld zit te kijken, is de game ondertussen de volgende frame al weer aan het renderen, dus daar zit sowieso al een vertraging van 33.333ms tussen in wat je ziet tov wat er daadwerkelijk gebeurt. Daarnaast is het zo dat de input ook eens per frame verwerkt wordt. Oftewel, als jij op een knopje drukt, duurt het gemiddeld een halve frame voordat die input verwerkt wordt, en daarna duurt het weer een heel frame voordat je het effect daarvan op het beeld ziet. Het nadeel van een lage framerate is dus vooral dat er een merkbare lag kan optreden, wat heel irritant speelt. Overigens is dit effect bij 30fps en doubleduffering nog nagenoeg niet merkbaar.

Echter, als je de tearing uit het begin van m'n verhaal wilt voorkomen, dan moet je "vsyncen". Dit betekent dat de videokaart pas een nieuw beeldje actief maakt nadat de vorige volledig verzonden is. Hierdoor krijg je dat frametijd altijd een veelvoud van de tijd van een enkel frame van de monitor inneemt. Oftewel, als je monitor 60Hz output, dan kun je 60fps, 30fps, 20fps, 15fps etc. draaien. Het probleem hiermee is dat je vaak nog een extra frame achter gaat lopen (je hebt immers een beeld dat momenteel getoond wordt, een beeld dat al klaar staat in de queue, en een beeld waar de game momenteel mee bezig is). En zeker in de situaties waarin een veelvoud van de frametijd net niet gehaald wordt krijg je een stotterende framerate en een merkbare input lag, die heel storend is tijdens het gamen. Wat dat betreft speel ik liever een game die rock solid 30 draait, dan eentje die vaak 60 draait maar dat soms net niet haalt (waardoor hij terugvalt naar 30).

Een ander bijkomend effect is dat alle physics en bewegingen in de game afhankelijk zijn van de frametijd, terwijl dit eigenlijk niet juist is. Natuurlijk, als iets met 60 pixels per seconde over het scherm gaat, en je game loopt 60 fps, dan moet ieder object 1 pixel per frame worden opgeschoven, en als je game 30fps loopt moet dat 2 pixels per frame zijn. Het punt is, je weet als game niet hoe lang de huidige frame gaat duren. Je weet alleen hoe lang de vorige geduurd heeft. Als je steeds 60fps loopt ga je uit van een frametijd van 16.67ms, en beweeg je de objecten ook met die snelheid vooruit. Als er dan in eens een frame komt van 30fps (33.33ms), dan zal in dat frame het object nog steeds met 16.66ms vooruit zijn bewogen, terwijl het daadwerkelijke plaatje van dat frame veel te laat getoond wordt (en het object dus eigenlijk verder had moeten zijn op het moment dat jij het beeld ziet). En na die frame, als de framerate weer terugspringt naar 60, is het weer precies andersom - de objecten bewegen dan juist veel te weinig. Dit zorgt voor jerky movement, wat heel storend is in games die geen constante framerate halen.

[Reactie gewijzigd door .oisyn op 30 oktober 2009 16:22]

Ooit van V-Sync en triple buffering gehoord? Geen Tearing met meer als 60fs! Moet je natuurlijk wel de juiste vorm van triple buffering gebruiken, anders voeg je alleen maar weer latency toe.

(page-flip triple buffering dus, géén render-ahead triple buffering)

Videokaart bouwt het nieuwe frame wisselend op in buffers A en B, terwijl de monitor bezig is met buffer C uit te lezen en op het scherm tevoorschijn te teoveren. Op het moment de monitor klaar is met buffer C uit te lezen (V-sync) wordt de laatst voltooide buffer (A of B) naar buffer C gekopieerd, tijdens het kopieëren wordt de buffer die uitgelezen wordt niet gevuld met een nieuw frame. Op deze manier wordt tearing voorkomen, maar heb je wel het voordeel van een hogere framerate dan dat je monitor kan weergeven.
Tevens heeft triple buffering ook een voordeel bij lagere framerates als de refreshrate van de monitor, in gevallen waar V-Sync aan staat.

Practisch alle console spellen werken met V-Sync om tearing te voorkomen. Daarnaast onderteunde Nintendo al triple buffering bij de Gamecube (wat deze een klein fps voordeel gaf bij multi-platform spellen), deze generatie hebben alle drie de consoles ondersteuning voor triple buffering.

[Reactie gewijzigd door knirfie244 op 30 oktober 2009 15:58]

Niet om het een of ander, maar triple buffering is al zo oud als de weg naar rome. Ik kon het op m'n oude Voodoo2 ook al aanzetten ;)
Ja ik heb er wellis van gehoord (gebruik het met CoD4), tja theoretisch zal je vast gelijk hebben maar alle 3 de consoles voelen traag aan naast me pc, om overschokkerig beeld niet nog maar niet te praten.
Zoals ik al zei, een wetenschappelijke verklaring heb ik er niet voor maar ik neem het wel degelijk waar en daar ben ik niet de enige in. Namelijk toen ik anderen vertelde hoe ze die FPS hoger moesten krijgen, zagen ze het spel ook vloeiender.

Ik kan tijdens het spelen schakelen tussen 90 FPS en 150 FPS en reken maar dat ik het iedere keer duidelijk zie veranderen.
Geen idee of het in dit geval ook zo is, maar helaas zijn veel game developers zo dat ze het renderen en de game logic in de zelfde loop hebben zitten (of iig delen) waardoor je het niet noodzakelijk hoeft te ZIEN als sneller lopend, maar wel kan voelen omdat het spel sneller reageert, puur omdat hij zn lusje sneller doorloopt en dus je input sneller verwerkt en dan ook sneller het resultaat van je input op het scherm laat zien. Het zijn echter hele kleine verschillen, maar bij een verkeerd opgebouwde game kan je het duidelijk voelen.

Tevens zijn er games die bijv 1X in de 3 frames de input doorlopen (soms word dit ook dynamisch bijgesteld onder het spelen). Dit om rekentijd te besparen (daarom zie je het af en toe bij console games en slechte ports van console naar PC) Het logische gevolg is dus dat op 100 FPS je spel zeker sneller aan zal voelen dan op 30-60. Daarom hebben sommige games (ik geloof oa zelfs doom 3 en UT/HL) in mulitplayer FPS limieten. Om de kansen gelijk te houden voor alle gamers.

En mensen zich maar afvragen waarom hun controlls in een spel lag hadden. (tot de eerste patches) Je moet wat om de beste graphics uit een console te persen... O-)

edit: of het goed of slecht uitpakt, hangt meer van de opbouw van de engine af dan het aantal FPS. Als ze de haperingen tussen de frames (die op 30 FPS zeker wel zichtbaar zijn voor het oog) goed kunnen maskeren met blurren/licht effectjes etc en de controls niet afhankelijk maken van het aantal FPS, kan het best goed gaan.

[Reactie gewijzigd door VNA9216 op 30 oktober 2009 16:36]

Tevens zijn er games die bijv 1X in de 3 frames de input doorlopen (soms word dit ook dynamisch bijgesteld onder het spelen).
Sorry, maar kom maar eerst met keiharde bewijzen, want ik geloof er geen drol van. Inputafhandeling kost helemaal niet veel rekentijd. Physics nav die input natuurlijk wel, maar rendering zelf kost ook veel tijd. Daarnaast is voor goede stabiele physics berekeningen (die werken met numerieke integreringen en dus een benadering zijn van de werkelijkheid) belangrijk om een vaste timestep te hebben, om ervoor te zorgen dat de boel niet de mist in loopt. Echter wordt deze timestep wel zo gekozen dat hij altijd vloeiend zal lopen. Leuk dat je met 180fps per 3 frames maar 1x een physics update krijgt, maar feitelijk boeit dat helemaal geen drol. En dergelijke verhoudingen zie je niet met games die op 30fps draaien. Bovendien betekent het niet dat camera-movement niet direct verwerkt kan worden, aangezien die helemaal niet gekoppeld zit aan het physics systeem (en dit is het meest merkbare symptoom bij input lag)
Je zegt wel dat dat geen invloed heeft. Maar als een game op 30 FPS draait, en 1X in de 3 frames je input word opgenomen zit je al op 0,1 sec vertraging. True, met je toetsen/knopjes merk je dat niet zo. Maar wanneer je met je muis in een game als call of duty aan het richten bent en je zou 0,1 sec vertraging krijgen. Dan is het al snel niet leuk meer. Het zelfde is het met je analoge stick op een console. Ik kan me bijvoorbeeld (ik zeg niet dat het door deze specifieke reden was) nog herrinneren dat killzone 2 een hele hoop commentaar kreeg op de input omdat daar soms wel 0,1-0,5 sec vertraging in zat met richten. Dat hebben ze toen ook al vlug met een patch verbeterd omdat ze er zo veel klachten over kregen.

Net als met het tekenen van weinig FPS, is het net hoe je er als developer mee om gaat.

Het scheelt overigens in sommige gevallen toch wel een paar tiende procent in prestaties om af en toe de controls te bypassen. Immers kunnen (uiteraard) gegevens als de input state het zelfde blijven (surprise!) maar ook veel achterliggende gegevens hoeven niet opnieuw berekend te worden. zoals bijvoorbeeld de bewegingsrichting, speler geluiden etc, . Het is niet enorm veel. Maar als het net het verschil is tussen een extra effectje , of een paar extra polygonen op het scherm kunnen zetten op plaatsen waar je het wel graag zou willen, dan kan het zeker de moeite lonen. Console games worden zo enorm geoptimaliseerd vandaag de dag omdat (vrijwel) iedere developer het mooiste/beste spel wil afleveren, dat ook op dit gebied indien mogelijk bespaard word. Over het algemeen worden de keuzes gelukkig goed gemaakt.

Programmeren op vaste hardware is optimaliseren optimaliseren optimaliseren. Het enige doel is om meer en meer uit dezelfde hardware te trekken, omdat je niet gewoon de systeem eisen omhoog kan gooien :+
Maar als een game op 30 FPS draait, en 1X in de 3 frames je input word opgenomen zit je al op 0,1 sec vertraging. True, met je toetsen/knopjes merk je dat niet zo.
Je begrijpt mijn reactie niet. Ik zeg dat dat soort systemen vaak werken met een vaste timestep. En dus niet een divider van 1:3, maar gewoon een redelijk stabiele step van ergens tussen de 30 en de 60fps. En ja, als een game dan 180 draait, dan heb je effectief een 1:3 divider. Maar niet als je 30fps draait, dan zijn er gewoon 1 of 2 timesteps per frame.
Het scheelt overigens in sommige gevallen toch wel een paar tiende procent in prestaties om af en toe de controls te bypassen. Immers kunnen (uiteraard) gegevens als de input state het zelfde blijven (surprise!) maar ook veel achterliggende gegevens hoeven niet opnieuw berekend te worden.
Sorry, maar als je enigszins ervaring hebt met gamedevelopment (waarschijnlijk niet, gezien het soort talen dat je hebt aangekruisd in je profiel) weet je dat dit onzin is. Die dingen worden namelijk continu berekend, elke frame, onafhankelijk van of je beweegt of niet. Niet bewegen is dus geen optimalisatie, omdat er geen winst is. Leuk bedacht though, maar helaas geen realiteit :). Daarnaast betekent geen input afhandelen niet eens niet bewegen, want dan heb je niets aan die extra frames, omdat je dan 3x hetzelfde rendert (je beweegt immers niet). Áls je dat doet, zul je op z'n minst interpoleren tussen game states. Zowel beeld als geluid.

[Reactie gewijzigd door .oisyn op 30 oktober 2009 22:08]

Ik zeg niet dat er geen beweging is. Ik zeg dat de bewegingen niet veranderen. dus bijvoorbeeld om het in 2d even uit te leggen. mn auto beweeg bijv naar het noordoosten (laten we het even 45 graden noemen. Dan moet berekend worden hoeveel pixels op de X en de Y as er bewogen moet gaan worden. dmv snelheid en hoek. Als je continu input verwerkt, moet je dat iedere frame doen, en daarna opnieuw renderen. Terwijl je als je geen input verwerkt voor 2-3 cycles, je dan niet opnieuw de beweging van je auto hoeft te berekenen, je weet immers hoeveel pixels naar rechts en omhoog hij moet gaan. Dus door aan te nemen dat die gegevens 2-3 frames het zelfde blijven, hoef je dat niet iedere keer opnieuw te berekenen. Dit is uiteraard een beetje een veel te simpele weergave. Maar lang niet altijd is het snel verwerken van input zo belangrijk als het stabiel houden van de framerate.

Overigens, tnx voor de tip, eerdaags misschien mn tweakers profieltje een beetje updaten of clearen. Wat er nu staat is inderdaad van rond 2004 toen ik me inschreef op tweakers, daarna is het volgens mij nooit meer aangepast. O-)

Overigens, pascal/delphi (wat momenteel als enige bruikbare voor dit doel nu aangekruist is) icm opengl best zeer geschikt is voor het maken van (simpele) games hoor. :+ En in combinatie met fpc en logische opbouw kan je ook nog makkelijk ports maken voor bijv linux O-)
Maar lang niet altijd is het snel verwerken van input zo belangrijk als het stabiel houden van de framerate.
En ik zeg dat je je enorm vergist in de inpact die input afhandeling heeft, want die is nagenoeg nihiel.
Zoals ik al zei, een wetenschappelijke verklaring heb ik er niet voor
Het is heel simpel, en staat in feite al uitgelegd in de tweede alinea van deze post: .oisyn in 'nieuws: Insomniac overweegt geen games met 60fps meer uit te brengen'
Een snellere framerate betekent snellere input afhandelingen, en een snellere respons op die input. Input lag wordt op die manier minimaal, en daardoor zijn je hersenen veel beter in staat veel preciezere bewegingen uit te voeren omdat ze betere feedback hebben. Zeker als je vsync uit hebt staan helpt dat ontzettend, omdat je dan al wel het resultaat kan zien van beeldjes die sneller geproduceerd worden dan je monitor kan laten zien, ookal wordt dat bij scrollende en pannende beelden van vaste snelheid heel lelijk (waar je toch al niet om geeft in een first person shooter, ik bedoel, het is geen in-game cinematig of scrollende credits waar je dan naar zit te kijken)
Ah oké bedankt voor de uitvoerige uitleg. Blijft dan toch vreemd dat sommige mensen roepen dat 30 FPS zat is. Moeten ze 't zelf maar gewoon een keer proberen dus.
Je moet ze eens een spel laten spelen waar veel snel geroteerd wordt. Bij een lagere framerate is het mogelijk dat als je maar snel genoeg draait en de framerate dusdanig laag is dat je een deel van je visie kwijtraakt.

Dit is zeker merkbaar als je gewend bent op hogere framerates te spelen.

Een beter praktisch voorbeeld zou zijn om StepMania te spelen met C1000 (een soort snelheidsvariabele waarmee de pijltjes naar beneden scrollen). Bij een monitor met een lagere framerate zouden die pijltjes verspringen en een hoger framerate dus minder verspringen omdat deze vaker gerendered wordt. Hier kun je wel een duidelijk verschil waarnemen tussen een 60 of 100 beeldverversingen per seconde.

Eenzelfde gebeurt ook bij first person shooters. Afhankelijk van hoeveel informatie binnenkomt en verwerkt kan worden is per persoon VERSCHILLEND en is ook afhankelijk van gewenning.

Voor sommige mensen is bijvoorbeeld het verschil C700 en C1000 niet meer merkbaar omdat die pijltjes al toch o zo snel naar beneden gaan, maar dit is niet voor iedereen het geval.
Heb jij ooit al eens met V-sync aan proberen te spelen? Ik ben zeker dat je het nog nooit zo vloeiend zal hebben gezien omdat je videokaart nu gelijk loopt met je beeldscherm.
Dit klopt niet helemaal. Met V-sync wacht het spel zegmaar op het refreshen van je monitor. Dit voorkomt het zogenaamd "screen tearen" dus zegmaar dat je 2 verschillende beeldjes op je scherm krijgt met bijv in het midden een streep van de overgang tussen de 2.

http://www.nhancer.com/help/images/VSync.jpg illustreert dat wel redelijk. Je ziet het onder het gamen amper door de enorme snelheid waar het mee gebeurt. Maar het gebeurt wel degelijk zonder v-sync.

In feite remt V-sync het renderen van je spel dus af.
Dat maakt jou verhaal over reactietijden ook onzinnig aangezien je tegenstander(s) ook op dezelfde fps spelen. We hebben het hier tenslotte over consoles.
Dat je vloeiender speelt geloof ik wel ook al is dit marginaal.

Ik zal er iniedergeval niet van wakker liggen zolang het spel maar geen framedrops krijgt.

[Reactie gewijzigd door JayZer op 30 oktober 2009 13:54]

Dat 24-26 fps/Hz verhaal is een hardnekkig mythe.

±25 fps is voldoende voor onze hersenen om de opeenvolgende beelden als redelijk vloeiend, ononderbroken bewegend beeld te interpreteren. Dat wil zeer zeker NIET zeggen dat onze ogen/hersenen geen verschil kunnen waarnemen tussen 30 fps en 60 fps en hoger. Er is wel degelijk een duidelijk waarneembaar verschil tussen 30 fps en minder en 60 fps en meer: het ziet er vloeiender uit. Sommige mensen zijn hier ook gevoeliger voor dan anderen.

[Reactie gewijzigd door Herko_ter_Horst op 30 oktober 2009 13:41]

Sommige mensen zijn hier ook gevoeliger voor dan anderen.
Sommigen zijn zelfs zó gevoelig hiervoor dat ze het licht van spaar- en TL-lampen als flikkerend (stroboscopisch) waarnemen. Dit soort lampen geven geen continu maar zeer snel flikkerend licht, alleen mensen met een 'normale' visuele verwerking nemen dat niet waar (wel als een TL op z'n eind begint te lopen en langzamer gaat flikkeren). Dit betekent ook dat deze mensen dus niet in openbare gebouwen e.d. kunnen verblijven; ze worden gek van de TL-flikkeringen.

Toch vind ik een actiefilm op 25-30fps veel vloeiender eruit zien dan GTA IV op diezelfde framerate; het verschil zit 'm dus ook nog in andere dingen.
Andere dingen zoals motion blur: als je een film stilzet, zie je geen perfect stilstaande foto (met een zeer korte sluitertijd) maar een "bewogen" foto (met een sluitertijd van 1/25 sec). Een game rendert in principe elk frame een perfect stilstaand beeld, waardoor het flikkerende effect versterkt wordt.
Complete bull.

Ga het zelf maar eens testen, 30 fps vs 60 fps. Je zult merken dat 60 toch net iets soepeler draait. Onspeelbaar is 30 absoluut niet, zolang het maar stabiel is, maar 60 fps ziet er echt wel vloeiender uit.


Ontopic:
Die 30 fps zullen we waarschijnlijk niet gaan missen, hoop alleen dat ze wel genoeg aandacht blijven geven aan de gameplay, ipv teveel aandacht aan de graphics.
Dat hangt van de game af, bij een snelle shooter of racegame zie je het verschil tussen 30 en 60 fps wel. Bij een story game of iets dergelijks maakt het inderdaad vrij weinig uit.
Een groot misverstand is dat vanaf zo'n 25 beelden per seconde elk beeld als vloeiend wordt ervaren, dit is niet zo. Het aantal beelden dat het menselijk oog per seconde kan zien is afhankelijk van een aantal dingen. Een menselijk oog kan zelfs een hele korte lichtflits in een donkere ruimte waarnemen, echter wanneer in een verlichte ruimte het licht voor heel even wordt uitgedaan is dit bijna niet merkbaar. Ook speelt motion blur een rol: wanneer afbeeldingen die een beetje vervaagd zijn achter elkaar worden gezet, lijkt dit eerder een vloeiende beweging dan wanneer niet vervaagde afbeeldingen achter elkaar worden gezet.

Voor first person shooter-spellen geldt als norm dat 60 beeldjes per seconde een vloeiend beeld oplevert.
Schaamteloze copy van wiki omdat het ondertussen geweten zou mogen zijn.

Edit: Mooi stukje gevonden maar natuurlijk wel in Engels. http://amo.net/NT/02-21-01FPS.html

[Reactie gewijzigd door Rizon op 30 oktober 2009 14:00]

Ik heb het artikel gelezen! Must-read om deze discussie hier te eindigen met een correct besluit ;p
Inderdaad :)

Prettig stukje leesvoer en zeer verhelderend ;)
Je ogen lopen niet synchroon met de game.

Je hersenen 'verversen' het beeld gedurende andere tijden dan de game.
Daardoor komt het nog steeds (Semi)schokkerig over als je een game op 25-30 FPS speelt.

Gooi 25 ballen per seconde en laat iemand 25 ballen per seconde vangen.
Als dat niet synchroon loopt dan vang je misschien 12 van de 25 ballen.
Maar als je 60 ballen per seconde gooit dan heb je een veel grotere kans dat je 25 ballen daadwerkelijk laat vangen.
Je ziet ook veel meer als 30FPS een mens ziet meer dan 100fps, echter kan je iets van 30fps wel al als vloeiend zien...
los van alle reacties over wat je wel en niet kan waarnemen met je ogen is er nog een belangrijk gevolg: input lag.

Voor zover ik weet is bij de meeste zo niet alle games de input gekoppeld aan de framerate(los van de muiscursor bij een hoop rts games), dit geldt al helemaal voor online games (tickrate, serverfps anyone?).

Bij 30 of minder fps krijg je dus meer last van input lag wat bij schiet en race games al snel funest is voor de gameplay.

ter verduidelijking: een verschil van 5 ms is bij schietgames merkbaar. Bij 30 fps kan afhankelijk wanneer je de knop indrukt het 1000/30= 33ms duren voordat het schot wordt verwerkt.

[Reactie gewijzigd door frankrox op 30 oktober 2009 14:02]

bullshit-alert !

Dat meer-dan-25fps-zien-je-ogen-toch-niet fabeltje is KLINKKLARE ONZIN

Vanaf +/- 25fps zien je hersenen beweging ipv stilstaande beelden. Uit onderzoek van luchtmacht piloten is gebleken dat ze wijzigingen in de 100-300fps range konden waarnemen.
"Boven de 24 a 26 frames per seconde zie je het verschil toch niet meer."

Jij misschien niet, ik en velen anderen wel.
Verschilt per persoon.
Als je een uur lang naar 30 fps kijkt zal het op een gegeven moment niet meer "opvallen".
Maar het verschil is wel degelijk merkbaar als je de 2 naast elkaar zet en gaat vergelijken.

60 fps is veel soepeler en rustiger om naar te kijken.
Daar krijg "ik" in ieder geval een stuk minder koppijn van dan constant 20-30fps.

[Reactie gewijzigd door bbr op 30 oktober 2009 15:55]

Ik weet dat je oog eigenlijk niet meer zou kunnen waarnemen dan 24 a 26 fps.

Maar een spel voelt toch heel anders aan als de fps >60 in tegenstelling tot 30.

Mogelijk heeft het te maken dat het aantal fps niet sync loopt met de refreshrate van je scherm.
Ik weet dat je oog eigenlijk niet meer zou kunnen waarnemen dan 24 a 26 fps.

Maar een spel voelt toch heel anders aan als de fps >60 in tegenstelling tot 30.

Mogelijk heeft het te maken dat het aantal fps niet sync loopt met de refreshrate van je scherm.
Zoals inmiddels al tig keer gezegd: dat "weet" jij dan verkeerd. Het is namelijk onzin.

Verklaringen in overvloed in dit topic.
Het aantal frames per seconde dat je kunt zien hangt van twee dingen af:
- Hoeveel bepaald iemand kan zien(natuurlijke gevoeligheid)
- Waar je aan gewend bent

Ik ben gewend aan hoge frame-rates, dit heeft tot gevolg dat het voor mij pas echt soepel gaat vanaf 45-50fps.

24fps was voldoende op oude crt-tv's die ingebouwde traagheid/naijleffect hadden waardoor snelle bewegingen uitgesmeerd werden. 24fps is achterhaald op moderne schermen. Maar helaas zullen we het er voorlopig mee moeten doen voor veel toepassingen :(
Complete onzin. Het verschil tussen een stabiele 30fps en een stabiele 60fps is zeker merkbaar. Zelfs verschil tussen 40fps en 60fps is prima merkbaar.

Het ligt alleen aan het spel en je speelstyle.

Als je bijv. Call of Duty speelt en je gaat rondrennen met een uzi, dan wil je echt wel 40fps of hoger hebben. Met 30fps zie je duidelijk gigantische ruimtes zitten tussen de objecen tussen 2 frames wanneer je snel ronddraait.

Je probeert zo'n object (vijand bijv.) dan te volgen met je ogen, en dat gaat niet echt lekker als er een verschil is van 50+ pixels per frame.

Wanneer je onverwacht iemand tegen komt tijdens je ninja-acties heb je minder dan een seconde om te reageren en diegene neer te knallen. In die tijd heb je de vele frames per seconde hard nodig.

Ook sniperen heeft een vloeiende framerate nodig. Bij lage framerates heb je anders een poppetje van 40 pixels breed die iedere frame 40 pixels verplaatst. Probeer daar maar eens op te schieten.

Ik irriteerde me mateloos aan de lage framerates/resoluties in sommige games op de PS3, dus toch maar weer over gegaan op mijn vertrouwde PC. Ik wil gewoon een volle 1080p hebben met 40-60fps. Lagere grafische instellingen geen bezwaar.

[Reactie gewijzigd door Gamebuster op 30 oktober 2009 20:08]

In Shooters als Call of Duty zie ik echt wel het verschil tussen 30 en 60 fps... Zelfs tussen 60 fps en 125fps kan ik het verschil nog echt wel duidelijk zien... Dus dat is een beetje onzin als je het mij vraagt...
Let wel op, hier komt het bekende verhaal weer uit de oude doos, voor de mensen die zich hebben ingelezen op filmformaten maar niet snappen dat er dingen real-time ge-renderd worden.

Iets wat van de voren is opgenomen, pre-rendered, kan volstaan met 24 FPS. Dit komt omdat men dan altijd wat motionblur gebruikt waardoor dat eigenlijk weinig problemen vormt. Alles is van te voren vast gelegd / gefilmd.
Resultaat: een schijnbaar vloeiend beeld, maar wel met motion(bewegings)blur.

(Je ogen kunnen echter zeker wel informatie verwerken tot ongeveer 50/60 FPS.)

Games, daarintegen, worden realtime ge-rendered, dat betekend dus dat als jij in plaats van een langzame nu een hele snelle beweging maakt, die 24 frames, zonder blur, van de hak op de tak springen. Want je ogen zien meer dan dat er gerenderd kan worden. Er is niks van te voren op film geschoten, er moet in eens van alles berekend worden, en de informatie is er gewoon niet.

Resultaat: schokkerig, niet vloeiend beeld.
Games die op 60FPS of hoger lopen, zien er altijd vloeiend uit. Omdat je ogen dan het maximaal aantal beelden per seconden te verwerken krijgt.

Je zou bijvoorbeeld wel een filmpje kunnen schieten van een 60FPS game, en dat op 24FPS afspelen. Dan "lijkt" het ook vloeiend, omdat in die 24FPS gewoon motionblur is opgenomen.
Zelf zie ik het verschil wel tussen een 25/26 fps of 40 fps beeld. Hierboven wordt ook geroepen dat je bij een fps drop geen marge meer hebt, dat is ook waar.

Als je ineens een ruimte inschiet, waar eea explodeerd, keldert het aantal fps vaak flink. Als je van 60 naar 30 gaat, is het prima te overzien, als je van 30 naar 10 zakt krijg je (ik in ieder geval) er een flinke wegtrekker van.

Wat je zegt over reactietijd etc, vindt ik ook onzin hoor; er zijn veel meer beperkende factoren dan het verschil tussen 40 en 90 fps, daar was mijn opmerking dus ook niet voor bedoeld;)

[Reactie gewijzigd door Pixeltje op 30 oktober 2009 22:15]

Ik wil even toevoegen dat ik dat een vervelende taaie constant terugkerende opmerking vind:
Boven de 24 a 26 frames per seconde zie je het verschil toch niet meer.
Dat is onjuist. Het hangt van vanalles af: motion blur, contrast, snelheid, afstand tot de camera en afstand tot het vorige frame..

Langzaam opkomende mist is voor je oog al vloeiend bij 8 frames per seconde.
Van een scherp gefilmde voetballer die een bal wegschiet zie je echt wel het verschil tussen 30 en 40 fps. Dat is ook de reden dat de televisie 50/60 fps weergeeft.

Poppetjes neermaaien in Doom3 voelt veel lekkerder bij 60fps dan bij 30fps. Ik vond het mooi toen ik een nieuwe videokaart had. Zelfde verhaal 10 jaar geleden: Die minigun van Unreal Tournament classic draaide opeens zichtbaar vloeiender terwijl ik daarvoor echt 25-30 fps had.
Boven de 24 a 26 frames per seconde zie je het verschil toch niet meer.
Ik neem aan dat je dit baseert op het feit dat tv's met die framerate werken. Maar het is totale onzin dat je ogen het verschil niet zien tussen 25 en 50-60 fps. Alleen omdat tv's met de zwaar verouderde 25 fps werken betekent niet dat dat optimaal is. Het is zelfs het eerste wat ze mogen aanpakken bij een volgende beeldverbetering naar mijn mening, laat ze in plaats van weer de resolutie eindelijk eens de framerate verhogen naar bijvoorbeeld het viervoudige.

Heb je wel eens een horizontale pan in de bioscoop gezien? Een grote waas, je ziet nauwlijks iets. Pas als beelden op een scherm net zo realistisch bewegen als echte objecten, dan is de framerate hoog genoeg. En dat ligt nog wel een stukje hoger dan 60 fps. Ik meen me uit vroegere biologielessen te herinneren dat netvliescellen een "refreshrate" hebben van ongeveer 100Hz. Maar die lopen niet allemaal synchroon natuurlijk, dus de echte limiet zal wel nog hoger liggen.

[Reactie gewijzigd door Bonez0r op 31 oktober 2009 02:40]

tot 45fps zie je het duidelijk... zeker als er actie is
dat is geen veelvoud van 30, welke de ntsc standaard framerate is, dit is weleenswaar verouderd, maar het is gewoon erg makkelijk om met veelvouden te werken, als je TV of scherm 60fps aankan worden die 30fps gewoon verdubbeld, bij 120fps verviervoudigd, enz. Als de TV maar 30fps aankan kan de 60 gehalveerd worden, allemaal heel makkelijk. Als je andere fps wil doen wordt het omzetten veel ingewikkelder.

Tegenwoordig hoeft het niet meer zo'n probleem te zijn, een beetje tv kan 24fps, 25fps en 30fps, en een aantal veelvouden van deze wel aan, maar wellicht niet allemaal, en misschien zijn niet alle fps zo wijd verbreid overal op de wereld (misschien dat ze in Noord Amerika wel erg leunen op 30 en 60fps)
Welke veelvouden?

(Goede) LCD/Plasma TV's accepteren 24, 25, 30, 50 of 60 Hz. De >100Hz modellen doen dan wel op 100Hz weergeven, maar het maximale wat over de HDMI kabel binnen kan komen is maximaal 60Hz.
Helaas heeft de refresh rate van de DAC (ik noem de digitale variant daarvan ook maar even een DAC ookal is dat het strikt gezien niet ;)), en dus de aansturing van de TV/monitor, vrij weinig te maken het hoeveel frames je game produceert. Je console kiest een vaste setting (meestal 60Hz), en vervolgens gaat de DAC gewoon op die snelheid steeds de contents van de framebuffer aan de monitor voeren. De framerate van je game is vervolgens hoe snel die framebuffer ververst wordt, maar het is niet zo dat als je game ineens 24fps loopt dat je TV dan ook op 24Hz overschakelt. Die 24 frames per seconde zullen nog steeds gemapped worden op 60Hz aan output.
Het is maar de vraag wat een Europese TV doet met 30/60 fps vanuit een Xbox 360 of PS3. Het zo me niet verbazen als het allemaal geconverteerd wordt naar 50 fps. Namelijk de Amerikaanse en Japanse TV's werken op 60 fps, alle andere TV's in de wereld werken op 50 fps. In ieder geval in de analoge tijd.
Volgens mij haal je nu framerates (25 en 30fps) en electriciteitsfrequenties (50 en 60Hz) door elkaar.
Wat is er mis met 40/45fps?
Euhm, wat dacht je van het simpele feit dat dat niet gesynchroniseerd is met je refresh rate, en je dus tearing krijgt om de frame? Doe mij maar strak 30 met vsync.

[Reactie gewijzigd door .oisyn op 30 oktober 2009 13:28]

Omdat je TV nou eenmaal een input van 60Hz wilt hebben, het makkelijkste (als een spel er vloeiend uit moet zien) is om dat dus 30 of 60fps te gebruiken. Bij 45 fps krijg je een onevenredige tijds-verdeling van de frames. Wat voor sommige mensen niet merkbaar is en voor andere wel.

Tevens ligt het naar mijn mening aan het type spel of 60fps wel of niet een vereiste is, voor een snelle (online) shooter zeker wel, voor een platform, actie of strategie spel is het een stuk minder van belang.

[Reactie gewijzigd door knirfie244 op 30 oktober 2009 15:26]

Beetj vreemd om alle spelle nover dezelfde kam te scheren, het lijkt mij vee llogischer om per spel te bepalen wat de minimale beoogde framerate moet zijn.
Het verschilt per soort spel wat het beste is, een racespel wil je bijvoorbeeld toch in een wat hogere framerate dan 30 hebben om nog wat van de snelheid te kunnen ervaren.
er is nog altijd een verschil tussen 30fps in games die allerlei nieuwe technieken bevatten b.v. motion blur en CallofDuty2 waarin die fail-fpsbug zit.

bij nieuwere games zul je het verschil tussen 30 en 60 nauwelijks merken als het maar continu gelocked staat op 30.

ik zet in mijn games het meestal op 50 en daar blijft 't dan ook bij (rustiger dan constant 50-60-70-60-49 etc.. :))
Ze hebben het allemaal over grafisch beter ipv FPS.

Maar in de poll zegt mijn eigenlijk, de Gameplay is belangrijker en (moet) niet leiden onder een lagere framerate.


En dit allemaal op consoles waar je een FPS vs Rekenkracht een vaste verhouding heeft.


Gameplay is de factor, FPS kan een onderdeel daarvan zijn als dat te laag is.
"Ik vindt 60fps zelf geen noodzaak, maar 30 vindt ik wel vrij laag. Wat is er mis met 40/45fps?"

Ik heb veel liever een game op 30Hz dan 40/45Hz.
Het scherm loopt op (zeg) 60Hz en dan heb je bij 30Hz mooi netjes elke 2 plaatjes op de tv nieuwe informatie.
Dit geeft een veel rustiger beeld dan 40Hz waarbij er soms 2 nieuwe plaatjes achter elkaar komen en soms een plaatje dubbel.

Ik vind het enigzins jammer dat ze teruggaan van 60 naar 30, maar ik vind het belangrijker dat ze dan wel strak 30Hz aanhouden en dus geen framerate jitter gaan produceren...
30 wordt ook gebruikt in films volgens mij dus ik denk dat ze dat gelijk willen houden
Welke films???
De bioscoopfilms zijn allemaal 23,976 fps.
Bioscoopfilms zijn 24 fps. Omdat NTSC 59,94 halfbeelden per seconde is (en geen 30 fps of 60 fps) wordt voor de Amerikaanse en Japanse markt film omgezet naar 59,94 halfbeelden per seconden door middel van een 3:2 pulldown (Google dat maar even op). En teruggerekend naar fps kom je dan op 23,976 fps. Voor NTSC televisies.

Helaas zijn veel films op Blu-Ray voor compatibiliteit met oude NTSC televisies ook op 23,976 gezet. Maar bioscoopfilm zijn en blijven 24 fps.

EDIT: En voor de Europese markt zijn films op DVD effectief 25 fps.

[Reactie gewijzigd door Xenan op 30 oktober 2009 15:24]

Film != Game

Bij een spel moet je reageren, bij een film moet je allen maar kijken.

Ook heeft een film zoiets als (goede) motion blur. De motion blur in games ziet er leuk uit maar is zelden nuttig.

Het verschil tussen een film en een game is namelijk dat bij een film heb zie je 24 frames per seconde, waarbij die frames zo ongeveer 1/24e seconden belicht zijn. Bewegende objecten worden dus wazig.

Bij games zie je echter maar X momentopnames per seconde; alsof je een stroboscoop neerzet in het echte leven en deze X-keer (30x bijv.) per seconde laat flitsen.

[Reactie gewijzigd door Gamebuster op 30 oktober 2009 20:12]

Aangezien games inderdaad een momentopname maken is motion blur des te nuttiger!
Alleen overdrijven de meeste games makers dit effect omdat ze in feite geen tussenliggende frames renderen en die samenvoegen tot 1 frame (wat de correcte methode zou zijn).
Het is dus meer de manier waarop het wordt gedaan dat het zo nutteloos maakt voor games.
Houd er rekening mee dat zelfs video op je tv maar 25 of 29 fps is! (Tenminste, tegenwoordig nog).
3Dfx heeft vroeger een hele interessante demo vrijgegeven waarbij op een Voodoo2 2x dezelfde graphics werden getoond in 30 FPS en 60FPS. Het verschil was wel degelijk te merken, in fact er staat nog een heel oud artikel hierover op Tweakers.net.

Ik vind dat games gewoon de mogelijkheid moeten bieden om minimaal 60FPS te weergeven.
"Ik vind dat games gewoon de mogelijkheid moeten bieden om minimaal 60FPS te weergeven."

Als je dat wil, ook nog op hoge resolutie en met een hoop eyecandy, dan kom je voorlopig uit op een game PC ipv een console.
Ik zal hier eens even uitleggen waarom dat dat 24fps voor games een bullshit verhaal is.

Films ed worden idd opgenomen met 24fps en daarom denken de oningewijden dat het niet nodig is om games met meer dan 24 fps te produceren omdat je het verschil toch niet kan zien.

Wat is nu het grote verschil? Bekijk maar eens een stilstaande frame van een film (liefst een actiescene). Wat valt er nu op? Het beeld is niet zo scherp (motion blur), wat een gevolg is van de opname techniek. Door deze 'blurring' heb je dus maar 24fps nodig om een film vloeiend weer te geven.

Een frame van een computergame is altijd haarscherp, daarom heb je meer frames nodig dan die 24fps om het beeld vloeiend te laten lijken.
Bekijk maar eens een stilstaande frame van een film (liefst een actiescene). Wat valt er nu op? Het beeld is niet zo scherp (motion blur), wat een gevolg is van de opname techniek. Door deze 'blurring' heb je dus maar 24fps nodig om een film vloeiend weer te geven.
...dus programmeert de dev motion-blur. Probleem opgelost.
Het punt is wel dat om motion blur te maken je gewoon echt tussenliggende frames moet renderen.
Dan zou je die frames net zo goed gewoon los kunnen uitsuugen op een hogere framerate.
:P
voor alle mensen die denken dat je oog niet meer kan zien dan 24/25/30 fps:

Hieronder een programma die het scherm splitst en waarbij je van elke helft de framerate kunt instellen. Wanneer je dan nog geen verschil ziet tussen 30fps en 60fps, raad ik een bezoekje aan hans anders van harte aan!

FPS compare
http://www.tweakguides.com/files/FPSCompare_v05_beta.zip

FPS compare oude versie
http://www.tweakguides.com/files/FPSComp_Old.zip
voor alle mensen die denken dat je oog niet meer kan zien dan 24/25/30 fps:

Hieronder een programma die het scherm splitst en waarbij je van elke helft de framerate kunt instellen. Wanneer je dan nog geen verschil ziet tussen 30fps en 60fps, raad ik een bezoekje aan hans anders van harte aan!

FPS compare
http://www.tweakguides.com/files/FPSCompare_v05_beta.zip

FPS compare oude versie
http://www.tweakguides.com/files/FPSComp_Old.zip
externe links werken niet: dit is 't artikel http://www.tweakguides.com/Graphics_5.html
Overigens gaf in een poll van Insomniac 16 procent van de respondenten aan dat 60fps een halszaak vinden. Acton zei dat die 16 procent uit leugenaars bestond, aangezien de verkoopcijfers dit tegen zouden spreken, of dat de onderzoeksgroep niet erg representatief was. Insomniac Games ontwikkelt zijn spellen exclusief voor Sony-platformen en is onder meer bekend van Ratchet & Clank, Resistance en Spyro.
Ik vraag me af hoeveel procent van de stemmers überhaupt weet wat FPS inhoudt.

Overigens ben ik zelf van mening dat 60FPS toch echt noodzakelijk is.


Edit: Heeft het aantal FPS ook geen invloed over het feit dat motionsickness een rol speelt?

[Reactie gewijzigd door FragNeck op 30 oktober 2009 13:22]

Wat maakt het uiteindelijk uit, zolang een game maar niet onder de 25 frames komt, overigens snap ik niet wat een ontwikkelaar hier nu mee te maken heeft (zal wel een console ding zijn)
Als een game een ander aantal fps produceert dan de monitor weergeeft (er even vanuit gegaan dat er een frame buffer gebruikt wordt om 'tearing' te voorkomen). Geeft dat een schokkerig beeld.

Als je bijvoorbeeld een bioscoop-film op zijn originele snelheid zou spelen (23,976fps) op een 25fps display (bijvoorbeeld een (europese tv) dan kon je eens in de zoveel tijd een frame te kort en schokt het even omdat 1 beeldje 2 beelden lang blijft staan.
Voor films hebben we dat opgelost door in Europa de film net iets sneller af te spelen, dus op 25fps (4% sneller merk je toch niet ;), al gaat dat wel eens mis bij films die buivoorbeeld buiten met een film-camera zijn op genomen en binnen met een videocamera, dan zie je het schokken) Die oplossing kunnen ze in Amerika niet toepassen, dat zou een 25% snelheidsverschil betekenen. Daar motion-blurren ze de film (berekenen tussenliggende beelden) om het toch netjes op 30fps weer te kunnen geven. (Nog maar eens een reden waarom PAL er zoveel beter uit ziet dan NTSC)

Ook bij computergames wil je die schokken vermijden. Daar lossen ze het op door te zorgen dat de computer altijd een beeld kan berekenen binnen de 1/60ste,1/30ste of welke-framerate-je-display-ook-gebruikt snelheid. De tijd die over is, wordt in het simpelste geval gewoon gewacht.
Als je het te vaak niet haalt om het beeld op tijd te berekenen, kun je gewoon niet meer adviseren om het spel op 60fps te spelen en moet je besluiten om het spel nog maar 30fps te laten genereren. Het zou natuurlijk heel mooi zijn als je een dynamische framerate zou hebben en een beeld gewoon en afbeelden zodra het klaar is, of dat nu 60, 50 of 49 fps is, maar dat werkt helaas in de praktijk niet zo.
En dan zit je ook nog met het probleem dat je in europa eigenlijk alleen de keuze hebt tussen 50 en 25 fps en in Amerika alleen tussen 60 en 30fps. En als je game op 60fps draait, werkt het ook op 50fp (gewoon de computer 20% laten idlen) dus een amerikaanse game is ook in Europa vloeiend, maar als je maar 50fps haalt zal de game in Europa vloeiend zijn, maar in Amerika schokken. Daarom zal insomnia de grens van 60/30 hanteren.

Als je de 60 fps net niet haalt, moet je dus een flinke stap (50%) terug doen.

Dat is wat de ontwikkelaar er mee te maken heeft.
"ls je bijvoorbeeld een bioscoop-film op zijn originele snelheid zou spelen (23,976fps) op een 25fps display (bijvoorbeeld een (europese tv) dan kon je eens in de zoveel tijd een frame te kort en schokt het even omdat 1 beeldje 2 beelden lang blijft staan."

Sorry hoor, maar film is gewoon 24 frames per seconde.
Waar jij het over hebt (23,976fps) is de film iets langzamer afspelen om het beter in NTSC te kunnen prakken.
PCgebruikers kunnen er zelf voor kiezen hoeveel fps ze draaien (bv door tweaken van graphics or kopen van nieuwe hardware). Als een uitgever een spel maakt weten ze dat in feite elke ps3 of 360 dezelfde hardware heeft dus moeten ze eigenlijk kiezen tussen lage FPS en veel effecten/betere graphics of omgekeerd.
Tuurlijk is beide mogelijk dmv een goede engine en code etc maar als je spel al soepel loopt op 60 fps zou je er als uitgever voor kunnen kiezen om meer objecten en effecten (zoals exploderende tonnetjes etc) in een game te stoppen zodat de beleving beter wordt, terwijl dat ten koste gaat van je fps
Maar wat je niet kunt op een pc is zorgen dat elk frame van je (bijvoorbeeld) 100Hz framerate ook werkelijk wordt gevuld met nieuwe plaatjes.
Dit komt omdat je op een pc de engine normaalgesproken onafhankelijk van de framerate loopt.
Dit betekent dat de werkelijke hoeveelheid nieuwe plaatjes die je per seconde te zien krijgt varieert, ook al is er een framerate cap.
Ook kunnen de makers niet voorspellen op welke framerate je het spel zal draaien en kunnen dus geen rekening houden met bijvoorbeeld de tijdsresolutie van animaties enz.
Vaak zul je zien dat er in de spelwereld meerdere snelheden door elkaar lopen.
Dus dan wordt de wereld op zich op 100Hz gerenderd maar de animaties van de NPC's lopen op 30Hz, en de tegenstanders op 60Hz, maar hun ai is dan weer op 10Hz dus je ziet om de paar frames correcties in de animaties etc,etc,etc.
Vaak worden de animaties gemaakt/gecaptured op 1 bepaalde framerate maar worden tijdens het maken van het spel in tijd uitgerekt waardoor je ook mismatches krijgt tussen animaties en framerate
Op de console heb je vaste hardware dus je kan zeggen "mijn spel mag nooit onder 30/60fps vallen". Zo heb je bijvoorbeeld in racegames de race zelf in 60fps zonder AA, en de replay is maar 30fps maar met 2xAA. In de replay is het belangrijker om meer detail te hebben ipv een vaster beeld en tijdens de race vice versa.
Kun je die mening ook onderbouwen? Er zijn namelijk verschrikkelijk weinig spellen (console) die draaien op een stabiele 60fps. Waarom is het dan zo belangrijk? De meeste console spellen zijn prima speelbaar op een lagere framerate. (vind ik tenminste, en blijkbaar met mij nog velen, want de verkopen voor de console blijven stijgen)
Het is 'belangrijk' omdat het je 'raam' is waardoor je naar de spelwereld kijkt.
Strak op 60Hz geeft gewoon een transparanter raam.
Je ziet meer detail in tijd.
FPS staat toch voor Frames Per Second? In principe is het ook onzin om meer dan 30-35FPS te hebben, het menselijk oog schijnt toch maar tot 25-30FPS te komen, waarom dan een veelfout daarvan?
Al een spel over het algemeen op 60 FPS loopt, heeft het een veel grotere marge om terug te vallen tijdens grafisch zware scenes. Stel dat je bij 60FPS ineens een drop krijgt van 10 FPS, dan merk je dat niet. Bij 30 FPS merk je het wel, want dan val je terug tot 20FPS, en dat ziet er schokkerig uit
En als nu eens de games dusdanig worden geoprogrammeerd dat alles netes op 30FPS blijft draaien dan zie ik niet in waarom 60FPS nodig zou zijn. Klaarblijkelijk willen ze daar op consentreren.

[Reactie gewijzigd door _Dune_ op 30 oktober 2009 13:37]

Correctie; van 60 > 50 zie je wel! Je televisie / hdmi uitgang op de console zal namelijk eerst een frame na 1/30 seconde doen, en daarna weer na 1/60, 1/60, 1/60, 1/60 seconde, daarna weer naar 1/30. Het is dus niet zo dat de televisie netjes beeldjes elke 1/50ste seconde laat zien.

Het gevolg is dan dat je er dus tussen 4 beeldjes 1/60 seconden zit, en daarna een keertje 1/30ste seconde. En dan zie je dus elke 5 beeldjes een hapering, waardoor je misschien wel het gevoeg krijgt op 12 FPS te spelen ;)

Bij 30 FPS naar 20 is het natuurlijk nog erger, dan slaat die om de twee beeldjes gewoon een frame over, en heb je het gevoel op 10 FPS te spelen.

Bovenstaande heb ik trouwens niet met behulp van een proef of bewijs ondervonden, het was slechts een hersenspinsel. Maar Desalniettemin zie ik liever een 30 FPS constant (beeldjes worden misschien wel op 45 FPS gerenderd, maar uiteindelijk laat hij maar 30 FPS zien), dan een 60 FPS die op grafisch zware stukken genoodzaakt is onregelmatig naar 30 FPS te springen.

[Reactie gewijzigd door Indy-Jones op 30 oktober 2009 14:01]

Omdat dat van die 25-30fps onzin is. Als jij een shooter speelt op 25 fps, en doormiddel van de muis rondjes om je eigen as draait, merk je bij 25fps gewoon dat het in kleine schokjes gaat ipv soepel.
Zeg dat tegen de duizenden mensen die hoofdpijn hadden van CRT's tot we ze op 85Hz en zelfs 100Hz kregen. Of het veelvoud van mensen die oogproblemen hebben gekregen door te lang naar die brakke beeldbuizen te kijken.
Dat had in mijn ogen meer met de lichtflitsen te maken. Steeds een zeer korte lichtflits en 1/50 ste seconde later weer een flits (en je hersenen moesten er maar een vloeiend en constant beeld van maken). LCD houdt het beeld gewoon 1/60ste seconde vast, waarna de pixels zonder flits, maar wel snel overspringen naar de volgende kleur oid.
Maar Rizon heeft wel gelijk, ik had altijd hoofdpijn als ik een paar uur achter de PC had gezeten. Toen ik mijn CRT had opgevoerd naar 85 Hz was het probleem weg.
Sterker nog, als ik nu 70 Hz instel, en ik kijk vanuit mijn ooghoek naar het scherm, dan zie ik hem als een gek flikkeren.
Gelukkig hebben LCD schermen dit hele probleem niet meer ^^

Maar nu staat dit vrij los van het FPS verhaal, maar toch ben ik wel bang dat 30 te weinig zal zijn. Het verschil merk je niet direct, maar je merkt het wel. Ze had ik pasgeleden nog van iemand het spel Locoroco op de PSP gespeeld, dit spel draait op 30 FPS op de PSP. Dmv een hack kon deze opgevoerd worden naar 60 (CPU sneller zetten), en dat zag er vele malen soepeler uit.
Nu zal ik echt niet negatief hierover zijn, maar ik ben wel erg benieuwd of dit een goede keuze van ze is. Zullen het zien bij nieuwe games van ze :)
Flitsen is een groot woord, maar idd, het licht dooft steeds langzaam en wordt dan weer ververst. Het fosfor blijft gelukkig nog even na-gloeien.
Hoe korter je het fosfor laat nagloeien, hoe sneller je het beeld kunt veranderen, maar hoe meer het lijkt te flitsen (en dus moet je het vaker verversen).
Een monitor die gemaakt is voor 100Hz zal overigens sterker knipperen op 85Hz dan een monitor die gemaakt is voor 85Hz. De vergelijking gaat vaak scheef doordat mensen hun nieuwe 100Hz monitor even op 85/75/60Hz zetten om te kijken hoe erg hun vorige monitor zou zijn geweest, ipv daadwerkelijk hun oude monitor te vergelijken.

Ook een lcd knippert overigens. De lamp die van achteren door de pixels heen schijnt, knippert namenlijk. Het aantal fps en de snelheid waarmee het display knippert zijn hier onafhankelijk van elkaar, bij een crt zijn deze exact gelijk.

En zelfs een oled-display knippert omdat de helderheid van de pixel wordt bepaald door hem snel te laten knipperen. Maar daar knippert elke pixel afzonderlijk op zijn eigen tempo, niet het hele display in zijn geheel. Daar zul je het alleen op kunnen merken als je (op een slecht ontworpen scherm) een geheel donker rood (of groen of blauw) scherm bekijkt.
Als ik met mijn oog naar een TL buis kijk, en dan onder de TL buis, dus niet direct in de lichtontladingslamp zelf, dan zie ik wel degelijk een frequentie. Bij een TIL buis bedraagt dit 60 Hz, dus 60 FPS volgens mij.

Dus die theorie gaat niet helemaal op.
Ten eerste: Dan mag je de TL of het armatuur wel eens vernieuwen. Met een hoogfrequent voorschakel apparaat en een nieuwe TL zie je het echt niet. Daarnaast is het 50 Hz (dat is wat het stroomnet ons levert met de wisselspanning.)

Overigens kan het mij niet schelen hoeveel fps een game heeft als het maar soepel draait. Als de makers dat voor elkaar krijgen met 30 fps vind ik dat geen probleem. Dus ik vind deze discussie wat onzinnig. Het gaat mij niet om de middelen, maar om het resultaat. Dus als zij met 30 fps een game op de markt kunnen zetten wat over komt als compleet smooth, wie ben ik dan om er over te klagen.

Ze zijn ook niet gebaat bij een game wat niet soepel draait. Ze zullen voordat ze dit toepassen, dit echt wel eerst goed testen.

[Reactie gewijzigd door Hann1BaL op 30 oktober 2009 14:00]

Een standaard tl knippert op 2x de frequentie van het lichnet, in Europa dus op 100Hz.
Als de lamp versleten raakt, kan hij op 50Hz gaan knipperen, dat zie je heeel erg duidelijk en dan sta je binnen een dag bij de bouwmarkt voor een nieuw balkje.
Maar goed, een game knippert gelukkig niet :+
"het menselijk oog schijnt toch maar tot 25-30FPS te komen"

Dus nooit zelf uitgeprobeerd?
waarom dan een veelfout daarvan?
Dat is een grappige spelfout :)
Dat is niet juist.
Je hebt slechts ongeveer 20 frames per seconde nodig om de illusie van animatie redelijk goed te maken.
Dat wil niet zeggen dat het niet beter kan!
Zelf zie ik duidelijk het verschil tussen een 30Hz en een 60Hz game.
Veel films zijn ook 30 of onder de 30 hz. tegenwoordig is alles progressive dus het gaat meer om dat je een stabiele directe framerate hebt. in counter strike draait 30fps veel minder soepel dan 30fps in crysis.
Dit is simpel te verklaren:

counter strike heeft geen object based motion blur; de frames wijken (bij grotere snelheden) dus veel meer van elkaar af, dan bij crysis, zelfs als crysis (tot een bepaald niveau) een lagere framerate zou hebben.
Een vloeiender geheel ziet er zelfs beter uit dan enkel een hoge fps imo.
Eindelijk iemand die het correct weergeeft. De reden waarom FILMS op 25 tot 30 fps super soepel lopen, is omdat (als je naar losse frames gaat kijken) motionblur te zien is. Door deze motionblur zijn de verschillen in de objecten tussen de frames minder groot.

Echter, een PC game (met name oudere) hebben geen motion blur. Als je dan naar de individuele frames gaat kijken, dan zal je zien dat de objecten er strak en scherp uitzien. Bij een bewegend object zal het object niet vloeiend, zoals met motion blur, bewegen, maar kleine stapjes maken. Hoe meer fps, hoe kleiner deze stapjes zijn en hoe soepeler het aanvoelt.

Voorbeeld: stel een auto rijdt 1 meter en dit wordt weergegeven in 4 frames. In het geval van film of spel met motionblur zal je zien dat op frame 1 de auto uitgesmeerd is over meter 0 tot 0,25. Als je de tweede frame ziet als je de auto uitgesmeerd zien over 0,25 tot 0,50 meter etc. Immers, het diafragma van de camera blijft telkens even open staan. Daar 'smeert' de auto uit.
Een computerspel zonder motionblur daarin tegen neemt min of meer foto's. Hij rendert een frame met object zoals die op DAT moment gelden en niet hoe het object over een bepaalde tijd beweegt. De auto zal in frame 1 dus op 0 meter staan, op frame 2 op 0,25 meter staan, op frame 3 op 0,75m en op frame 4 op 1 meter. Je kan je voorstellen dat dit er veel minder soepel uitziet, aangezien het object vanuit het oogpunt van de kijker 4 keer verspringt en niet soepel langsbeweegt.

Vandaar dat spellen vaak soepeler aanvoelen op hogere framerates. Het menselijke oog kan prima >25 frames per seconden ondescheiden. Het heeft alleen MINIMAAL 24 nodig (iig voor motionblur) om het als soepel geheel te ervaren.

Spellen die WEL motionblur gebruiken zorgen er dus voor dat ook op lagere framerates het er soepel uitziet.
Spellen die WEL motionblur gebruiken zorgen er dus voor dat ook op lagere framerates het er soepel uitziet.
Dat gaat meestal wel ten koste van het detail. Grootste kroonspanner daarin is Need For Speed, die in sommige stukjes meer motion-blur dan daadwerkelijke scenery laat zien.
"Eindelijk iemand die het correct weergeeft. De reden waarom FILMS op 25 tot 30 fps super soepel lopen, is omdat (als je naar losse frames gaat kijken) motionblur te zien is. Door deze motionblur zijn de verschillen in de objecten tussen de frames minder groot."

Dit is niet waar.
De motion blur geeft je hersenen informatie over een groot deel van de tijd waarop dat frame heeft plaatsgevonden.
Je hersenen missen dus een stuk minder 'tussen' informatie en daardoor denk je het soepeler te zien.
Heeft op zich niet direct iets te maken met hoeveel verschil er zit tussen objecten maar met hoeveel informatie over de tijdsspanne van het frame er in het beeld verwerkt zit.
mijn perspectief is het zo dat je in principe toch geen voordeel van een hogere framerate dan het menselijke ook kan waar nemen. wat je vooral merkt is dat de framerate van de opbouw van het beeld en die van de game niet gelijk ligt. en hier en daar dus een frame mist. een hogere framerate trekt dit deels wel recht maar blijf je technisch gezien toch nog iets aan frames missen., maar wel minder dan bij een lagere framerate. tevens worden veel console met hdmi aangestuurd waardoor 1 frame p/s verlies optreed ivm de codec over de kabel. en het zou me niet verbazen dat consoles standaard een framerate limiter hebben draaien.
Er is geen gekende limiet per persoon omdat dit variabel is. Sommige CSspelers zweren zelfs bij 150fps omdat ze lager als niet vloeiend ervaren.
Zelfs zie ik het niet zo hoog maar zeggen dat ze allemaal bs verkopen is niet juist.
Sommige CSspelers zweren zelfs bij 150fps omdat ze lager als niet vloeiend ervaren.
Dit lijkt me wel BS want een LCD monitor staat standaard op 60 fps en TV accepteren geen hogere input dan 50/60 fps. Ook recente 200 Hz televisies hebben max 60 fps als input. Je kunt die 150 fps nooit te zien krijgen.

[Reactie gewijzigd door Xenan op 30 oktober 2009 14:00]

Maar zelfs al toont je scherm het niet, het gebeurd nog steeds en het helpt om je hersenen een vloeiender beeld laten te maken van wat de ogen doorsturen.
Dat is nou net mijn punt. Je scherm toont het niet, en dus kun je het niet zien, en dus kunnen je hersens er geen vloeiender beeld van maken.
Het geeft je monitor meer speelruimte en dan kan er uit een grotere lijst van frames worden gekozen om een nog beter beeld neer te zetten en ook de muis/keyboard input is dan accurater/sneller. het feit dat hij er maar 60/75 van de 200 kan gebruiken betekend niet dat het geen nut heeft om hogere fps te genereren
Yep, dat is een punt wat nog niet (vaak) aangehaalt is. Meer FPS is meer input mogelijkheden/momenten voor de gebruiker. Een bocht maken met 60FPS kan precieser dan de zelfde bocht maken met 30FPS. Echt, dat verschil merk je 100% als je een race game speelt. Hogere FPS is dus betere gameplay.
CRT monitors daarintegen...
Welke gebruiker heeft nou een scherm dat 150 frames per seconde kan afbeelden? :?
120Hz is makkelijk te vinden, 200Hz is ook nog te vinden. Ik vermoed dat er nog veel snellere schermen zijn maar waarschijnlijk niet meer gericht op consumenten.
"mijn perspectief is het zo dat je in principe toch geen voordeel van een hogere framerate dan het menselijke ook kan waar nemen."

Het menselijk oog kan hogere framerates waarnemen dan 60Hz, zeker in de perifere gedeeltes van de retina.

En waar haal je het idee van een missend frame bij HDMI vandaan?
Inderdaad, 30 is wel erg weinig. Als je ineens een framedrop krijgt dan laggt t weer gelijk.
Als de ontwikkelaar normaal gesproken in staat is een stabiele 60fps neer te zetten dan heb ik het vermoeden dat 30fps ook wel moet lukken, framedrop vrij ...
onzin, je kan er juist voor zorgen dat het juist minder gebeurt.
met veel 60fps games zakt de fps soms direct naar 30, en dat merk je veel zwaarder (van 60 naar 30).

ik heb liever constant 30 dan onconstant 60, er zijn heel wat spellen op de xbox360/PS3 die onconstant 60 zijn en dat is pas echt gruwelijk irritant.

[Reactie gewijzigd door stewie op 30 oktober 2009 13:32]

Het zit gewoon echt tussen de oren.. 30fps is gewoon goed.. Als je tegen iemand zou zeggen dat 30fps 60 is dan zou diegene het gewoon geloven.. Zolang de framerate maar wel steady op 30fps is en niet veel lager..
Hoe kun je dat nou zeggen? Je weet toch niet wat anderen zien? Ik kan games echt niet spelen op stabiel 30 FPS, want dat ziet er gewoon hartstikke schokkerig uit. Probeer het eens in een snelle shooter zou ik zeggen en dan praat je wel anders.
Dan heb je duidelijk nog nooit het verschil gezien bij een snel actiespel. Zeker bij shooters en racegames waarbij je hele snelle reacties moet maken is de extra bewegingsinformatie die je krijgt bij 60fps soms het verschil tussen winnen en verliezen.
Ik zie dit verschil gewoon hoor.
Vrij duidelijk zelfs...
1 2 3 ... 7

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True