Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 131 reacties
Bron: Mikhailtech

Mikhail (de eigenaar van hardwaresite Mikhailtech) betoogt in een editorial op zijn site dat er geen grenzen zijn aan de waarneembaarheid van frames per seconde. Hij is ervan overtuigd dat iemand die gewend is op 250fps te gamen, een verschil zal zien als hij plots op een systeem moet spelen dat "maar" 125fps aankan. De sleutel tot deze conclusie ziet hij onder meer in het feit dat het menselijk oog - mits het voldoende getraind is - in slechts 1/220ste van een seconde een vliegtuig op een foto kan identificeren. Hieruit volgt volgens Mikhail logischerwijs dat het oog tot veel meer in staat is dan de 60fps te verwerken, die vaak worden genoemd als de limiet. Of dit verhaal helemaal steekhoudend is, kun je voor jezelf bepalen. De auteur van het artikel meent in ieder geval dat hoe meer frames je videokaart per seconde kan produceren, hoe lekkerder jij speelt:

plaatje monitorSo what's enough? 30fps? 300? 3000? Who knows. But on a more practical scale, 1024x768, 2-4x FSAA and 16x Aniso between 50-100fps in most games is just fine. On a final note, this topic is a lot more complex than what I've pointed out but you get the general idea; if interested in learning more, Google is your friend.

Met dank aan edhut voor de tip.

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (131)

1 2 3 ... 6
Bij film is het zo dat de mens ongeveer 24 beelden per seconde moet zien om te voorkomen dat hij het als een diashow ervaart (de losse beelden kan onderscheiden van elkaar). Veel mensen denken daarom dat 24/25 frames per seconde voor een spel ook genoeg is.

Dit is echter niet waar. Zodra je een film stil zet zie je een vaag en wazig beeld. De frames zijn gemaakt om in elkaar over te lopen en beweging soepel te laten verlopen. Zodra je een screenshot in een spel neemt zie je een haarscherp beeld. Het is dus gewoon moeilijker om een spel net zo soepel te laten als een echte film.

60 frames per seconde is lekker, maar als je een snelle draai maakt in een spel (zeg 180 graden in 0,5 seconde) dan verspringt de wereld dus 6 graden per frame, met duidelijke sprongen dus, die in een film opgevangen zouden worden door de vaagheid van de beelden, maar bij een computer een onrealistisch gevoel kan geven. Dat wordt nog eens versterkt door het feit dat de engine het tijdens zo'n draai zwaarder dan gemiddeld heeft en de framerate dus inzakt. Wisselende framerates zul je bij een film ook niet zien.

Er wordt ook wel gezegd dat 100fps de limiet is, omdat de meeste mensen bij een refreshrate van 100 geen flikkering meer kunnen waarnemen, maar ook bij 100fps treden de hierboven beschreven 'fouten' op, hoewel ze dan natuurlijk al een stuk minder opvallen.

Toch denk ik dat het weinig zin heeft om meer dan 100 frames per seconde na te streven. Het zou mooier zijn, maar je hebt er gewoon bagger weinig aan omdat de monitor een beperkende factor is. Op 640x480 kunnen sommige bakken de 250Hz wel halen, maar niet op fatsoenlijke resoluties.
De redenering van Wouter Tinus klopt, maar om een andere reden dan die van zichtbaarheid.

Mensen pinnen zich vast op die 25 beelden per seconde, maar vergeten even dat het visueel zware werk meer eist. Ga een 'thrill ride' doen, zo'n bioscoop-rollercoaster ride. Daar kijk je ook naar 60 beelden per seconde. Mensen kunnen misselijk worden als je op groot scherm vele felle bewegingen ondergaat.

Maar, terug naar het voorbeeld van een 180 graden draai bij 30, 60 of 90 FPS. Zoiets kan je makkelijk in een kwart seconde, gewoon een snelle ruk aan je muis. Maar hoe nauwkeurig kom je uit op het punt waar je iemand met je AWP / Railgun / Shockrod / enz wil fraggen ?

30 FPS, 180 graden draai in een kwart seconde, betekent 'radialen' of stappen van 24 graden. Denk aan een taart in 15 stukken, dat zijn nog best wel grote hoeken dan. 60 FPS, ditto, is 12 graden, dan gaat de taart in 2 keer zoveel stukken. Al beter, niet ? Bij 90 fps maak je dan stappen van 8 graden: taart in 45 stukken.

Veel spellen kan je een max FPS geven. Zet het maar eens vast op 60 en vergelijk dat met 90 FPS. Je zult merken dat het nog steeds verschil maakt, je speelt beter met 90 FPS. Dat komt, bij 60+ FPS, niet meer omdat het er beter uitziet, maar omdat (bij first-person shooters) je muis positie vaker, en dus in kleinere stappen ge-update wordt, wat je nauwkeurigheid ten goede komt.
Precies!
Daarom heeft het qua speelbaarheid wel zin.
Maar Visueel waarschijnlijk niet.
JumpStart makes a point here!

Ik heb daar ook al eens over nagedacht, en inderdaad: de preciezie gaat er op vooruit. Je richt gewoon nauwkeuriger op hogere framerates, omdat je bewegingen veel fijnzinniger kunnen worden weergegeven.

Als je 180 graden rond draait, en je doet dat met 2 fps, dan zou je dus maar 2 maal kunnen bijstellen met richten. Als je diezelfde 180 graden draait, met 10 fps, heb je dus 5 keer zoveel mogelijkheden om je beweging te corrigeren bij het richten. Bij 30 fps is de nauwkeurigheid al 15 keer zo hoog, en bij 60 fps 30 keer zo hoog. Dus het gaat niet alleen om het aantal zichtbare / waarneembare fps, maar ook om de nauwkeurigheid van het richten. Zeker bij First Person Shooters is dit van belang.
Niet juist wat jij zegt over films. Films zijn tegenwoordig 24f/s. Ik werk als operateur bij een bioscoop en weet er dan ook het één en ander vanaf. Er is echt GEEN WAAS aanwezig op de afzonderlijke frames. Dat slaat nergens op...
Wat er gebeurd is dat de film telkens beeldje voor beeldje voor het filmvenster komt (waarachter een xenon lamp brandt) Het wordt beeldje voor beeldje geprojecteerd. De beweging van het ene beeldje naar het andere zie je niet omdat op dat moment het licht wordt tegengehouden. Door de traagheid van het menselijk oog wordt het vervangen van een beeldje door een ander niet waargenomen. Het oog kan echter nog wel een flikkering waarnemen en wordt daardoor moe. Om dit tegen te gaan wordt ieder beeldje 2x weergegeven (dus 48 Hz). Dit is natuurlijk een ander principe dan bij een monitor waar het beeld OPGEBOUWD moet worden. Bij de bioscoop staat het beeld direct in zijn geheel op het scherm!
Die 24fps in de bioscoop merk je ook heel duidelijk als de camera een beetje draait of snel beweegt. Maar omdat het een vaste snelheid is ervaar je dat juist als prettig omdat je in een soort trance komt door die frequentie. Bij spelletjes is het heel hinderlijk omdat je vaak juist op de momenten dat je bijvoorbeeld in een fractie van een seconde je target moet richten je de grootste vertraging hebt omdat je veel met je muis draait.
Een spelletje op 24fps zou best relaxed zijn, maar niet geschikt voor een actiespel.
In de bioscoop heb ik ook altijd last van zere ogen.

Bij ons op school hebben we nieuwe PC's die op 60 hz draaien, ik zag het al toen ik er 10 seconden achter zat. Kan het ook niet veranderen (stomme sysadmin)... krijg zere, rode tranende ogen ervan. < 85hz doet bij mij echt zeer.
in de bioscoop... Meerdere bioscopen of 1 bepaalde? Lijkt me sterk. Wat het kan zijn is dat het 1 en ander mechanisch niet goed ingesteld is waardoor neveneffecten ontstaan...

Ik merk zelf ook duidelijk verschil bij monitoren tussen 60 Hz en 85 Hz. Zelfs 75 en 85 meen ik nog van elkaar te kunnen onderscheiden. 85 Hz is gewoon prettiger en rustiger dan 75 Hz...
Ik snap bepaalde mensen dan ook niet. Die zitten met een resolutie van x*x die de 17" monitor niet meer erg scherp weergeeft en met een refreshrate van 60 Hz en zijn d'r nog tevreden mee ook........
Er is echt GEEN WAAS aanwezig op de afzonderlijke frames. Dat slaat nergens op...
Wat er gebeurd is dat de film telkens beeldje voor beeldje voor het filmvenster komt (waarachter een xenon lamp brandt) Het wordt beeldje voor beeldje geprojecteerd.
En een echte biosfreak als ik kan dat meteen weerleggen. Snelle bewegingen worden door een videocamera nooit scherp vastgelegd vanwege de 'traagheid' van het opslagmedium, of dit nou film is of een digitale lichtgevoelige chip. Vergelijk het maar met het nemen van zgn. actiefoto's (dus foto's van snelbewegende objecten). Daarbij wil je een zo kort mogelijke sluitertijd van het diafragma om het veegeffect zo klein mogelijk te houden. Soms wil je juist veel veegeffect. Goede voorbeelden zijn die nachtfoto's waarop de lichtstrepen zijn te zien van de koplampen van auto's in de stad. Maar het is in ieder geval zo dat elk soort camera 'last' heeft van dit veegeffect.
Hoe zit het dan met het feit dat ik achter een CRT monitor van 60hz helemaal gek word van de hoofdpijn en mijn TFT'tje (dat overigens 75hz draait) op 60hz prima beeld lijkt te geven, ook in spellen, het lijkt op een TFT in mijn ogen praktisch altijd soepeler te gaan, (op de gevallen met blur bij bewegingen na dan :+) en ik weet het niet zeker maar ik neem aan dat die TFT niet die beelden voor mij veranderd om ze soepeler te laten gaan, zo wel is dit het goede antwoord.
Een TFT refreshed niet op dezelfde manier als een CRT. Het beeld van een CRT valt heel snel uit en wordt dan weer opnieuw aangezet. Dat gebeurt te snel om echt te zien, maar de flikkering kun je wel merken. Een TFT is langzamer. Het beeld sterft niet (lees: niet voor de refresh) af, maar het oude beeld wordt gewoon 'overschreven' met het nieuwe.

Dezelfde 'traagheid' zorgt ervoor dat snel bewegende beelden iets vager neigen worden op een TFT dan op CRT -> hetzelfde effect waarmee films er soepel uit komen te zien op 25 fps.
Oude CRT's (monochroom) hadden wel weer een een trage verversing (wat voornamelijk kwam door het nagloeien van de fosfor in de beeldbuis).

Zou het dan niet handig zijn om iets 'trager' fosfor te gebruiken zodat je niet zo'n achterlijke refreshrate nodig hebt omdat het beeld toch nog ff bblijft staan?

Beetje warrig verhaal misschien, maar duidelijker dan dit krijg ik het niet :)

[/edit] Er vanuit gaande dat je dan uiteraard ook op lagere fps speelt... zeg 50 fps ofzo... dan heb je die veel hogere verversing dus niet meer nodig, dus gamen op langzamere pc zou dan makkelijker moeten zijn... lijkt me
[edit]
Tja, maar dan kun je je hoge framerate niet meer gebruiken en krijg je overal strepen achteraan als het snel beweegt...
Zodra je een film stil zet zie je een vaag en wazig beeld. De frames zijn gemaakt om in elkaar over te lopen en beweging soepel te laten verlopen. Zodra je een screenshot in een spel neemt zie je een haarscherp beeld. Het is dus gewoon moeilijker om een spel net zo soepel te laten als een echte film.
wat een onzin. de beelden vervagen dan omdat het medium slecht is (vhs/roterende kop etc.)
ga jij eens een goede dvd stil zetten (met nadruk op goed) dan staat dat plaatje als een foto.
sterker nog, weet je eigenlijk hoe camera's werken .. qua sluiter enzo?
als je een spel hebt dat echt constant en echt minimaal die 25fps aanhoud valt daar heus wel mee te werken.
animaties voor tv worden ook maar met 25 frames (pal) gerendert en die lijken voor jou toch ook soepel te lopen?! en nee, ze doen daar verder niets aan om het te 'vervagen'.

hoe ik dat weet? bij de tv gewerkt.
animaties voor tv worden ook maar met 25 frames (pal) gerendert en die lijken voor jou toch ook soepel te lopen?! en nee, ze doen daar verder niets aan om het te 'vervagen'.
eh.. toch wel...
motion blur - daar doelde hij op
reken maar dat ze dat gebruiken, en dat 't onderzoek naar betere methoden die sneller werken en toch nog goed resultaat geven nog steeds door gaat.

Hetzelfde voor film... de camera heeft nu eenmaal een bepaalde sluitertijd.

Spelletjes hebben dat niet... of niet veel in ieder geval ...daar het nogal wat rekenkracht kost.
Natuurlijk worden die animaties op 25fps gemaakt, PAL kan niet meer uitzenden. En als je een DVD stil zet tijdens een actiescene dan zie je echt geen haarscherp beeld. Ik had het natuurlijk niet over een closeup van een gezicht ofzo, want daarbij speelt framerate nauwelijks een rol.
De 24 beelden per seconde waarmee een film geprojecteerd worden, "knipperen" in de bioscoop twee keer, dus elk beeldje wordt dmv een technisch foefje twee keer geprojecteerd. Daar is de frequentie dus 48x per seconde.

De standaard voor video is 25 beelden per seconde. DMV interlacing wordt elk beeldje ook twee keer geprojecteerd. Niet opeenvolgend, maar "interlaced": eerst wordt de helft van de beeldlijnen ververst, en daarna de andere helft, doordat dit a-synchroon gebeurt is je scherm nooit helemaal donker. 25*2=50x per seconde.

Je monitor knippert daarentegen ook nog eens: in NL 50*per seconde via het lichtnet, of een verdubbeling daarvan op een 100Hz TV.

Als de frequentie van je medium niet in de frequentie van je monitor "past" (50 beelden past goed in 50Hz of 100Hz) dan kun je vreemde effecten krijgen. Bijvoorbeeld erg donker of knipperend beeld. De verhouding tussen medium en mointor is dus erg belangrijk.
Ik vind het nogal twijfelachtig , omdat ook al bewezen is dat het menselijk oog optimaal kan presteren bij 72 HZ plus minus ...nou volgens mij word het moeilijk om met het blote oog een bepaalde framerate nog te kunnen onderscheiden ....
EN trouwens ligt dat voor elk persoon natuurlijk weer anders ! of zie ik dat soms ook verkeerd ?
Ik vind het nogal twijfelachtig , omdat ook al bewezen is dat het menselijk oog optimaal kan presteren bij 72 HZ plus minus
Je moet een onderscheid maken tussen kleuren en wit.
Kleuren worden door de zogeheten kegeltjes in je ogen waargenomen, hier zijn drie versies van voor de 3 basiskleuren met hun complementairen.
Verder heb je de staafjes, die "wit" kunnen zien.

De kegeltjes zijn, in verhouding tot de staafjes, enorm traag met reageren. Wanneer er licht valt op een kegeltje, dan wordt een bepaalde chemische stof tijdelijk omgezet in een iets andere vorm, welke de eigenschap heeft om een signaal door te kunnen geven aan (uiteindelijk) de oogzenuw en de hersenen. Hierna wordt de stof weer teruggezet in zijn oorspronkelijke vorm (dit duurt een tijdje) en dan pas kan dit kegeltje weer reageren op licht (van zijn kleur, bijv. rood).
Staafjes doen hetzelfde, maar hebben de prettige eigenschap, dat de chemische reactie van het terugzetten in de beginstand, de (ik meen nog steeds) allersnelste chemische reactie is die er bestaat.
Oftewel, de staafjes kunnen veel sneller reageren op licht/donker wisselingen.

Nu is er nog het verschil tussen de dichtheid van je netvlies m.b.t. de hoeveelheid staafjes en kegeltjes.
Wanneer je naar een object kijkt, bijv. jouw monitor, dan gebruik je een bepaald deel van het netvlies, waar bijna alleen maar kegeltjes zijn. Staafjes zijn er niet (in het midden) of nauwelijks (naar de rand toe). Oftewel, de animatie waar jij naar kijkt, zul je al heel gauw als vloeiend ervaren.

Wanneer je echter "vanuit de ooghoeken" naar een object kijkt, dan gebruik je een ander deel van het netvlies waar bijna geen kegeltjes meer zijn, alleen nog maar staafjes (naar de zijkanten toe steeds minder kegeltjes, tot zelfs alleen maar staafjes, waardoor je blikveld aan de zijkanten alleen maar zwart/witte informatie bevat).
Wanneer je een monitor (even heel extreem) op een lage refreshrate als bijv. 72 Hz. zet, dan merk je het meest van het flikkeren wanneer je langs de monitor heen kijkt en vanuit de ooghoeken concentreert op het beeld. Nu zie je heel duidelijk de trilling. Probeer dit ook eens bij 75 Hz.,85 Hz. en 100 Hz. Je zult tot hele verrassende conclusies komen!

Verder is het nog zo dat de ene persoon gevoeliger is voor trillingen dan de ander.
Vergelijk even het voorbeeld van TL verlichting. Sommigen kunnen hier niet goed tegen, omdat deze verlichting in wezen ook enorm staat te trillen (alleen merkt het gros der mensen er niks van).

Ikzelf werk met 100 Hz. het prettigst.
Verder heb je de staafjes, die "wit" kunnen zien.
Staafjes zien geen wit, registreren in zwart/wit, maar misschien bedoel je dit ook. ter aanvulling dan maar;
Staafjes zijn bedoeld voor donkere omgevingen. Als het donker is hebben de kegeltjes geen effect meer (er valt dan geen onderscheidt meer te maken tussen kleuren, dus hun functies is weg). In die situaties nemen de staafjes hetover. Deze zijn lichtgevoeliger, maar 'zien' alles in zwart/wit (registreren immers geen kleur)
Zijn tests voor om uit tevogelen wanneer de staafjes 'het over nemen'.

Ook deze kegels/staafjes hebben een traagheid, die is goed te zien als je een lichtflits te zien krijgt, dan zie je een vlek voor je ogen.

Spectaculairder (en leuker) is dit effect als je in een geheel donker hok staat, recht voor je uitstaart (dus niet bewegen met de ogen of knipperen), dan een lichtflits produceren (fotoflitser bijv.), dan wachten. Omdat de kegeltjes en staafjes 'overbelicht' zijn (net als bij het fosfor effect van een monitor), zal er een soort foto effect optreden. Je 'ziet' dan heel kort je omgeving op moment van de flitst 'geprojecteerd' in je ogen, terwijl de flits al weg is. Dit ziet er uit als een soort hologram uit (is groen nl., en door schaduwen 3D). Beweeg je met je ogen of knipper je dan is het weg. Je kunt dit ook alleen zien als het echt donker is, een beetje licht verstoort dit al.
Dit effect is heftig en erg grappig om mee te maken.

enfin, zover de biologische les...... verder klopt 't wel zo'n beetje wat musiman verteld.
Net als PrewT ben ik het hier niet mee eens.
Ik zie ook weldegelijk verschil tussen bijv. 75 en 85 Hz. 75 krijg ik koppijn van, 85 valt nog wel mee (hoewel ik dat de laatste tijd ook een beetje zie knipperen).
Niet kunnen spelen op 75 FPS?
Koppijn van 75 Hz?

Sorry hoor, maar dat vind ik gewoon onzin zeg. Ik zal mijn mening ook "even" onderbouwen.

Ik kan me de introductie van de TNT2 Ultra herinneren. Op veel reviewsites werd er geraved en geschreeuwd dat Quake 3 nu "eindelijk" speelbaar was, omdat er 50 FPS op 1024x768 kon worden gehaald. Om met vorige kaarten dat getal te halen, moest op 800x600 worden gespeeld, wat Quake 3 echt wel "onspeelbaar" maakt volgens zo'n sites.

De norm voor monitoren in het bedrijfsleven is 72 Hz, met een aanbeveling van 75 Hz. Dat is al tijden zo, sinds TCO99, als ik het mij goed herinner. Sinds er monitoren zijn met een hogere refreshrate (wat goed is, daar niet van), zie ik steeds vaker mensen die zeggen dat er met 75 Hz niet gewerkt kan worden omdat ze daar een "grandioze koppijn" van krijgen.

Ik ken mensen die claimen dat ze pas goed kunnen werken met een resolutie van 1280x960 @ 100 Hz, (m'n laatste baas) terwijl ze ook zeggen dat ze al 15 jaar een PC hebben. Hoe hebben ze dan 15 jaar geleden... wat zeg ik... 5 jaar, of misschien wel 3 jaar geleden met computers kunnen werken?! Resoluties van 1280x960 @ 100 Hz zijn er nog niet zo lang.

Begin 1994, toen ik mijn 486 kocht, keek ik rond voor een 15" monitor, omdat deze 800x600 @ 75 Hz moest kunnen draaien. De goedkoopste die dat kon, kostte over de 1200 gulden! Ik ben toen moeten gaan voor een 14" monitor met 640x480 @ 75 Hz, of 800x600 @ 72 Hz. 1024x768 kon hij helemaal niet.... toch kon ik er aardig mee werken.

Het enige waar ik het mee eens ben is dat een stap terug merkbaar is. Ik werk nu zelf met 1024x768 @ 85 Hz, (19" monitor, ik heb een slecht zicht ;)) maar ik zie wel veel verschil als ik werk met de pc van mijn oom: 1024x768 @ 72 Hz op een 17" monitor.

Maar dat sommige dingen die jarenlang goed waren
(75 FPS, 75 Hz) nu afgekraakt worden als "onwerkbaar" is belachelijk.

Net zoals ik het belachelijk vind dat reviewers klagen dat de Ti-4600 nog steeds niet goed presteert in spellen op een resolutie van 1600x1200 @ 100 Hz met 4x FSAA, Anisotropische filtering en 32 bit kleur. Vind je 't GEK?! De meeste mensen hebben zelfs geen monitor die dat aankan. Alleen de die-hard tweakers en gamers hebben een GF4 Ti-4600. (Ikzelf waardeer mijn GF2 Ti aan het eind van de maand op naar een Ti-4200.) De meeste mensen in een huishouden hebben GF2 MX-en, soms een GF3.... en geen monitoren die zulke resoluties aankunnen.

In zeer veel winkels (Regenboog, It's, Megapool, Vobis.....) worden zelfs nog steeds computers verkocht met een 17" inch monitor en een GF2 MX-400. Ja, nu nog! Kijk maar in de reclameblaadjes. DAT zijn de computers die bij de mensen thuis staan in het algemeen. En die dingen halen geen 250 FPS op 1280x960 @ 100 Hz... toch spelen die mensen Quake 3 en vele andere spellen. Zijn die dan gek of zo? Nee, ze weten niet dat er beter materiaal te krijgen is, of ze willen/kunnen niet meer betalen. Maar het werkt wel, en goed genoeg. Als dat niet zo zou zijn, dan zou 90% van computergebruikend Nederland continue met koppijn zitten.

100 Hz of hoger is wel prettig voor mensen die veel met computers werken, maar de gemiddelde thuisgebruiker zit er niet 10 uur per dag aan.
je hebt gelijk,
het enige waar je koppijn van krijgt zijn dit soort non-discussies.....

Mensen die trouwens vrij snel last hebben van 'geknipper', zullen blijkbaar ook niet onder TL licht kunnen werken... TL lamp knippert met 50 Hz! Tis dan dus nog maar de vraag waar je koppijn van krijgt, van je monitor of van de werkomgeving.....

De auteur van het artikel meent in ieder geval dat hoe meer frames je videokaart per seconde kan produceren, hoe lekkerder jij speelt
Dat hangt niet af van fps (behalve as die errug laag is). Na vijf minuten Quake, merk ik al niks meer van evt. vertragingen, hoekige poppetjes en slechte 'texture-maps', dan ben ik nl. te druk bezig met schieten, springen etc.
FirePower, je vergeet ff 1 ding:
Hoe beter de monitor, hoe hoger de refresh moet zijn!

Klinkt raar?

Zelf heb ik een IIyama thuis en een Nokia op het werk. Daar zie ik wel degelijk verschil tussen 85 en 100 Hz op (bij kantoorwerk, bij bewegende beelden niet hoor).

CRT werkt met oplichtend fosfor. Deze dooft vanzelf weer uit. Daarom moet het beeld meerdere keren per seconden ververst worden.
Een monitor die hoge refreshrates kan draaien moet een snelle forfor hebben, anders krijg je ghosting (het oude beeld blijft nog even staan, of je ziet een soort vegen).

Maar snellere fosfor dooft ook sneller uit, dus om het flikkeren van het beeld (dit is het uitdoven van de fosforpixels totdat ze opnieuw aangeslagen worden) te beperken tot niet waarneembare waardes moet de refresh hoog zijn.

Mijn IIyama kan 60-200 Hz tonen. Dit wel echter niet zeggen dat al deze modes ook bruikbaar zijn.
60 Hz knippert vreselijk, het fosfor is te snel.
Bij 85 is het redelijk, al zie ik een verschil met 100 Hz.
Tussen 100 en 130 Hz zie ik geen verschil.

Hoger gaat mijn videokaart niet, maar ik verwacht ghosting bij 160+ Hz frequenties.

Dit verklaart ook waarom mensen vroeger geen hoofdpijn kregen van hun 60Hz monochrome groene CRT tubes. Die fosfor was extreem traag. En dus ook ongeschikt voor snelle beeldveranderingen.

Kun je het beste vergelijken met TFT schermen van nu. 60Hz geeft een perfect stilstaand beeld (minder trouwens ook, want er is geen refresh). De refresh moet gewoon niet veel lager worden omdat het beeld immers kan wijzigen.
Wanneer ik mijn TFT op het werk (ja, ik heb 2 schermen) op 75 Hz zet, is er duidelijke ghosting te zien).
Mensen die trouwens vrij snel last hebben van 'geknipper', zullen blijkbaar ook niet onder TL licht kunnen werken... TL lamp knippert met 50 Hz!
Inderdaad, het geflikker van een 50Hz TL Lamp vind ik storend. In de praktijk zal dit maar onder bepaalde omstandigheden goed opvallen. Voor TL Lampen doen ze het dan ook normal gezien in paren: eerste lamp rechtstreeks, andere via condensator met ongeveer 90° faseverschuiving op de spanning om een stabieler licht te krijgen met een rimpel van 100Hz (varierend tussen 100% en ongeveer 65% intensiteit) in plaats van een golf van 50Hz (varierend tussen 100% en 0%). Deze waarden die hier voor de intensiteit vermeld staan houden wel geen rekening met de nagloeitijd van de fosforescerende laag ;-)

Meer naar de schermen toe: Verschillende mensen klagen precies dat de normen voor speelbaar en hoofdpijn veranderen... voor de FPS in een game is dat gewoon een kwestie van verwend zijn, maar voor de CRT's geldt dat inderdaad... de oudere schermen hadden namelijk langere nagloeitijden dan de modernere, waardoor een zelfde stabiliteit van het beeld waargenomen werd bij lagere refresh rates. op nieuwere schermen zie ik 75Hz flikkeren, terwijl mijn oude 14" van vroeger stabiel leek op 60Hz (en dit toen ik beide monitoren nog had, dus niet uit gewenning of zo)
Maar een TL-lamp zal toch altijd in 100Hz flikkeren, een sinus gaat tenslotte 2 maal door de nul heen.
een tl gebruikt alleen het positieve (of was het nou het negatieve) deel van de golf en knippert dus 50 x per seconde
nou sorry hoor, maar lager als 200 hertz ga ik niet, ook al de resolutie dan 640x480.
ik krijg echt vette koppijn van 160hertz en lager.
Ik zie hier een hele grote en groffe fout gemaakt worden.

Men haalt hier een framerate en refresh rate door elkaar.
Nou moet men een paar dingen weten wat het menselijk oog betreft.
Een mens ziet het verschil tussen 2 elkaar opvolgende kleuren rood niet, en dan bedoel ik bijvoorbeeld rood nr. 258 en 259 uit een reeks van 512 kleuren rood.
Er is hier geen groen of blauw bij gemengt.
Een mens ziet wel een verschil in helderheid.

Nu heeft de frame rate niets te maken met helderheid maar de refresh rate wel.
De fosfor laag in de monitoren van vandaag de dag beginnen bij een refreshrate van rond de 73Hz net wel/net niet te doven en daar door krijg je een knipperend beeld terwijl je toch een wit scherm van je tekst verwerker voor je neus hebt staan.
Door dit knipperen krijgen sommige mensen hoofdpijn en kan daar mee uitgelegd worden als een heel lichte form van epilepsie.
(De zwaardere gevallen kunnen helemaal niet goed tegen knipperende lampen en dan vooral rood)
Als nu de refreshrate boven de 75Hz is, is dat knipperen op nagenoeg alle monitoren niet meer waar te nemen.

Nadeel hier van is wel dat als men met een frame rate van 250 frames werkt en een refreshrate van 100Hz je eigenlijk geen bal aan die 150 extra frames hebt omdat je dan 2,5 beeltjes per beschrijving van je monitor moet weer geven wat weer kan leiden tot een onscherp beeld.

Een goede conclusie uit het verhaal zou dan ook moeten zijn dat een goede video kaart net zoveel frames per seconde laat zien als dat de verversings frequentie van je monitor is.
Alles wat minder is kan tot een schokkerig beeld leiden en wat meer is geeft geen betere kwaliteit op het scherm weer.
Dat is toch de functie van vertical sync (die iedereen uit heeft staan omdat dat 2 of 3 fps (ingame) scheelt)...
Dat ligt er helemaal aan wat voor monitor je gebruikt...
Hoe hoger de refresh-rate is die de monitor aankan, hoe 'sneller' de coating aan de binnenkant van de beeldbuis is (hoe korter die nagloeit dus).
Heb je een monitor die max 75 Hz kan, dan ziet dat er prima uit... Maar 75 Hz op een monitor die 160 Hz aankan, flikkert heel erg, omdat iedere beeldpunt daar veel korter nagloeit.

Dat mensen dit merken, betekent dat ze wel 'iets' kunnen waarnemen van die hoge refreshrates... maar ik denk dat het meer beperkt is tot de wisselende intensiteit... Een compleet beeld waarnemen is heel wat anders natuurlijk.

Ik denk ook dat die kerel het niet helemaal begrepen heeft. Je kunt niet meer frames zien dan de refreshrate van je monitor is. Dat is fysiek onmogelijk, omdat de monitor die frames simpelweg niet tekent.
Voorzover ik weet is er nog geen monitor die 250 Hz aankan, dus op 250 fps gamen kan niet.
Je haalt die hoge framerates alleen omdat die spellen niet gesynchroniseerd zijn met de straal van de monitor. En DAT kun je wel zien... je ziet dan een lijn waar het oude beeld ophoudt, en het nieuwe beeld begint (bekend als 'tearing').
Dit is inderdaad heel hinderlijk, en hoe hoger de framerate, hoe minder last je ervan hebt.
Maar, gegeven een gesynchroniseerd spel, denk ik dat 50 fps voor iedereen als 'soepel' overkomt. Misschien dat je oog wat getraind kan worden, zodat je je grens kan verleggen tot 60 of 70 ofzo... maar wat die kerel verkondigt, vind ik erg ongeloofwaardig.
De koppijn ook ten gevolge zijn van de straling van de monitor, dit merk je eerder als je in een donkere kamer achter je monitor zit. Met LCD zul je dit veel minder hebben. (8>
lcd heeft ook geen onrustig beeld ;D

dus daarbij heb je idd geen last van de refresh rate =] 60 hz ofzo is idd heel erg koppijn opwekkend op een crt, maar op een lcd/tft niet
Klopt, ik zit hier op m'n werk ook naar 85Hz te kijken en het is een stuk onrustiger aan m'n ogen als wanneer ik thuis naar 100Hz zit te kijken. Komt denk ik ook wel door het verschil dat ik op het werk naar een Dell M770 17" zit te staren en thuis naar een IIyama VMP-450 19".
ik draai op 1152*864 op 100 hz, en mijn broer op 75
ik mrek dat verschil dus wel
van af 85 merk ik het niet meer, omdat ik waarschijnlijk niet beter ''ken/weet''
Ik ervaar idd refreshrates onder de 85 Hz als hinderlijk en onrustig. Maar ik ken ook mensen die kijken rustig naar 60Hz en hebben dat niet eens door.
Het fosfor in oude schermen is trager, waardoor ze langer nagloeien --> minder flikker --> rustiger beeld.

Dat je ze vanuit je ooghoek wel ziet flikkeren heeft te maken met de opbouw van je oog - in het midden vind je vooral de relatief trage elementen die voor scherp (en in kleur) waarnemen zijn, aan de rand juist die elementen die gevoelig zijn voor intensiteitsveranderingen. Staafjes en kegeltjes, maar ik vergeet altijd wat nou precies waarvoor zorgt :-)
't Is allemaal een overblijfsel van je verre voorouders - het kan bijzonder nuttig zijn om te kunnen focussen op een prooi, en toch vanuit je ooghoeken ziet wanneer je concurrenten in de buurt komen :-)

[edit]Shit, dit had dus een reply op 'High quality king' moeten zijn.
In CS heeft men fps limiet op 99fps ingevoerd om de bunnyhopping te voorkomen. |:(
nee dat doe je met sv_airaccelerate 3

weet niet, zit er in ieder geval al wel lang in :)
Ik heb dezelfde ervaringen, ook met collega's die voorheen op 60/75Hz zaten te werken, en dan niet een uurtje of twee per dag, maar de volle 8 uur (koffiebreaks daargelaten ;)

Als je ze dan een paar keer van opzij uit hun ooghoeken naar de monitor laat kijken, en ze dan vraagt of ze nu iets merken, dan schrikken een hoop mensen toch wel...

En als ze dan een weekje op 85+ hebben zitten werken, dan hoor je de dankjewels toch wel voorbij komen... vooral hoofdpijntjes zijn ineens een stuk minder, en de bekende 16:00-oog-knijp-acties zijn ook vaak verdwenen....
En ik heb een collega die nog last heeft van het flikkeren van een 100Mhz scherm...
Je fps zit gekoppeld aan je refreshrate. Waarschijnlijk draai jij windoos 2000/xp en die hebben last van de refresh bug. Hierdoor wordt de refreshrate in games 60 hz. Dus haal je max 60fps. Installeer ff de refreshrate fix. (vind je op t forum). Nu zul je zien dat je fps ook hoger gaat. Wil je hoger dan je refresh rate dan moet je vsync uitzetten. Dit kan echter ook slecht beeld opleveren.
Ik kan ook rustig naar een 60 hz scherm kijken als het een 14 inch scherm is.
Dat is logisch want de vertikale snelheid van de elektonenbundel zal op een groter scherm ook groter zijn dus kan je op een kleiner scherm toe met wat minder. Maar waarschijnlijk komt het eerder doordat een 14" ouder is, en oudere schermen hadden een langere nabrand tijd, waardoor de refresh veel minder opvalt. Als TV's net zo een korte nabrand tijd hadden als een moderne 17" dan zou je helemaal lijp worden van de interlace :)
Mijn oude scherm staat hiernaast en dan beschouw ik de refresh van 60 hz in mijn ooghoek wel als hinderlijk.
Weet iemand hoe dit komt?
Dat komt omdat het menselijk oog niet uniform beweging, scherpte, intensiteit en kleur waarneemt, ieder gebied heeft zijn karakteristieke sterke en zwakke gebieden. Daarbovenop verwerkt je hersenen de signalen ook anders, afhankelijk van waar het in je gezichtsveld zit. Waarschijnlijk is dit ontwikkeld tijdens de evolutie, je wil die sluipende sabeltandtijger goed uit je ooghoeken al aan komen zien (beweging) maar zijn kleur is niet zo belangrijk, als je hem recht in de ogen kijkt speelt dat pas :)
omdat ze meestal niet anders gekend hebben :)
anyway had CS geen framerate limiet op 99fps? met een gef2mx haal je dat al gemakkelijk op 1280x960, dus met een gef2ti zeker en met een gef4 ga je nog steeds evenveel frames hebben :), je kan dan wel stevig gaan antialiasen dat is wel waar...
Standaart staat CS toch op een max fps van 60 ???
Hoewel ik weet dat je het ergens in de console hoger kan zetten. (please tell me How).

Ik kan ook rustig naar een 60 hz scherm kijken als het een 14 inch scherm is. Maar als ik mijn huidige scherm bekijk en in 1280 * 1024 doe ik het niet minder dan voor 85 hz.

Mijn oude scherm staat hiernaast en dan beschouw ik de refresh van 60 hz in mijn ooghoek wel als hinderlijk.

Weet iemand hoe dit komt :?
Zow een 100 mhz scherm dat moet ik ook hebben :+
Als reactie op het verhaal van Musiman....
Is het niet prestatie verhogend voor een pc om bijvoorbeeld per vier beeldjes er drie zwart wit te houden en maar één kleur.
Als ik het goed heb zouden de hersenen dat niet opmerken omdat de kleuren toch langzamer worden ontvangen.
Met als winst dat de pc minder kracht nodig heeft voor het brengen van een snel kleurenbeeld.
Handig bijvoorbeeld voor fps, die hoeven dan de kleurberekening maar op 1/4 van de frames te gebruiken.
Wat ik nou niet snap: een console die gebruikt maakt van het PAL systeem bijvoorbeeld, die levert toch maar 26 fps? Of tenminste, er was iets met PAL en 26 beelden per seconde. Dan loopt dat toch ook niet perfect voor het menselijk oog?
vanaf 20fps zie je een vloeiend beeld, onder de 20fps krijg je een soort dia-show.

maar fps is wel wat anders dan de refreshrate (hz) van je monitor/TV.

fps = hoeveel verschillende beeldjes er op je beeld komen per seconde
hz = hoevaak je beeld vernieuwd wordt per seconde.

heb je bijv. 30fps en een refreshrate van 60hz dan vernieuwd hij je beeld 60x maar je hebt maar 30x een verschillend beeldje. hij laat dan gewoon 2x hetzelfde beeldje zien.

ikzelf krijg last van mijn ogen als ik langdurig achter een PC zit met een refreshrate van minder dan 85hz.


bij TV's zie je ook heel duidelijk verschil tussen 50hz en 100hz. moet je maar eens in een zaak waar ze TV's verkopen het volgende doen:

zoek een 50hz TV en een 100hz TV.
kijk recht naar de 50hz TV en draai dan langzaam je blik opzij; op een gegeven moment zie je in je ooghoek dat de 50hz TV een flikkerend beeld gaat geven. doe je hetzelfde bij de 100hz TV dan zul je zien dat dat beeld gewoon vloeiend blijft.
vanaf 20fps zie je een vloeiend beeld, onder de 20fps krijg je een soort dia-show.
Vanaf 25 frames per seconde is een fotoreeks (video) pas vloeiend (Eigelijk zelfs 1 a 2 tiende minder maar dat rekent zo moeilijk :P)

Een van de duidelijkste voorbeelden van het vershil tussen 24 FPS(net niet vloeiend) en 25 FPS is de film Saving Private Ryan van Steven Spielberg. Hier heeft Spielberg express gekozen voor 24 FPS bij de actie scenes zodat het geheel licht schokkend aanvoelt maar wel goed kijkbaar is.
Ik denk dat dit effect bij heel wat fillems/series gebruikt wordt hoor. Je moet wel goed kijken en het is dikwijls niet waar te nemen , maar het geeft toch een appart effect aan de fillem/serie
Je haalt denk ik twee dingen door elkaar: enerzijds heb je het aantal beelden per seconde waarmee een film op een medium wordt opgenomen, anderzijds het aantal beelden dat geprojecteerd/uitgezonden wordt.

Het aantal beelden dat geprojecteerd wordt in een bioscoop is altijd hetzelfde: 24 FPS (waarbij elk beeld twee maal geprojecteerd, dus 48 "knipperingen"per seconde).

Door middel van de snelheid waarmee de film tijdens het opnemen door de camera loopt kun je effecten veroorzaken. Wanneer je de film langzaam door de camera trekt (dus minder beeldjes per seconde belicht) heeft dit een versneld effect tot resultaat bij de projectie. Wanneer je een film snel door de camera trekt is het resultaat slow-motion.

Voor video/TV geldt dit verschil ook, alleen zijn er meer standaarden (Pal, NTSC, SECAM). En dan heb je ook nog te maken met de frequentie waarmee je monitor knippert.
Volgens mij is de bewering dat 250 frames beter spelen als 150 frames niet juist. En ik basseer mij dan op het omgekeerde van jou stelling:

Stel dat je in een bepaalt spel 120fps haalt en je refresh rate staat maar op 60hz. Dan wilt dit toch ook zeggen dat er 60 frames niet afgebeeld worden ? Je pc heeft in die seconde 120x een scherm doorgestuurd maar je scherm heeft maar 60 schermen kunnen tonen. Ik kan wel aannemen dat je meer dan 60fps wil halen, waarschijnlijk al omdat die fps een gemiddelde waarde is en ook omdat er bepaalde gebieden in levels veel zwaarder zijn dan andere (je hebt dan toch een buffer)

Verder geef ik je ook gelijk van die tv schermen, gewoon het scherm bekijken vanuit je ooghoeken en je zal elk scherm met een refresh rate van onder de 100hz er uit halen.
PAL = 25 fps
NTSC 29 fps (maar wel een lagere resolutie dan PAL)
NTSC = 30.03 fps
Maak er maar 29,97 van.
tja, als je monitor ook een refreshrate van 250 Hz aan zou kunnen heel misschien.

Maar wat deze meneer even vergeet is dat het menselijk oog inderdaad wel in heel korte tijd iets kan zien, maar dat als je dezelfde test als maar herhaald een persoon 't soms wel, soms niet zal zien. Het oog is namelijk niet 'Always on'.

Daarnaast is het zo dat een mens een TL-buis van 100 Herz (en de meeste zelfs 50 HZ) als een constante lichtbron ervaren, en dat zou nog wel eens een meer accuratre benadering kunnen zijn
Moet je met die frame rate natuurlijk wel het aantal hz van je scherm bestrijken, je hebt nix aan 250 FPS met een scherm van 60hz, en vise-versa. Op synchronisatie problemen na geld de laagste waarde van danwel de FPS danwel het aantal HZ van je scherm als het aantal beelden dat je per seconden te zien krijgt (met een lage FPS geld, het aantal veranderende beelden) en zodoende geldt"
De auteur van het artikel meent in ieder geval dat hoe meer frames je videokaart per seconde kan produceren, hoe lekkerder jij speelt:
niet meer als je refresh rate ontoereikend is.
Je kunt het jezelf ook bewijzen dat er wel degelijk verschil is, ook al lijk je het niet te zien.

Voorbeeld.

Ik speelde vroeger vaak MotoRacer. Het spel liep echt gewoon soepel, en op een bepaald circuit haalde ik een tijd van 34 seconden.

Een tijd later kreeg 'n maat van me een nieuwe PC met voodoo-kaart, en daar zag MotoRacer er veel mooier uit! Maar het liep 'op het zicht' even soepel, hoewel ik daar ronden reed van 31 seconden!

Het speelde gewoon makkelijker, achteraf gezien dus door een veel hoger aantal frames per seconde.

Dat is voor mij al bewijs genoeg, en tegenwoordig ga ik echt wel liever voor de 50 fps dan voor een mooi beeld maar 'slechts' 30 fps.
Dit heeft niet zozeer met de framerate te maken maar meer met het feit dat op een snellere computer je voertuig veel directer op jouw input reageert. Op een trage computer zie je pas dat je de bocht te ruim/krap instuurt als het al te laat is, want de computer heeft gewoon wat meer tijd nodig om jouw invoer door te voeren in de situatie op het scherm.

Bij een hogere framerate speelt het natuurlijk wel fijner, maar als je bij een racespel de framerate zou limiteren op een relatief lage waarde zul je op een snellere computer nog steeds betere rondetijden halen.
Dat is dus de latency.

dat zou ook wel eens een factor kunnen spelen. Ik weet uit de heel lage framerate ervaringen dat hij pas een paar frames nadat je stuurt reageert. Dat heeft te maken met buffering: het scherm dat wordt opgebouwd wordt niet getoond, het wordt pas getoond als het klaar is.
Het echte probleem is dat het menselijk oog niet als een film camera werkt, maar een continuproces is. Een film (of game) bestaat uit een serie momentopnamen die achter elkaar worden getoond, wanneer een mens gewoon uit het raam kijkt ziet hij ook een continuproces. Dat zal alleen met extreem hoge framerates (en refreshrates) te compenseren zijn (gebaseerd op dat 1/220e verhaal zou ik aan 1000+ FPS denken)
Het is op zich niet helemaal een continu-proces... Je netvlies bestaat (als ik m'n scheikunde goed begrepen heb... kan ook bio geweest zijn trouwens) uit lichtgevoelige moleculen, die, als er licht op valt, van vorm veranderen (geen idee of 't ook echt reageren is), en dan een elektrisch signaal afgeven. Voordat ze weer werken, moeten ze dan weer terugvallen in hun oude vorm en dat kost tijd. Dus je ziet niet continu... Daarentegen zal er geen vaste 'klok' zijn om dat alles synchroon te laten verlopen, dus effectief zal 't een goede benadering zijn van continu.

Maar ik had ook begrepen dat er ook elementen in je oog (oogzenuw) zijn die niet gevoelig zijn voor "Hier valt een licht op", maar bijvoorbeeld voor "er beweegt iets naar links"... ik zou geen idee hebben hoe dat werkt, maar daar zou 't misschien mee te maken kunnen hebben?

Stiekem weet ik 't gewoon niet :)
Je hebt helemaal gelijk. Die tijden van "blindheid" heten saccades of oogsprongen. Er zijn testen gedaan waarbij mensen naar een stilstaand beeld moesten kijken en die saccades gemonitord werden. Tijdens zo'n oogsprong (tijdelijke blindheid) werden er dan kleine wijzigingen op het beeld doorgevoerd. Aan het einde van de test was het oorspronkelijke beeld dan duidelijk anders dan het eindresultaat. De proefpersonen hadden echter niets gemerkt van de wijzigingen omdat die niet waargenomen was.

Misschien een beetje off-topic, maar wel leuk weetje.
Heb je misschien ook een link naar dat onderzoek? Wel interessant.
Link is niet nodig. Kun je ook zelf doen. Ga voor een spiegel staan. Hou je hooft recht voor de spiegel en beweeg je ogen helemaal naar links (of rechts). Kijk daarna weer in de spiegel.

Heb je je ogen zien bewegen?
mijn monitor staat op 85hz.? Ik geloofde dat het scherm dan 85 keer per seconde word verniewd? Wat heb ik dan aan een framerate van meer dan 85 f/s? Of maak ik nu een denk fout!
Daar heb je dus in weze helemaal niks aan, gezien jij als je zeg maar 2x85 FPS draait de helft van de beelden gewoon niet wordt weergegeven.
Nou ja een gevoel voor humor heeft hij in ieder geval wel. En een leuke start voor een flamewar is gegeven.

Subliminale berichten kunnen gewoon over de TV verzonden worden zonder dat je het daadwerkelijk ziet. Je hersenen registreert het wel maar zien doe je het niet en dat gaat met 30 fps.

Ok verschil is er wel tussen 30 en 60 maar veel hoger dan 60 zal het verschil minimaal tot nul zijn op de PC.
Er zijn ook al spellen geweest die subliminale berichten sturen. en dat was in een oude tijd dat men er ook daadwerkelijk vanuit ging dat 30 fps genoeg was.
Subliminale berichten kunnen gewoon over de TV verzonden worden zonder dat je het daadwerkelijk ziet. Je hersenen registreert het wel maar zien doe je het niet en dat gaat met 30 fps.
25 beelden bij 50 hertz
Even over framerates in games, zou het niet beter zijn als je je framerate zou kunnen 'locken' zeg maar, dus bijvoorbeeld op 100fps als je 100hz(of 200fps o.i.d., welke theorie je maar 'aanhangt' en natuurlijk naar rato van wat voor hardware je hebt) op je monitor kijkt zodat je wel naar een constante framerate kijkt, net als in de bios. ...in plaats van dat ie continu op en neer schiet? Zomaar een idee... gebruik eventueel overtollige cpu-power dan voor details in plaats van andersom...
Bij een statische animatie kun je de volgende frames vooruit renderen, The Castle van Loonies doet dat bijvoorbeeld. Zo kun je dus een dip in framerate opvangen...
Bij een spel is alles dynamisch, dus vooruit rekenen is onmogelijk... Je weet niet wat de spelers gaan doen... overtollige CPU is dus lastig te gebruiken.
Extra detail renderen is ook lastig... Want je weet pas dat je met extra detail kunt renderen als je al klaar bent. Je kunt wel een schatting maken van de CPU die je denkt over te hebben in het volgende frame... en zo kun je een min of meer dynamisch detail-niveau maken... Volgens mij waren er wel spellen die dat deden, maar niet veel... Het lijkt me hinderlijk om het detail op en neer te zien gaan, evenals de framerate :)
(De engine merkt altijd pas te laat dat het detail omlaag moet natuurlijk)

Met vsync heb je iig een goede bovengrens... je moet dan maar zorgen dat je PC snel genoeg is voor het detail-level/resolutie/etc dat je kiest, zodat ie altijd op tijd klaar is met renderen, dan kun je een 'gelockte' framerate krijgen.
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True