Dit wordt een beetje erg off topic, maar je bewering is grotendeels onjuist.
Het menselijk oog ziet namelijk helemaal niet in frame rates en dus kan je ook geen aantal frame rates aan het menselijk oog verbinden.
Het oog werkt in combinatie met de hersenen met een
voortdurende stroom van licht en informatie, daar zit geen aantal of grens aan.
Wel is bekend dat redelijk veel mensen bij frame rates die aanzienlijk hoger dan 200 fps liggen, last krijgen van hun ogen of er zelfs hoofdpijn van krijgen, dus je zou kunnen zeggen dat de grens voor veel mensen bij 200 fps ligt, maar dan in wat we ervaren als prettig, en niet zo zeer in wat we eigenlijk maximaal kunnen zien.
Datzelfde geldt voor pixels: aangezien het oog heel veel data op kan vangen zou je kunnen zeggen dat het "miljarden" megapixels kan zien, en soms worden er ook getallen genoemd in de grootte van ruim 300 tot ruim 500 megapixels, maar net zoals met frame rate: zo werkt het oog niet en het ziet deze pixels ook niet tegelijk, maar stuurt ze achter elkaar naar de hersenen, dus die getallen zijn eigenlijk alleen maar hypothetisch.
Denk bijvoorbeeld aan als je ergens buiten staat en je je hoofd langzaam van links naar rechts beweegt en al die beelden opslaat: dat is een optelsom van een groter aantal "megapixels" dan de receptoren in je oog in één beeld zou kunnen verwerken, dus worden ze opgeslagen en samengevoegd en als er bijvoorbeeld "gaten" in zitten, dan vullen de hersenen die ook nog eens voor je op en dan kloppen de getallen eigenlijk al niet meer. Megapixels voor ogen zijn dus eigenlijk puur theoretisch.
Je ziet dus dat het niet zo simpel is om er van die labels op te plakken, simpelweg omdat het niet 1 op 1 te vergelijken is.
Daarnaast zijn ook ieders ogen verschillend, dus dat jij iets wel kan zien, betekent nog niet dat iedereen dat dan maar moet kunnen zien of dat iemand "dan maar eens even naar de dokter moet" (ook een beetje een mindere opmerking terwijl de persoon aan wie je dat richt enkel zijn eigen ervaring en voorkeur aangaf). Daarnaast is persoonlijke voorkeur en wat als prettig wordt ervaren ook van invloed op wat mensen kunnen waarnemen. Ik ken redelijk wat mensen die Full HD namelijk helemaal niet prettig vinden om voor langere tijd naar te kijken.
Een ander voorbeeld: een vriend van mij werkt in Electroworld en daar hebben ze eens een keer een test gedaan met 2 exact gelijke Panasonic Viera TV's, behalve dat de ene Full HD was en de andere HD Ready.
Alle settings op de TV werden gelijk gezet en er werd dezelfde film op afgespeeld. Alle labels en kaartjes met info werden verwijderd en vervolgens werd er een week lang informatie vergaard middels een kleine enquête.
Er zaten vragen tussen zoals: welk beeld vindt u mooier, welk beeld is volgens u scherper en welke van de twee TV's is Full HD.
Het zal je misschien verbazen dat de meeste mensen de HD Ready TV als beste kozen en daaruit blijkt dus dat de gemiddelde TV kijker helemaal geen of te weinig verschil ziet tussen HD en Full HD. Natuurlijk zijn er mensen (wellicht zoals jij) die wel weten waar ze naar moeten kijken of waar ze op moeten letten (er schijnen zelfs mensen te zijn die pixels kunnen tellen) maar die vallen niet onder de gemiddelde kijker.
En daarnaast ligt het ook nog aan de kijkafstand en de grootte van je scherm. Ikzelf heb een 47" full HD plasma scherm en zit ongeveer op drie meter afstand. Als ik dan via mijn Bluray recorder media afspeel van 720p of 1080p zie ik daar alleen met de nodige moeite wat verschil in, maar bijna niet, en hetzelfde geldt bij mij voor gamen.
Sorry voor de lap tekst, maar het onderwerp vroeg er een beetje om. Mocht het je interesseren, dan is hier de info achter het onderzoek omtrent de resolutie van het menselijk oog:
http://www.clarkvision.com/articles/eye-resolution.html
En hier die over frame rates:
http://www.100fps.com/how_many_frames_can_humans_see.htm