Iedereen die weleens een vr-bril op zijn hoofd heeft gehad, is bekend met het screendoor-effect, oftewel het raster dat duidelijk zichtbaar is boven op het scherm, vernoemd naar het Engelse woord voor hordeur. De pixels op het scherm zijn gerangschikt in een grid en rondom elke pixel zit loze ruimte. Hoe meer ruimte, en dus hoe lager de fillrate van de pixels, des te duidelijker het raster zichtbaar is. De oplossing is duidelijk: verhoog de fillrate en het raster verdwijnt. Dat kan door de pixels groter te maken, maar ook door simpelweg meer pixels toe te voegen. De meeste fabrikanten bewandelen op dit moment dat laatste pad.
Voor het bespreken van de scherpte van vr-brillen is het begrip ‘resolutie’ eigenlijk niet geschikt, omdat elke fabrikant met een ander formaat scherm werkt, waardoor de afstand tussen de pixels niet gelijk is. Pixels per inch, de eenheid die we vaak gebruiken bij schermen van bijvoorbeeld smartphones, voldoet ook niet helemaal, omdat de beeldhoek per bril verschilt. We kunnen daarom beter spreken van pixels per graad aan kijkhoek.
De HTC Vive heeft bijvoorbeeld een horizontale resolutie van 1080 pixels en een kijkhoek van 100 graden. Daarmee zijn er dus grofweg 11 pixels per degree, of ppd. Het menselijk oog, of beter gezegd de fovea centralis, het deel in het midden van ons oog dat het meeste detail kan waarnemen, kan boven 60ppd moeilijk de extra details onderscheiden. Het is te kort door de bocht om te zeggen dat de resolutie van het oog vaststaat op 60ppd, maar in de context van vr moet deze resolutie bij de huidige fillrates genoeg zijn om een haarscherp beeld zonder screendoor-effect op te leveren.
Bij een beeldhoek van 100 graden zouden we dan uitkomen op een horizontale resolutie van 6000 pixels. Met de beeldverhouding en afmetingen van de huidige schermen is dat een scherm met 6000x6660 pixels, oftewel 40 megapixel. Ter vergelijking: het scherm in de Vive heeft een resolutie van 1,3 megapixel. En dan hebben we het nog slechts over resolutie per oog; uiteindelijk moet het beeld twee keer berekend worden, zodat de gebruiker diepte kan zien.
Voor een realistisch, haarscherp beeld zullen we het dus een factor dertig beter moeten doen. En dan houdt bovenstaande berekening nog geeneens rekening met grotere kijkhoeken, iets wat zeker ook op ons verlanglijstje thuishoort. Want zolang gebruikers het idee hebben dat ze een helm op hebben die het zicht in de hoeken blokkeert, wordt het nooit realistisch. Met uitzondering van racegames dan.
De kijkhoek van de menselijke ogen laat zich niet eenduidig definiëren, want die bestaat uit twee onderdelen: het monoculaire en het binoculaire gezichtsveld. Dat laatste heeft betrekking op wat we kunnen zien met twee ogen, waarbij we dus diepte waarnemen. Het monoculaire gezichtsveld betreft de uiterste hoeken die maar door een van de ogen worden waargenomen.
Net als bij de resolutie van het oog is er geen eensluidende manier om dit te meten, maar de meeste schattingen vallen ergens tussen 115 en 140 graden voor binoculair zicht. Pakken we die laatste waarde, dan komen we uit op 78 megapixel per oog wat nodig is voor haarscherp zicht, of 9324x8400 pixels, uitgaande van bestaande schermformaten. Die factor 30 is dan opeens een factor 60 geworden.