Hoewel er in de laatste jaren veel is gebeurd op het gebied van virtual reality en er grote stappen zijn gezet met hardware, beeldkwaliteit en software, zijn er tegelijk nog veel drempels die wijdverspreide adoptie in de weg staan. Zaken als draagcomfort, eenvoud in gebruik, aanbod van software en beeldhoek zijn daar een paar van, maar laten we ook een heel simpele niet vergeten: de prijs. Wil je de mooiste vr-ervaring, dan zul je flink wat geld moeten neerleggen voor een high-end bril en die moeten aansluiten op een zeer krachtige pc. En met de resolutie van brillen, die naar verwachting in de komende jaren alleen maar zal stijgen, zal ook de benodigde rekenkracht verder toenemen.
Het probleem van rekenkracht kent ook een oplossing, of in ieder geval iets dat de pijn kan verzachten. Momenteel worden vr-graphics redelijk dom op het scherm getoverd. Op elk deel van het scherm is evenveel detail te zien, terwijl het menselijk oog helemaal niet in het hele blikveld een gelijke hoeveelheid details ziet. Eigenlijk hoeft er dus alleen in het midden van het blikveld scherp beeld te zijn en mag aan de randen best minder detail worden getoond. De renderingtechniek die daarvan uitgaat, heet foveated rendering en vereist dat een vr-bril over ingebouwde eyetracking beschikt, zodat het beeld op het punt waar de gebruiker kijkt, altijd scherp is.
Tijdens eerdere edities van de CES hebben we al prototypes van vr-brillen gezien die dit ondersteunen, en we weten bijvoorbeeld dat Oculus werkt aan een nieuwe versie van de Rift met eyetracking. De eerste grote fabrikant die deze techniek naar de massa brengt, is echter HTC. Tijdens de CES kondigde de fabrikant een nieuwe variant van de Vive Pro aan die precies weet waar de ogen van de gebruiker zitten en wij konden er al even mee aan de slag.
Weinig veranderd
De Vive Pro Eye is net een Vive Pro, maar dan met eyetracking. Van de buitenkant zie je nauwelijks verschil en ook wat werking en pasvorm betreft, heb je als gebruiker niet door dat je met een nieuwe headset te maken hebt. Kijk je binnenin, dan zie je rondom de lenzen kleine openingen, vermoedelijk om infraroodlicht op de ogen van de gebruiker te schijnen, want zo werken de meeste eyetrackingoplossingen die we tot nu toe hebben gezien. Voorlopig blijft het gissen naar de precieze werking, want HTC wil op dit moment niet in details treden over de techniek. Belangrijker is natuurlijk dát het werkt en dat is zeker het geval. We konden in totaal drie demo's doen die allemaal een aspect toonden van wat mogelijk is als softwareontwikkelaars informatie hebben over de positie van de ogen.
Mooier voor minder
De interessantste was ontwikkeld door het bedrijf Zerolight en liet gebruikers virtueel kennismaken met een auto van BMW. In de demo was het mogelijk de kleur te bepalen en daadwerkelijk in de auto te stappen om het interieur van nabij te bekijken en met de verschillende vakjes, knopjes en opties te spelen. Deze demo, gebouwd in de populaire grafische engine Unity, maakte gebruik van foveated rendering voor hogere beeldkwaliteit. Het stuk beeld recht voor de ogen van de gebruiker werd met negen keer de normale resolutie gerenderd, met een techniek van Nvidia die variable rate shading heet. Dat hogeresolutiebeeld wordt vervolgens teruggeschaald en dankzij die hoge mate van supersampling heeft het eindresultaat minder last van kartelrandjes.
Het deel van het beeld dat op deze manier wordt gerenderd, ligt tussen een kwart en een achtste, wist Zerolight technical director Chris O'Connor ons te vertellen. Daaromheen zit een klein gebied dat met vier keer de normale resolutie wordt berekend en daar weer buiten wordt het beeld gewoon op de resolutie van het beeldpaneel in de Vive-headset gerenderd. Die drie cirkels van verschillende resoluties konden worden geïllustreerd door tijdens de demo een overlay over het beeld te tonen waarmee in kleurvlakken werd aangegeven welk deel met welke scherpte werd getekend. Het was interessant om te zien dat die kleurvlakken constant meebewogen met de kijkrichting van de gebruiker.
/i/2002446242.jpeg?f=imagearticlefull)
Voordat we zelf aan de slag gingen, konden we meekijken op een scherm hoe iemand anders de demo ervoer, dus we wisten hoe het systeem werkte en waar eventuele harde overgangen in resolutie zichtbaar zouden moeten zijn. Toen we de bril zelf ophadden, was hier echter geen spoortje van te ontdekken en we konden geen vertraging opmerken in de werking van het systeem. Tijdens de demo werd een aantal keer gewisseld tussen normale en foveated rendering en daarbij was goed te zien dat in die laatste modus een deel van het beeld scherper was. Wel viel op dat de beperkte kijkhoek van de huidige brillen het effect van deze techniek nog in de weg zit. Vanwege de gebruikte lenzen wordt het beeld van een vr-bril toch al snel wazig als je vanuit je ooghoeken kijkt, waardoor je getraind wordt je hoofd te draaien naar wat je wilt zien. Als het kijkhoekprobleem in de toekomst wordt verkleind, zal het effect van foveated rendering alleen maar toenemen.
Volgens O'Connor heeft deze techniek tot gevolg dat je de extra resolutie kunt inzetten met ongeveer een derde van de rekenkracht die je nodig zou hebben als je het complete beeld op die hoge resolutie zou berekenen. Waar ontwikkelaars natuurlijk ook voor kunnen kiezen, is de beeldkwaliteit in het midden hetzelfde houden, maar aan de randen, waar het niet opvalt, verminderen. Op die manier kun je de beeldkwaliteit gelijkhouden, maar de benodigde rekenkracht significant verlagen. Vooral voor mobiele vr, waar de beschikbare rekenkracht zeer beperkt is, is dat interessant.
Handig voor trainingen
Een tweede demo zette ons in de cockpit van een vliegtuig van Lockheed Martin, waar we aan de hand van audio-instructies een startprocedure moesten doorlopen. Die ging gepaard met het in de juiste volgorde bedienen van verschillende knoppen, wat in deze demo gebeurde door ernaar te kijken. Daarbij was het niet nodig om het hele hoofd te bewegen, zoals dat tot nu toe ging, maar was draaien met de ogen genoeg. Hierbij hebben we de grenzen van het systeem opgezocht door ons hoofd sterk weg te draaien van het object waarnaar we moesten kijken en de ogen juist helemaal de andere kant op te draaien. Zelfs dan wist het systeem onze blik prima te volgen. Volgens de makers kan eyetracking in dit soort trainingssimulaties erg nuttig zijn, doordat instructeurs niet alleen de handelingen van studenten zien, maar ook waar hun aandacht ligt.
De laatste demo was het minst indrukwekkend en gebruikte de eyetracking simpelweg om door menu's te navigeren. In vr-software moet je soms een knop op het scherm selecteren door er een aantal seconden naar te kijken en met de huidige brillen betekent dat dus je hele hoofd draaien zodat de knop in het midden van het blikveld komt. Deze demo liet zien dat dit met eyetracking wat subtieler kan.
Tot slot
Afgaande op de demo's die wij konden ervaren, doet de Vive Pro Eye precies wat je ervan verwacht. Als eindgebruiker merk je niets van wat er onder de motorkap allemaal gebeurt en ondertussen kunnen softwareontwikkelaars de kwaliteit verhogen of de systeemeisen verlagen. Zoals altijd beginnen dit soort vernieuwingen aan de bovenkant van de markt en de Vive Pro Eye is dan ook echt gericht op bedrijven en de meest enthousiaste eindgebruikers. Het feit dat Vive de normale Pro ook blijft verkopen, doet vermoeden dat de Eye-variant wat prijs betreft hier nog boven komt, waarmee het niet ondenkbaar is dat hij meer dan duizend euro gaat kosten.
Hoewel de impact van dit specifieke model op de industrie gering zal zijn, is ermee aangetoond dat foveated rendering werkt en voordeel kan opleveren. Hopelijk vindt deze techniek snel haar weg naar betaalbaardere headsets, want daar is op dit moment de meeste winst te behalen. Wie echt niet kan wachten, kan ergens in het tweede kwartaal van dit jaar een Vive Pro Eye bemachtigen.