Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door Wout Funnekotter

Hoofdredacteur

HTC Vive Pro Eye Preview

Noodzakelijke stap in de evolutie van vr

09-01-2019 • 14:34

105 Linkedin Google+

HTC Vive Pro Eye

Hoewel er in de laatste jaren veel is gebeurd op het gebied van virtual reality en er grote stappen zijn gezet met hardware, beeldkwaliteit en software, zijn er tegelijk nog veel drempels die wijdverspreide adoptie in de weg staan. Zaken als draagcomfort, eenvoud in gebruik, aanbod van software en beeldhoek zijn daar een paar van, maar laten we ook een heel simpele niet vergeten: de prijs. Wil je de mooiste vr-ervaring, dan zul je flink wat geld moeten neerleggen voor een high-end bril en die moeten aansluiten op een zeer krachtige pc. En met de resolutie van brillen, die naar verwachting in de komende jaren alleen maar zal stijgen, zal ook de benodigde rekenkracht verder toenemen.

Het probleem van rekenkracht kent ook een oplossing, of in ieder geval iets dat de pijn kan verzachten. Momenteel worden vr-graphics redelijk dom op het scherm getoverd. Op elk deel van het scherm is evenveel detail te zien, terwijl het menselijk oog helemaal niet in het hele blikveld een gelijke hoeveelheid details ziet. Eigenlijk hoeft er dus alleen in het midden van het blikveld scherp beeld te zijn en mag aan de randen best minder detail worden getoond. De renderingtechniek die daarvan uitgaat, heet foveated rendering en vereist dat een vr-bril over ingebouwde eyetracking beschikt, zodat het beeld op het punt waar de gebruiker kijkt, altijd scherp is.

Tijdens eerdere edities van de CES hebben we al prototypes van vr-brillen gezien die dit ondersteunen, en we weten bijvoorbeeld dat Oculus werkt aan een nieuwe versie van de Rift met eyetracking. De eerste grote fabrikant die deze techniek naar de massa brengt, is echter HTC. Tijdens de CES kondigde de fabrikant een nieuwe variant van de Vive Pro aan die precies weet waar de ogen van de gebruiker zitten en wij konden er al even mee aan de slag.

Weinig veranderd

De Vive Pro Eye is net een Vive Pro, maar dan met eyetracking. Van de buitenkant zie je nauwelijks verschil en ook wat werking en pasvorm betreft, heb je als gebruiker niet door dat je met een nieuwe headset te maken hebt. Kijk je binnenin, dan zie je rondom de lenzen kleine openingen, vermoedelijk om infraroodlicht op de ogen van de gebruiker te schijnen, want zo werken de meeste eyetrackingoplossingen die we tot nu toe hebben gezien. Voorlopig blijft het gissen naar de precieze werking, want HTC wil op dit moment niet in details treden over de techniek. Belangrijker is natuurlijk dát het werkt en dat is zeker het geval. We konden in totaal drie demo's doen die allemaal een aspect toonden van wat mogelijk is als softwareontwikkelaars informatie hebben over de positie van de ogen.

Mooier voor minder

De interessantste was ontwikkeld door het bedrijf Zerolight en liet gebruikers virtueel kennismaken met een auto van BMW. In de demo was het mogelijk de kleur te bepalen en daadwerkelijk in de auto te stappen om het interieur van nabij te bekijken en met de verschillende vakjes, knopjes en opties te spelen. Deze demo, gebouwd in de populaire grafische engine Unity, maakte gebruik van foveated rendering voor hogere beeldkwaliteit. Het stuk beeld recht voor de ogen van de gebruiker werd met negen keer de normale resolutie gerenderd, met een techniek van Nvidia die variable rate shading heet. Dat hogeresolutiebeeld wordt vervolgens teruggeschaald en dankzij die hoge mate van supersampling heeft het eindresultaat minder last van kartelrandjes.

Het deel van het beeld dat op deze manier wordt gerenderd, ligt tussen een kwart en een achtste, wist Zerolight technical director Chris O'Connor ons te vertellen. Daaromheen zit een klein gebied dat met vier keer de normale resolutie wordt berekend en daar weer buiten wordt het beeld gewoon op de resolutie van het beeldpaneel in de Vive-headset gerenderd. Die drie cirkels van verschillende resoluties konden worden geïllustreerd door tijdens de demo een overlay over het beeld te tonen waarmee in kleurvlakken werd aangegeven welk deel met welke scherpte werd getekend. Het was interessant om te zien dat die kleurvlakken constant meebewogen met de kijkrichting van de gebruiker.

De gekleurde vlakken geven de resolutie van het beeld op die plek weer

Voordat we zelf aan de slag gingen, konden we meekijken op een scherm hoe iemand anders de demo ervoer, dus we wisten hoe het systeem werkte en waar eventuele harde overgangen in resolutie zichtbaar zouden moeten zijn. Toen we de bril zelf ophadden, was hier echter geen spoortje van te ontdekken en we konden geen vertraging opmerken in de werking van het systeem. Tijdens de demo werd een aantal keer gewisseld tussen normale en foveated rendering en daarbij was goed te zien dat in die laatste modus een deel van het beeld scherper was. Wel viel op dat de beperkte kijkhoek van de huidige brillen het effect van deze techniek nog in de weg zit. Vanwege de gebruikte lenzen wordt het beeld van een vr-bril toch al snel wazig als je vanuit je ooghoeken kijkt, waardoor je getraind wordt je hoofd te draaien naar wat je wilt zien. Als het kijkhoekprobleem in de toekomst wordt verkleind, zal het effect van foveated rendering alleen maar toenemen.

Volgens O'Connor heeft deze techniek tot gevolg dat je de extra resolutie kunt inzetten met ongeveer een derde van de rekenkracht die je nodig zou hebben als je het complete beeld op die hoge resolutie zou berekenen. Waar ontwikkelaars natuurlijk ook voor kunnen kiezen, is de beeldkwaliteit in het midden hetzelfde houden, maar aan de randen, waar het niet opvalt, verminderen. Op die manier kun je de beeldkwaliteit gelijkhouden, maar de benodigde rekenkracht significant verlagen. Vooral voor mobiele vr, waar de beschikbare rekenkracht zeer beperkt is, is dat interessant.

Handig voor trainingen

Een tweede demo zette ons in de cockpit van een vliegtuig van Lockheed Martin, waar we aan de hand van audio-instructies een startprocedure moesten doorlopen. Die ging gepaard met het in de juiste volgorde bedienen van verschillende knoppen, wat in deze demo gebeurde door ernaar te kijken. Daarbij was het niet nodig om het hele hoofd te bewegen, zoals dat tot nu toe ging, maar was draaien met de ogen genoeg. Hierbij hebben we de grenzen van het systeem opgezocht door ons hoofd sterk weg te draaien van het object waarnaar we moesten kijken en de ogen juist helemaal de andere kant op te draaien. Zelfs dan wist het systeem onze blik prima te volgen. Volgens de makers kan eyetracking in dit soort trainingssimulaties erg nuttig zijn, doordat instructeurs niet alleen de handelingen van studenten zien, maar ook waar hun aandacht ligt.

De laatste demo was het minst indrukwekkend en gebruikte de eyetracking simpelweg om door menu's te navigeren. In vr-software moet je soms een knop op het scherm selecteren door er een aantal seconden naar te kijken en met de huidige brillen betekent dat dus je hele hoofd draaien zodat de knop in het midden van het blikveld komt. Deze demo liet zien dat dit met eyetracking wat subtieler kan.

Tot slot

Afgaande op de demo's die wij konden ervaren, doet de Vive Pro Eye precies wat je ervan verwacht. Als eindgebruiker merk je niets van wat er onder de motorkap allemaal gebeurt en ondertussen kunnen softwareontwikkelaars de kwaliteit verhogen of de systeemeisen verlagen. Zoals altijd beginnen dit soort vernieuwingen aan de bovenkant van de markt en de Vive Pro Eye is dan ook echt gericht op bedrijven en de meest enthousiaste eindgebruikers. Het feit dat Vive de normale Pro ook blijft verkopen, doet vermoeden dat de Eye-variant wat prijs betreft hier nog boven komt, waarmee het niet ondenkbaar is dat hij meer dan duizend euro gaat kosten.

Hoewel de impact van dit specifieke model op de industrie gering zal zijn, is ermee aangetoond dat foveated rendering werkt en voordeel kan opleveren. Hopelijk vindt deze techniek snel haar weg naar betaalbaardere headsets, want daar is op dit moment de meeste winst te behalen. Wie echt niet kan wachten, kan ergens in het tweede kwartaal van dit jaar een Vive Pro Eye bemachtigen.

Reacties (105)

Wijzig sortering
Mooi spul, maar ik merk zelf dat als ik in X-Plane 11 een Vive op zet, dat ik dan de tekst bij de knopjes in de cockpit niet eens kan lezen, omdat ik dan letters zie van 1 of 2 pixels groot. De immersion was daarintegen heel erg gaaf. De resolutie zal echt richting de 4k per oog moeten gaan om het prettig speelbaar te maken.

Het lijkt me awesome als de resolutie flink aantrekt en ik zou daar ook best wel wat geld voor neer willen leggen...

[Reactie gewijzigd door hooibergje op 9 januari 2019 14:49]

En deze techniek is een van de delen die noodzakelijk zijn om brillen met zulke hoge resoluties mogelijk te maken. Natuurlijk moet je de schermpjes ook nog maken, maar daar zijn ze volgens mij al aardig mee op weg. Het probleem is, zonder foveated rendering als je een veel hogere resolutie in een bril stopt dan wat er nu in een Vive of Rift zit, dan heb je enorm veel rendering vermogen nodig om dat aan te sturen. Eigenlijk wil je nog meer dan 4K zelfs, maar dan gaat zelfs een 2080Ti het niet trekken.
Combineer het echter met foveated rendering en het wordt ineens veel haalbaarder.
Met de Vive Pro is tekst al een stuk beter leesbaar.

En wil je richting dezelfde resolutie als de werkelijkheid dan is eye-tracking een must. Dit zou het meest efficiënt werken als het beeldscherm zelf een heel scherp centrum heeft dat steeds op het midden van je netvlies blijft mikken. Het Finse bedrijf Varjo is met een dergelijke oplossing bezig en beweert op deze manier een 70 keer zo hoge resolutie te kunnen bereiken als de huidige VR headsets.

Het gedeelte van je netvlies dat scherp ziet is verbazend klein, dus het scheelt enorm veel rekenkracht om alleen dit gedeelte op heel hoge resolutie te renderen.

De randen van je netvlies zien niet eens kleur overigens.
"4k per oog"

Niet precies: Per oog wil je eigenlijk meer een cirkelvormig scherm, wat dus in de praktijk neerkomt op een bijna 1:1 vierkant scherm. En 4k is meer richting 2:1, waarbij 4k slaat op de horizontale component van de resolutie. Verticaal heb je dan dus 2k pixels, en bij een vierkant scherm dus ook 2k in de breedte.
Ik begrijp het concept, maar het blijft toch een soort zwaktebod: uiteindelijk maakt betere hardware dit soort kunstgrepen altijd overbodig. En eye-tracking kost ook geld, natuurlijk. Lijkt me voor opleiders van piloten wel handig, ja, dat je kunt zien waar ze naar kijken. Voor gamen zie ik hier toch niet zo veel toekomst in (en ze claimen ook gewoon dat dit voornamelijk een zakelijk produkt is).
Sowieso kan je met eye tracking ook in spellen allerlei zaken doen. Alleen al alle ideeën voor horror games met eye tracking zorgen bij mij al voor nachtmerries nog zonder dat het daadwerkelijk bestaat. Stel je voor, een horror spel waarbij ze weten waar je naar kijkt. Waar dingen naar voren springen altijd als je er net niet naar kijkt, of waar de monsters altijd in je ooghoeken zich blijven verstoppen.

Maar daarnaast is eyetracking + foveated rendering geen zwaktebod, maar juist noodzakelijk. En ook efficient. Waarom zou je in hemelsnaam zaken op hoge resolutie willen renderen waar die persoon toch niet naar kijkt? Om de kosten van een IR LEDje en een laag resolutie camera te besparen? Oké, eye tracking is wel iets lastiger dan dat, maar hardware kosten vallen wel mee.

Behalve dat het efficient is, en je dus veel mooiere plaatjes naar kan zetten met dezelfde hardware (of met veel goedkopere hardware af kan. Dan wel wireless streamen, gezien ook daarvoor je veel minder data hoeft over te sturen), is het ook noodzakelijk als VR ooit in de buurt wil komen van een regulier scherm. Laten we heel optimistisch zijn en hopen dat GPUs veel sneller voor een gelijke prijs gaan worden (wat de afgelopen jaren niet gebeurd is). Dan over 8 jaar kunnen we BF5 in al zijn glorie spelen op onze VR bril. Leuk, maar ondertussen spelen we op ons reguliere scherm BF10, die al weer heel veel mooier is. En dat gaat nooit draaien op onze VR brillen. Ja over 15 jaar misschien, maar je blijft die achterstand houden. Immers mijn gewone scherm is een 1440p scherm. Zelfs als je een 2x4k hebt op je VR headset, dan is je effectieve resolutie nog steeds lager dan bij een regulier scherm. Dus het blijft gewoon heel veel zwaarder om te renderen op een VR headset als op een scherm als je geen foveated rendering gebruikt.
Ik denk dat je toch wel eerder richting de 8k moet, wil je een beetje de scherpte evenaren die je gewend bent in het echte leven. Met dit soort resoluties is eye tracking gewoon een must, wil je dit in de komende jaren bereiken.
8k per oog heeft John Carmack ooit gezegd, dan ben je een heel eind.
Ik zie dat ik weer hevig weggemod word, LOL. Toch zou ik mensen willen vragen er eens goed over na te denken, en niet meteen 'ja en amen' te roepen. Het probleem met dit soort foefjes is namelijk, dat je er erg moeilijk vanaf komt. Ik denk bijvoorbeeld aan interlaced video: een tamelijk inferieure techniek, ooit bedacht voor Amerikaanse TV, omdat de hardware van die tijd nog niet volledig progressive materiaal aankon. En van die interlaced shit hebben we, vandaag de dag, nog steeds last (zelfs op blu-ray). In plaats van beeld op deze manier te 'gimpen', zie ik persoonlijk dus toch liever dat er gewoon aan de hardware kant wat vorderingen worden gemaakt.

[Reactie gewijzigd door albatross op 9 januari 2019 15:49]

Maar zou je dan eens inhoudelijk op de problemen in kunnen gaan? Zoals @Nieuwevolger al schreef, 2x4k is meer de ondergrens om er goed uit te zien, maar zal zeker niet het eindstation zijn. Dus laten we zeggen dat we inderdaad op 2x8k uit komen op 90Hz. Terwijl tegen die tijd het gemiddelde PC scherm 1x4k is, en laten we eens optimistisch zijn en stellen dat die ook op 90Hz draait. Dan moet voor de VR headset nog steeds 8x zoveel pixels gerendered worden. Dat betekend dat VR graphics altijd ver blijven achter lopen op reguliere graphics, simpelweg omdat de hardware misschien wel vooruit gaat, maar die gaat ook vooruit voor een regulier spel. Dus relatief gezien blijf je gewoon achter lopen.

Dus je gaat er niet vanaf komen als het er eenmaal is inderdaad. Als eerst omdat het gewoon noodzakelijk is, maar daarnaast, waarom wil je ervan af komen? Het hele idee van foveated rendering is juist dat je het niet ziet.

(Overigens ondertussen zijn de interlaced compressies goed genoeg dat ik eigenlijk niet tot nauwelijks meer artifacts ervan zie. Terwijl de eerste generatie encoders bij elke pan bewegingen enorme hoeveelheden horizontale strepen genereerden).
Ik denk dat je inderdaad minimaal 2x 8K schermen nodig hebt in zo'n VR bril. Op zijn minst. Daar zit de hardware nu nog niet echt, maar geef het een paar jaar, en dan zie ik dat wel gebeuren.
In de praktijk wordt ontwikkeling van GPU power (per Euro) steeds trager. Jij verwacht dan blijkbaar een enorme boost in de komende paar jaar, ik weet niet waar dat op gebaseerd is, maar ik verwacht het niet. Maar zelfs als volgend jaar GPUs 8x zo snel worden (en dan zijn we er nog niet) voor dezelfde prijs, dan blijf je houden dat VR heel ver achter blijft lopen op reguliere spellen als je continue het hele blikveld in de volledige resolutie moet renderen. Ja VR kan dan net zo mooi zijn als regulier nu is, maar reguliere spellen zullen dan nog steeds veel mooier zijn VR spellen.
Vergeet ook niet een veel belangrijkere beperking: content. Render maar eens overtuigende 2 x 8K content in een uitgebreide wereld waarin je ook veel interactie met ieder stukje kunt hebben. De produktiekosten zullen astronomisch zijn.
Dat zullen je ogen echt niet als verschil kunnen waarnemen en als je te realistisch gaan kom je weer op het soap opera effect. Misschien nuttig om eens te kijken.
https://www.youtube.com/watch?v=VxNBiAV4UnM
Nee het gaat inderdaad niet over VR of HMD's maar dan nog gaat het goed in op de werking van de ogen en waarom resolutie ondergeschikt is aan kleur/contrast e.d.
2x 8K is niet nodig om de bovengrens van wat onze ogen kunnen waarnemen te bereiken. Er zijn vroege micro-OLED prototypes beschikbaar welke een effective resolutie mogelijk maken tussen 4K4K en 6K6K per oog. Zelfs met met imperfecties van die prototypes ben je al voorbij het punt waar individuele pixels zichtbaar zijn. De gemiddelde persoon ervaart het "retina" effect waarschijnlijk al rond 3K3K per oog, zelfs met 20/20 vision, en eerder wanneer de content op het scherm beweegt. Veel belangrijker voor de visuele ervaring is de kwaliteit van de optics en de mogelijkheid om de distortion te corrigeren.
Als je in snel tempo realistischere VR wilt, dan kun je niet wachten op de snelheid van de ontwikkeling van de grafische kracht. Foveated Rendering maakt het gewoon mogelijk om veel sneller richting realistische beelden te gaan en niet nog 10 of 20 jaar moeten wachten. Zeker, omdat de resolutie van een VR scherm veel hoger moet zijn dan die van een monitor. Renderen in 8k of zelfs 16k vereist zo veel rekenkracht, dat je er de komende jaren simpelweg de hardware niet voor hebt.

Daarnaast is foveated rendering zo weer uit te zetten en full rendering aan te zetten. Het gaat niet om vooropgenomen formaten zoals het voorbeeld van interlaced beelden.

En als laatste, zoals je zelf ook al aangeeft, is dit voor de zakelijke markt erg handig. Als ik bijvoorbeeld mensen door een virtuele winkel laat lopen om het design te testen, dan kan ik nu meteen tracken waar de mensen naar kijken, waar hun aandacht naar uit gaat. Voor dat soort toepassingen is het ook nog eens erg handig.
Sowieso zijn dit soort optimalisatietechnieken handig: je hebt bijvoorbeeld Terrain dat ook beheerd wordt door games: zoom je uit dan wordt alles low-poly en zoom je in dan krijg je een hoger polygonen count. Om te zeggen dat de hardware maar beter moet dan is ook wat te kort door de bocht.

Door dit soort optimalisatietechnieken kan je daarnaast weer meer doen of meer objecten laten zien die op hun beurt OOK weer geoptimaliseerd worden. Als je dit niet implementeert dan heb je bijvoorbeeld 10 bomen in je level. Gebruik je dit soort optimalisatietechnieken wel dan heb je zomaar 100 bomen in je level. Ook op higher end hardware: dan zou je met die 100 bomen beginnen, maar kan je dankzij optimalisatietechieken 1000 laten zien (bij wijze van). Het scaled altijd mee: mid en high-end en hoger heeft hier altijd baat bij.

Al met al is gamesdevelopment niks meer dan alles met wat karton, kauwgom en plakband de schijn hoog houden dat je in een 3D wereld zit. (Ik zit zelf in games development dus ik ben hier juist dikke fan van).

Edit: typos fiks

[Reactie gewijzigd door Kusanagi op 10 januari 2019 10:47]

Tuurlijk is dit geen zwakte bod, wat voor zin heeft om alle pixels te renderen van objecten waar je niet naar aan het kijken bent? Daarnaast bestaat games renderen z'n beetje alleen maar uit truukjes waardoor je niet onnodig kracht verspilt.
"Tuurlijk is dit geen zwakte bod, wat voor zin heeft om alle pixels te renderen van objecten waar je niet naar aan het kijken bent?"

Omdat je 'focal point', om het maar even in goed Nederlands te zeggen, niet betekent dat de gehele periferie compleet niet waargenomen wordt. Denk dat je dat toch wel gaat zien.
Kijk eens naar een brief, en probeer dan, zonder je ogen te bewegen, de woorden ernaast te lezen.... De woorden zijn dan erg wazig he?

De enige manier om scherp te zien is door met je ogen er recht naar te kijken. Wil je een groot iets scherp zien? dan bewegen je ogen heel snel over het object en maken er dan, in de hersenen, een scherp plaatje van.

Als de tracking van de ogen snel genoeg is, sneller dan een aantal beelden gerendered kan worden, dan werkt deze techniek heel goed.

Ze zetten de pixels niet uit, maar ze zijn minder scherp. maar zelfs dan is het nog scherper dan wat je vanuit je ooghoek ziet. Sterker nog. de randen van de zichtveld zien nauwelijks kleur :X

leuke testjes:
https://www.youtube.com/watch?v=p0RXZPVjJDw
Nu je het over 'focal point' hebt... In het echte leven kijk je naar een object, je past daar op je focus aan zodat, dat scherp verschijnt (en alles op dezelfde focusafstand, ook rondom het object wat je bekijkt) en dat betekent automatisch dat objecten die dichter bij of verder weg staan uit focus zijn. Dat wordt nu blijkbaar nog niet gedaan maar is technisch met eyetracking wel mogelijk. Het is een van de grootste ergernissen van filmbezoekers die 3D wel kunnen kijken maar toch 2D de voorkeur geven.... De regisseur en/of editor bepaald waar het focuspunt ligt, terwijl jij misschien ergens anders naar wil kijken. Hiermee kan je dat probleem (in ieder geval in de situatie waarmee iemand met een eigen 3D bril een bekijkt) oplossen... Zal je overigens wel een kamera(systeem) moeten hebben die materiaal met een grote scherptediepte opneemt. Hopelijk gaat de technologie nog veel verder deze richting op ontwikkeld worden.
Ze halen dan ook niet alles weg uit de periferie, maar gebruiken lagere resoluties daarvoor, wat exact is wat onze ogen ook zelf doen. Periferie = minder lichtgevoelige cellen = minder hog resolutie. Dus geen zwaktebod, maar precies onze realiteit.
en daarnaast, als het je bril 100 euro duurder maakt, maar je pc 500 euro goedkoper is het een winnende situatie natuurlijk.
In het artikel staat toch dat toen ze zagen hoe het werkte ze dachten dat ze het gingen zien. Maar eenmaal in de demo konden ze dit niet waarnemen?


"voordat we zelf aan de slag gingen, konden we meekijken op een scherm hoe iemand anders de demo ervoer, dus we wisten hoe het systeem werkte en waar eventuele harde overgangen in resolutie zichtbaar zouden moeten zijn. Toen we de bril zelf ophadden, was hier echter geen spoortje van te ontdekken en we konden geen vertraging opmerken in de werking van het systeem."
Dat zie je dus niet, want in het echte leven focus je ook maar op een klein deel, de rest is relatief wazig.
Het zwaktebod zin 'em in het feit dat je eye-tracking moet toevoegen (wat ook geld kost) om iets te kunnen bereiken waar je hardware eigenlijk nog niet klaar voor is.

Bovendien, niet iedereen kijkt perfect gefocused naar 1 punt met beide ogen; niet dat mensen nou scheel zijn per se, maar toch.
voor het eerste: Eye tracking is goedkoper dan 3x een RTX 2080TI.... Dus uiteindelijk bespaar je in het hele plaatje geld.

want voor 8K op 90FPS (90fps minimaal voor een fijne beleving van VR) heb je aan 3x een RTX2080ti niet eens genoeg.... dus als je dan inderdaad maar 1/3e van de rekenkracht nodig hebt, of zelfs de helft.... Alle beetjes helpen.

Over de perfecte focus: het gebied is geen punt, maar een circel. Daarbij: mensen die scheel kijken, kijken vaak ook met 1 oog. 1 oog is " dominant" . Als je de eindejaarsconference van Guido Weijers hebt gezien, hij demonstreert het zelfs even. als hij 1 oog dicht doet, gaat zijn open oog recht staan. doet hij vervolgens de ander open, staat die scheef.
Doet die het andersom, dan staat de laatst geopende scheef.

Je hersenen kunnen namelijk niet veel met 2 beelden die niet overlappen. Dus dan maken de hersenen er maar wat nuttigs van.

bron:
https://www.allaboutvision.com/conditions/strabismus.htm
In dat geval is de complete geschiedenis van computer graphics en GPUs een zwaktebod. Wat je nu te zien krijgt bij een AAA titel kan ook de huidige hardware in de verste verte niet echt renderen, het hangt van dit soort trucen aan elkaar.
Erg mooie techniek, en zorgt er dus voor dat met een mindere sterke game-pc ook eindelijk VR goed op 90fps kan draaien, alleen woord deze bril als starter kit extreem duur, aangezien de HTC Vive Pro starter kit al €1400,- kost, wat al veel te duur is, en dan woord de HTC Vive Pro Eye starter kit hoogstwaarschijnlijk +/- €200 duurder.

[Reactie gewijzigd door AmigaWolf op 9 januari 2019 23:40]

Ik begrijp het concept, maar het blijft toch een soort zwaktebod: uiteindelijk maakt betere hardware dit soort kunstgrepen altijd overbodig.
[...]
Zwaktebod, misschien, maar dat is bij alle lossy compressie het geval. Jpeg, hevc, mp3, allemaal een zwaktebod. Stel je voor dat we al die toepassingen lossless zouden moeten doen, we zouden terug gaan naar het stenen tijdperk qua kwaliteitservaring.
Nee, compresse is juist GEEN zwaktebod. Immers, compressie (x264, HEVC, etc, of niet-lossy, zoals DTS-MA) kost behoorlijk veel rekenkracht. Juit uncompressed is een zwaktebod (als je dat zo zou kunnen noemen), aangezien je daarvoor de minste hardware nodig hebt (maar wel weer veel meer opslagruimte, vandaar toch maar compressie).

Maar we dwalen af. :)

[Reactie gewijzigd door albatross op 9 januari 2019 16:39]

De vergelijking tussen foveated rendering en lossy compressie is een interessante. Een lossy audio encoder probeert het beschikbare budget (bits) zo in te zetten dat de meeste bits worden gebruik voor de audio informatie die het meest bijdraagt aan de waargenomen kwaliteit. Foveated rendering doet in principe hetzelfde.

Als je een uur audio wilt opslaan in een bestand van 300 MB dan zal een bestand dat is gecodeerd met een goede lossy audio encoder beter klinken dan een WAV-bestand van dezelfde grootte. Zo ook met foveated rendering: bij een gegeven GPU performance budget zal foveated rendering er beter uit kunnen zien dan conventionele rendering.

Foveated rendering ligt in lijn met talloze andere computer graphics technieken die er naar streven de beschikbare resources daar in te zetten waar ze het meeste bijdragen aan de waargenomen kwaliteit. Denk aan mipmapping of LOD-ing.
De content die je op zo'n bril afspeelt of rendert wordt natuurlijk ook zwaarder met de jaren. Dus aan de claim, van het nodig hebben van slechts 1/3 van de rekenkracht, verandert niks en blijft altijd een voordeel t.o.v. het niet gebruiken van die techniek.
Ach, hoeveel extra performance je over x-jaar ook hebt. Als je daarvan 80% in kunt zetten voor het stukje dat je ziet kan je daar altijd een visuele boost uit krijgen.
We zitten nog HEEEEEEEEL ver af van het punt dat we volledig fotorealistisch kunnen renderen. Dus hoe sterk je de hardware voorlopig ook maakt, foveated rendering zorgt er altijd voor dat je meer detail kunt tonen dan zonder.
Bovendien kan het er ook voor zorgen dat je potentieel met mobiele hardware al genoeg hebt, waardoor ook standalone brillen goede ervaringen neer kunnen zetten.
Ik begrijp het concept, maar het blijft toch een soort zwaktebod: uiteindelijk maakt betere hardware dit soort kunstgrepen altijd overbodig.
Dat is een vrij domme manier om er naar te kijken: uiteindelijk is het enige wat er toe doet de subjectieve kwaliteit: hoe goed lijkt het beeld voor de gebruiker? Als je het kwaliteitsverlies letterlijk niet ziet, waarom zou je die extra rekenkracht dan stoppen in stukjes beeld waar je de toegevoegde kwaliteit toch niet ziet?

De vrijgekomen capaciteit kan dan weer gestopt worden in meer details (betere lichteffecten, betere textures, betere 3d modellen, hogere resolutie, hogere framerate), wat de uiteindelijke ervaring allemaal ten goede komt. Of: stroombesparing, zodat mobiele VR langer mogelijk is zonder de nood je toestel op te laden.

tot het moment dat je zeg maar 120 fps 8K kan renderen met raytracing, en dat zonder noemenswaardig stroomverbruik, blijft foveated rendering extreem nuttig: je ruilt iets in dat subejctief neit merkbaar is voor voordelen die wel merkbaar zijn.
Nee, ik zie dit niet als een zwaktebod. Ik zie dit als één van de noodzakelijke ontwikkelingen en wat dat betreft is het jammer dat HTC deze HMD in een hoger segment wil neerzetten - zo komen we nooit ergens op de consumentenmarkt. Wat dat betreft dus twee stappen voorwaarts en eentje terug. HTC heeft zich dat kennelijk ook gerealiseerd en probeert het niet eens meer.

Als het over GPUs gaat hoor je mensen vaak roepen 'dit is een 1080p / 1440p / 4K kaart'. News flash: die kaarten bestaan niet. Naarmate de tijd vordert wordt software zwaarder ongeacht resolutie. Meer assets, meer detail, hogere texturekwaliteit, enz enz enz. VR moest tot nu toe echte top-end hardware achter zich hebben staan om een goede ervaring te kunnen bieden. Met foveated rendering op hardware niveau kun je zeggen dat dat nu over de gehele linie flink wordt gereduceerd. En het is een optie; dus als je wél maximale kwaliteit wil, dan kan dat. Win-win dus.

Blijft nog over de headset zelf; te log, te zwaar, te aanwezig. Zodra dat een Google Glass achtig apparaatje gaat worden, praten we weer verder over de massa's consumenten die gaan overstappen ;)

VR heeft zijn kans gehad, heeft zijn hype gehad, en het lijkt me duidelijk: dit is geen product voor in de huiskamer in zijn huidige vorm. Ook voor gaming is de tendens volledig tégen VR; immersive singleplayer, waar VR de grootste meerwaarde biedt, is niet bepaald een groeimarkt en VR leent zich totaal niet voor E-sports achtige games. Dus ja, zakelijk. Zeker weten. Altijd al geroepen :)

[Reactie gewijzigd door Vayra op 9 januari 2019 15:54]

Wie zegt dat VR een massa product moet worden of niet geschikt voor e sports is mag terug de schoolbanken in en eventjes wat beter onderzoek doen. Heb je ooit wel eens zon bril gehad ?
Op dit moment vult VR namelijk wel degelijk niche markten in. Bijvoorbeeld vlieg en race simulators. Je wilt niet weten hoeveel impact VR hier heeft. Bijna iedere sim fanaat heeft of wacht op de perfecte VR bril. Zelfs Max Verstappen rijdt ermee. De verschillende niche markten hebben ook een grote community met mensen die de middelen hebben om altijd de laatste hardware te hebben. Deze markten zijn groot genoeg voor partijen als vive, pimaxvr etc om premium producten te ontwikkelen.
Of het ooit voor de massa gaat komen is niet relevant op dit moment voor de meeste partijen.
Juist voor gamen is dit ook echt waar het heen moet.
Resolutie van VR headsets moet nog flink omhoog om de pixels helemaal niet meer te kunnen zien.
Als je straks op 4k en 120hz zit en ook nog beetje flinke visuals wil pushen dan is dit op huidige hardware onmogelijk (zelfs met een 2080ti) Als je hiervoor slechts 1/3e van de renderkracht hoeft te gebruiken dan wordt het ineens makkelijk haalbaar, ook op iets minder krachtige hardware.
Dit maakt het mogelijk om normale pc games makkelijker te porten naar VR, aangezien je ze niet gigantisch hoeft te downgraden in visuals om een beetje te laten draaien.
Heb je weleens gekeken naar de pimaxvr 5k en 8k? In de simracer community word met name de 5k versie geprezen om de scherpte en vooral de enorme fov. Je hebt wel minimaal 2080ti nodig om beetje performance te hebben. Persoonlijk vind ik dit wel een next gen headset. Helaas geen eyetracking
Ik begrijp het concept, maar het blijft toch een soort zwaktebod: uiteindelijk maakt betere hardware dit soort kunstgrepen altijd overbodig.
De kracht ervan is dat eyetracking nu al beschikbaar is, maar die betere hardware niet.
En eye-tracking kost ook geld, natuurlijk.
Aanzienlijk minder dan de betere hardware die het overbodig zou maken.

[/quote]Voor gamen zie ik hier toch niet zo veel toekomst in [quote]

Ook bij gamen is het nuttig om daar waar het nodig is zeer hoge resolutie weer te geven, en tegelijk een hoge framerate te hebben doordat het totaal aantal pixels dat moet worden gerenderd aanzienlijk lager is dan zonder deze truuk mogelijk zou zijn.
Onzin zeg. Dit is gewoon een vorm van optimalisatie. In hardware en software ben je continu bezig met het zoeken naar optimalisaties. Als je daarmee procenten in snelheid kan realiseren zonder noemenswaardig verlies. Gelijk doen dan.
uiteindelijk maakt betere hardware dit soort kunstgrepen altijd overbodig
Dat is onzin, want het kan altijd mooier. Liever dat die hardware zich 100% focus op die 33% het mooiste mogelijk maken, ipv het hele scherm (dat je niet gebruikt)
Ik begrijp het concept, maar het blijft toch een soort zwaktebod: uiteindelijk maakt betere hardware dit soort kunstgrepen altijd overbodig. En eye-tracking kost ook geld, natuurlijk. Lijkt me voor opleiders van piloten wel handig, ja, dat je kunt zien waar ze naar kijken. Voor gamen zie ik hier toch niet zo veel toekomst in (en ze claimen ook gewoon dat dit voornamelijk een zakelijk produkt is).
Eye-tracking is toch juist briljant? Als je in het dagelijks leven rondkijkt, focus je ook alleen op een heel klein stukje van je beeld, de rest is out of focus. Met eye-tracking kun je bepalen waar de gebruiker naar kijkt en dat in focus weergeven. Daar hoeft de game-maker dan niet meer over na te denken: de soft- en hardware nemen dat voor hun rekening.

En zolang er 3D-gaming bestaat, zijn computers te traag voor gamers. Het is nog lang niet mooi genoeg, dus alles wat gedaan kan worden om een flinke stap te maken zonder veel geld uit te geven aan een nieuwe GPU, is wat mij betreft welkom.
Vanwege de gebruikte lenzen wordt het beeld van een vr-bril toch al snel wazig als je vanuit je ooghoeken kijkt, waardoor je getraind wordt je hoofd te draaien naar wat je wilt zien.
En dus nog steeds een halfbakken oplossing, precies hetzelfde probleem met de sweetspot van je ogen precies voor de lens te hebben. Elke zoveel maanden toch weer even de VR aanslingeren, maar na max halfuurtje toch alweer zat.

Eyetracking lijkt me trouwens in veel gevallen zelfs irritant werken, de snelheid waarmee ik normaal het scherm scan bij shooters, racers of dergelijke, als het systeem zich continue daarop aanpast, wordt je ook niet vrolijk van.
VR headsets werken meestal op een 90Hz. Dus elke 11ms worden de frames geupdate. Ik geloof niet dat jij niet alleen je ogen sneller kan bewegen dan dat, maar ook nog eens bewust nauwkeurig kan zien wat er gebeurd. Als ik nu bijvoorbeeld mijn ogen zo snel mogelijk van mijn ene naar mijn andere scherm draai, dan zit er nog een halve seconde ofzo tussen dat mijn ogen gedraaid zijn en dat ik daadwerkelijk kan lezen wat er op mijn andere scherm staat.
Je krijgt dan wel een +2, maar de gehele high refresh monitor wereld spreekt je tegen. Je ogen kunnen prima waarnemen of een beeldje 4, 2 of 1 ms op dezelfde plek blijft staan. Dat heet 'persistence'. Al wordt het tussen 2 of 1ms wel heel lastig. Maar 4 en 2? Dat kan bijna iedereen zien.

https://www.blurbusters.com/persistence-vs-motion-blur/

https://www.testufo.com/eyetracking#pattern=stars

Volg het ufo'tje en opeens ziet de wereld er heel anders uit als wanneer je je ogen op één vaste plek richt. Voeg een strobing backlight toe en het hele patroon achter de ufo wordt compleet anders. Dat zijn zaken die binnen enkele milliseconden worden geupdate. De ufo kunnen volgen betekent direct ook dat je ogen dus zo snel kunnen bewegen - of beweging kunnen registreren.

[Reactie gewijzigd door Vayra op 9 januari 2019 16:01]

Dat is een compleet andere situatie dan foveated rendering, dus ik begrijp niet echt waarom je dat erbij haalt.
Ja? Dus? Ik begrijp volgens mij niet echt je punt. Die refresh rate is 90Hz, dat zal de komende jaren niet veranderen (is mijn verwachting). Dat hogere refresh rate leuk is zal ik ook nooit ontkennen. Maar ik begrijp niet waarom je zou denken dat dat niet genoeg is voor foveated rendering. Denk jij dat je binnen 11ms je ogen naar een compleet ander gedeelte van je blikveld kan draaien en daar direct scherp kan zien? Ik kan dat niet iig, en dat kan ik zo reproduceren hier achter mijn bureau.

Dingen zoals jouw voorbeeld, waarbij je een bewegend object volgt over een scherm heen, hebben niks met foveated rendering te maken, en dat zal daar dan ook geen enkele invloed op hebben.
Foveated rendering gaat specifiek over een hogere render resolutie in het midden van je blikveld, dus dit gaat expliciet over het volgen van objecten op een beeldscherm (en vice versa). Dat doe je niet in stapjes van 11ms, dus ja, foveated rendering met een 11ms refresh is gemakkelijk waar te nemen, net zoals je die ufo scherp gaat zien op het moment dat je een strobe van 240hz gebruikt versus een 90hz paneel dat geen strobe heeft.

Jij richt je op het focussen op een 'nieuw' object op een andere plek, maar in bijvoorbeeld een simulatie werkt dat niet helemaal zo en scherpstellen doe je ook niet op een plat beeldscherm - daarom worden onze kinderen zo vroeg bijziend van het tabletgebruik. Het is meestal zelfs zo dat wanneer je je op een nieuw object gaat richten, even knipperen met de ogen zorgt voor de scherpte en het snel waarnemen van dat nieuwe beeld. Heel vergelijkbaar met een strobe. Je maakt 'een foto'. Ik durf de weddenschap wel aan dat hoe langer je foveated rendering gebruikt, des te meer artifacts van de lage render resolutie je gaat zien. Het is zeker niet slecht, 11ms, maar onzichtbaar? Dat is jezelf voor de gek houden. (Zijn we - en onze ogen - ook heel erg goed in)

[Reactie gewijzigd door Vayra op 9 januari 2019 16:20]

Dit gaat inderdaad over het volgen van objecten in je blikveld, maar er is hier een marge. Hetgeen naar jij kijkt is altijd scherp. Niet alleen dat, daaromheen is een marge ingebouwd waar ook alles scherp is. Dus alle bewegingen daarin zijn altijd scherp. Pas als jij binnen 11ms zover je ogen beweegt dat je buiten het gebied komt wat scherp wordt gerendered, zou je in theorie iets kunnen zien. En 11ms is heel erg kort! Maar als je zo snel je ogen beweegt zit er ook altijd weer wat tijd bij die je nodig hebt om opnieuw scherp te stellen en te bevatten waar je nu naar kijkt.

Laten we kijken puur naar de theorie. Je kan als absoluut maximum over grote afstanden 900 graden per seconde draaien (https://en.wikipedia.org/wiki/Saccade#Timing_and_kinematics). Dus in een 10ms kan je 9 graden draaien. Dat is al niet heel veel, maar dan ben je dus aan het draaien, je gaat neem ik aan niet beweren dat als jij je ogen zo snel mogelijk van links naar rechts beweegt, je tijdens de beweging alles scherp blijft zien. Bij zo snel mogelijk 10 graden draaien, gaat het al over nog maar 300 graden per seconde. Dus in 10ms heb je het over een 3 graden draai. Goede kans dat dat sowieso nog in de marge valt die gebruikt wordt bij foveated rendering. En zelfs als dat er niet in valt, dan is het dus 10ms later scherp. Ik durf die weddenschap ook wel aan dat jij het niet merkt als iets 10ms nadat je er volle snelheid naar toe hebt gedraaid met je ogen pas scherp is.
Interessant, en ja, hier zit zeker wat in. Thanks
Dat het scherm elke 11ms ververst wordt betekent niet dat ook de resolutie in diezelfde tijd aangepast wordt. Eerst moet de motionsensor detecteren dat je oog van richting verandert, die moet het doorsturen naar de cpu of misschien een chip in de headset, die moet dan de nieuwe resoluties berekenen en uiteindelijk terugsturen naar de schermpjes in de headset. Ik geloof nooit dat dat in één frame kan.
Het hoeft ook niet binnen 1 frame, het moet binnen de tijd dat je oog van het midden van het scherpe deel naar de rand van het scherpe deel gaat.

De grootte van het scherpe deel is zo gekozen, dat je hoe snel je je ogen ook beweegt er altijd genoeg tijd is om het gehele beeld bij te werken.
Klopt dat dat niet hetzelfde is. Maar je heb geen bijzonder hoog resolutie camera hiervoor nodig, dus die kan probleemloos op een hogere snelheid dan 90Hz worden uitgelezen. Doorsturen naar je CPU is niks anders wat momenteel al lang moet gebeuren met de reguliere headset tracking. Nieuwe resoluties berekenen en aan de GPU doorgeven? Zelfs een Arduino kan dat makkelijk in minder dan een milliseconde.
Eye tracking zal met name gebruikt worden voor foveated rendering en depth of field. Alle andere zaken zoals cursor besturing is op dit moment nog niet echt succesvol. Wie weet in de toekomst.
Ah ik dacht dat je bedoelde bij foveated rendering. Je wil niet permanent een cursor in beeld waar je naar kijkt inderdaad, maar ik verwacht ook niet dat dat ooit zal gebeuren. Ja misschien zal je bij sommige spellen door ergens naar te kijken iets kunnen activeren, maar ik kan me echt niet voorstellen dat bijvoorbeeld een vizier van je wapen je ogen volgt. (Nou ja, zullen vast spellen komen die dat doen, maar veruit merendeel zal gewoon motion tracked controllers gebruiken).
En dus nog steeds een halfbakken oplossing
Dat het beeld in de ooghoeken wazig wordt, komt niet door de foveated rendering, maar door de kleine beeldhoek. Dit betekent niet dat de foveated rendering een halfbakken oplossing is, maar juist een benodigde stap, zeker als we in de toekomst VR-systemen met grotere kijkhoeken krijgen.
Elke zoveel maanden toch weer even de VR aanslingeren, maar na max halfuurtje toch alweer zat.
Misschien speel je niet de juiste spellen. Vooral in de steam library staat heel veel troep tussen de pareltjes. Dat betekent niet dat ze er niet zijn. Ik heb laatst bijvoorbeeld Chronos uitgespeeld. Een Zelda-achtig spel met hele mooie graphics, leuke gameplay, en het duurt lang voordat 'ie uitgespeeld is. De meeste spellen zijn inderdaad gimmick-spellen die je na een half uurtje nooit meer speelt. Maar dat betekent niet dat VR-spellen altijd maar kort leuk blijven. Chronos heb ik urenlang kunnen spelen zonder me te vervelen.
Eyetracking lijkt me trouwens in veel gevallen zelfs irritant werken, de snelheid waarmee ik normaal het scherm scan bij shooters, racers of dergelijke, als het systeem zich continue daarop aanpast, wordt je ook niet vrolijk van.
Zoals Sissors al zei, je overschat de combinatie van de snelheid van je ogen en de verwerkingskracht van je brein.

[edit;typo]

[Reactie gewijzigd door [Floris] op 9 januari 2019 15:49]

Ik heb het ook niet over de foveated rendering, maar over de uberhaubt gelimiteerd 'oogbeweging' die je kan maken. De resolutie/kwaliteit aanpassen obv de focus die jij hebt is beperkt door de enorm lage FoV an sich. Andere woorden, dit is een techniek voor een probleem wat nog geen oplossing heeft.

Natuurlijk kan foveated rendering ook werken als hele probleem van FoV is opgelost, maar dit moment heeft tracking an sich weinig toegevoegde waarde en kan het renderen nagenoeg altijd vanuit centerpunt worden gedaan omdat je oog-vrijheid marginaal is (omdat het daarbuiten al vrij snel blurry is).

Ik speel bar weinig VR spellen, het is in principe enkel racegames waar ik de VR voor heb gekocht, de rest van de games zitten grotendeels in 'gimmick' segment, die bieden voor mij geen meerwaarde dan gewoon voor een PC scherm te gaan zitten (sterker nog, ik overweeg nu eerder tripple monitor setup te nemen dan verder in VR te gaan, mijn gevoel geeft een absoluut ~150graden beeld meer 'immersion' dan het duikbril racen).
Als je in racegames zit zoals ik moet je misschien eens kijken naar de pimaxvr. De fov is 170 graden. Het is echt bizar als je vanuit een rift of vive komt.
Eyetracking lijkt me trouwens in veel gevallen zelfs irritant werken, de snelheid waarmee ik normaal het scherm scan bij shooters, racers of dergelijke, als het systeem zich continue daarop aanpast, wordt je ook niet vrolijk van.
Het doel (waar ze kennelijk nu al dicht in de buurt komen) is nu juist dat die aanpassing niet merkbaar is, maar wel effectief een hoge resolutie en framerate mogelijk maakt dmv relatief bescheiden render hardware.
Bedankt voor de uitgebreide coverage!

Echter is de (sub-) titel naar mijn mening verkeerd uitgedrukt.
Eyetracking en foveated rendering (plus ook variable rate shading, niet vergeten!) zijn noodzakelijk voor VR. Absoluut.
De Vive implementatie echter? Nope. Dit is geen oplossing die VR goedkoper zal maken. Dit is geen device dat aantrekkelijk is voor een instapper. Ik denk aan een prijs die niet ver van de 1000€ zal liggen hiervoor, voor énkel de HMD.

Nogmaals, ja, de technologie is super belangrijk. Maar ik kijk echt niet naar HTC om er wat mee te gaan doen. Zeker niet met hun headset die nog steeds blijft steken in het verleden met lage FOV, controllers die ook al lang voorbijgestreefd zijn, ...

Kijken we bijvoorbeeld naar Pimax die nu ook op CES hun eye tracking demo'en... Akkoord, ook dat zal niet goedkoop zijn, de 5K+, hun goedkoopste model is ook nog steeds 700€. Maar die is dan wel noemenswaardig beter dan de vive pro.

Mijn punt is dat dit artikel een beetje tegenstrijdig is. Enerzijds wordt aangehaald dat eye tracking een must is om kosten van VR naar beneden te halen. Maar anderzijds hebben we het hier over de Vive Pro... die helemaal niet goedkoop is.
Je moet dit zien als de Tesla Roadster die nodig was om de Model S mogelijk te maken, die nodig was om de Model 3 mogelijk te maken. En de Model 3 is ook weer een opstap naar de echte betaalbare Tesla.

De noodzaak van dit toestel is dus tweezijdig: de techniek is noodzakelijk, maar het is ook financieel noodzakelijk om die techniek van de high-end naar de mid- en low-end te laten druppelen.
Da's waar, maar sinds de originele Vive heeft HTC uitermate geen moeite gedaan om een headset te maken die niet op enterprise gericht is. Plus moet je nu ook hiervoor een volledig nieuwe headset aanschaffen als je dit wilt. i.p.v. een aparte module die je kan kopen als je wil. (zoals dit bij Pimax het geval is)
De vive cosmos is gericht op consument. Maar dat is dan meer een budget model.

HTC moet het hebben van de marges die ze maken per verkochte headset, aangezien hun eigen online store vive port niet zo populair is. Daarom dat bijvoorbeeld ook Oculus vanaf het begin zijn eigen store zit te pushen. Dat is ook de reden dat de PSVR veel goedkoper kan worden aangeboden en valt er voor Sony als nog geld te verdienen.

Op het moment gaan heel veel inkomsten uit de PCVR markt naar Valve, terwijl andere partijen de grote investeringen maken. Het lijkt dan voor mij op het moment dat Valve de enige is die de PCVR markt echt kan laten groeien met een eigen VR headset.
Da's inderdaad een goed punt. Ik kijk dan ook enorm uit naar wat Valve gaat doen met hun hmd en zeker ook knuckles, om hun games in ontwikkeling niet te vergeten...
700 voor de pimaxvr. Maar wel zonder tracking . Je moet dus nog een vive basis station kopen.
Je vergeet wel even dat die $699 EXCLUSIEF tracking/controllers/BTW is, dus puur de headset alleen.
Neen, dat was ik niet vergeten. Ik maakte dan ook een apples to apples vergelijking tussen Vive Pro ( 800 eur enkel hmd) en pimax 5k+(700 eur enkel hmd) maar waarbij de Pimax beduidend betere specs heeft en ook modulair is.

Bij je vive Pro ben je mooi 1300 eur kwijt als je de full pack wil... Om maar te zeggen dat ze recent echt niet hun pijlen richten op zelfs "prosumers"
Mooie ontwikkeling op het gebied van VR. Misschien ook iets wat ze bij de PS VR voor de PS5 mee moeten gaan nemen (hopelijk wel :)).

Ik vraag me wel af of het constant beschijnen van je ogen met infraroodlicht iets doet met je ogen/netvlies. Is hier al onderzoek naar gedaan?
Ik ga er even van uit dat de hoeveelheid infrarood hier heel weinig is.
Als je naar buiten kijkt worden je ogen ook constant met infrarood beschenen. Alle warmtebronnen stralen infrarood, dus ook zonlicht, de open haard, en menselijke lichamen.
Ik gok van wel ja: https://www.google.com/se...&sourceid=chrome&ie=UTF-8

In principe valt er natuurlijk constant licht op je oog, of dat nu zichtbaar is of infrarood maakt weinig uit. Het relevante verschil is wel dat infrarood ligt niet de standaard beveiliging van je oog in werking stelt als het te fel is. Dus ze zullen niet een infrarood zaklamp op je ogen kunnen richten, maar hier is genoeg over bekend dat ik ervan uit ga dat dat wil goed zit.
Hebben ze nou de scherptediepte dat je altijd een cirkel scherp ziet en daar buiten onscherp? Of is het ook zo ontwikkeld dat het spel ziet als je bijvoorbeeld je hand 10 cm voor je "gezicht" houdt en hier naar kijkt dat de achtergrond dan ook onscherp wordt zoals in het echt?
Nee, dit heeft daar niets mee te maken. Je kunt alleen scherp zien met het "midden" van je oogbol. Dus waar je recht naar kijkt. De rest wordt in een lagere resolutie gerenderd omdat je met de zijkanten van je oogbol toch al niet scherp ziet.

Je hebt misschien wel het idee dat je hele blikveld haarscherp is in het dagelijkse leven, maar dat is een truukje van je hersenen.

https://kevinbinz.files.w...l-vision-lena-example.png

[Reactie gewijzigd door DarthSjaak op 9 januari 2019 15:14]

Met eye-tracking kan je ook bepalen op welke afstand je ogen mikken, dus je kan dan een scherptediepte effect berekenen dat ongeveer klopt met de werkelijkheid. Probleem is dat je de displays van de VR bril scherp ziet als je op een vaste afstand focust (dus niet op dezelfde plek als waar je ogen op richten). Als je dichtbij focust dan zie je de schermen niet meer scherp. Oculus is bezig met het ontwikkelen van een Focal Surface Display dat dit probleem gedeeltelijk zou moeten ondervangen.

Overigens als de displays lightfield displays zouden zijn dan zou je netjes kunnen focussen op wat dan ook en wordt alles netjes blurry op andere dieptes, zoals het hoort. Het vergt echter enorm veel rekenkracht om lightfields te berekenen, hier zou foveated rendering ook enorm helpen.
Met eye-tracking kan je ook bepalen op welke afstand je ogen mikken, dus je kan dan een scherptediepte effect berekenen dat ongeveer klopt met de werkelijkheid.
Dat durf ik al te betwijfelen. Het is vrij gemakkelijk (want visueel) te bepalen waar een oog naar kijkt. Echter bepalen waar het oog op focust is al een pak moeilijker, want je moet dan eigenlijk al de bolling van de ooglens gaan bepalen. Het zal wellicht wel mogelijk zijn, net zoals wij soms wel aan iemand kunnen zien dat hij eigenlijk gewoon op oneindig aan het staren is ipv naar jou aan het kijken, maar evident is het geenszins.

EDIT: wat wél kan, en misschien was het zelfs dat dat je bedoelde, is dat door eye-tracking de software kan weten naar wat je juist kijkt op het beeld en dan zelf uiteraard wél weet wat de (virtuele) afstand van dat object is, en daarop dan de hele scene correct kan blurren.

Maar zoals je terecht al aanhaalt, zou het ook helemaal niet werken omdat we met de huidige VR brillen sowieso op een vaste afstand focussen, namelijk de (optische) afstand tot het beeldscherm.

[Reactie gewijzigd door Twixie op 9 januari 2019 17:26]

Het is juist heel goed te doen. Onze ogen focussen altijd automatisch (tenzij je gaat staren idd) op het centreer punt van rechter of linker pupil. Onze ogen schatten afstand in aan de hand van twee 2d plaatjes. We hebben geen lasers die afstand bepalen.

Als je eens naar de rand van je smartphone kijkt en probeer dan te focussen op de achtergrond. Dat lukt niet zonder je pupil te bewegen . je kan ook niet op een raam focussen zonder dat er iets op het glas zit. De vraag is wel wat voor resolutie de eyetracker heeft, of het beide ogen kan tracken en of de software ook focussnelheid van mensen kan emuleren om het realistisch te laten overkomen.
Dat de eye tracking handig gebruikt kan worden om een interface mee te bedienen, daar kan ik inkomen. Dat eye tracking + foveated rendering minder vereist van je GPU en je (dus) met een mindere GPU kunt werken, dat wordt wel volkomen gecompenseerd door de meerprijs van de bril.

[Reactie gewijzigd door SnoeiKoei op 9 januari 2019 14:55]

Erg kleine lensjes vergeleken met de oude Vive, minder FOV?
Wat een fail van HTC, die flightsim hadden ze met DCS, oftwel digitalcombatsimultor.com moeten demonstreren. Een wereld van verschil qua kwaliteit ivm P3d die ze hier hebben gebruikt.
En ja dat Lockheed (maker van P3d) dit gebruikt voor onderzoek geeft de Eye natuurlijk wel weer extra boost voor de Eye versie. Maar om te demo-en is DCS toch echt de beste sim.
DCS is/wordt geoptimaliseerd voor VR, en zeker voor deze sim is VR de toekomst.
Ik heb zelf de Rift gehad, en die viel vies tegen qua resolutie, displays e.d. waren zonder zoom niet te lezen. Ik hoop dat met deze HTC Vive Eye de resolutie voldoende is. Fingers crossed...
Mooie ontwikkeling weer voor VR. Hopelijk gaat de evolutie van VR door dit soort slimmigheden wat sneller.


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True