Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Demonstratie vr-briltechnologie van Fove

Door , 28 reacties

Fove demonstreert een aantal van de mogelijkheden van zijn virtual reality-technologie.

Lees meer

Reacties (28)

Wijzig sortering
Ik moet zeggen dit is toch inderdaad wel slim. Ik vraag me alleen af of dit snel genoeg en precies genoeg kan werken om het echte leven focus na te bootsen. Daarnaast kan ik ook focussen op 2 verschillende punten zonder mijn ogen te bewegen dus eigenlijk zou hij dat ook moeten detecteren. Nu ik mijn comment zo aan het schrijven ben betwijfel ik eigenlijk of ze dit wel echt goed kunnen krijgen. Als het echt werkt is het mooi, maar denk niet dat ze dit echt goed gaat lukken..
Tenzij je een speciale afwijking hebt, kan je met je ogen bij normaal gebruik slechts op één punt focussen. Je hersenen kunnen niet zomaar een tweede punt scherp stellen of iets dergelijks. Heeft met de fysieke bouw van het oog te maken. In het midden van het netvlies zit een fijner deel van receptoren, waardoor je door eye-tracking precies kan volgen wat iemand scherp ziet. Ook als je scheel kijkt, maar dan zien je hersens een dubbel beeld en wordt er meestal slechts één oog gebruikt voor het vormen van het beeld. De vr-bril zal dan voor beide ogen een scherp deel moeten laten zien.

[Reactie gewijzigd door Tjeerd84 op 26 juli 2014 11:12]

En hoe weet die bril dan of ik op het raam scherpstel, op een reflectie in het raam of op een voorwerp achter het raam? 3 mogelijke focuspunten voor 1 en dezelfde richting..

Voor correcte werking moet de tracker ook nog eens meer informatie hebben dan het volgens mij krijgt. Je moet het centrum van rotatie weten van het oog, waar dat punt zich bevindt ten opzichte van de tracker en dat relateren tot de pupil en het scherm in de bril.
Dit gaat niet nauwkeurig genoeg zijn om te bepalen of je naar de ene pixel aan het kijken bent of naar de andere.
Vergeet het dus maar, dat automatische scherpstellen.

[Reactie gewijzigd door koelpasta op 26 juli 2014 20:09]

Indien de bril de bolheid van de 2e lens in je kan meten, kan dit de diepte berekenen.
Het verschil tussen een reflectie op het raam of erachter maakt in dit geval niet veel uit.
Dit verschil wordt door andere eigenschappen van het beeld door je hersenen 'vertaald' naar of iets een reflectie is of erachter staat.
Je hebt maar 1 lens in je oog hoor. Er is geen 2e lens. Verder kan die sensor de sterkte van je lens niet registreren en zal het draaipunt van je oog geschat worden. Hierdoor weet het systeem niet precies waar je naar kijkt en zal automatische focus dus irritant werken.

Wat betreft reflecties e.d.:
Op een punt op glas kun je informatie van 3 verscillende dieptes waarnemen die dus alle drie een andere focus vereisen. Dit systeem kan daar geen onderscheid in maken en dat zou dus ook erg irritant zijn als ze dan zomaar een focuspunt voor je gokken.
Het hoornvlies werkt als de eerste lens.
Daarmee is de lens die jij bedoeld dus de 2e lens.

ZIe stukje hoornvlies bij;
http://www.oogartsen.nl/oogartsen/het_oog/bouw_functie/
Cool! Wist ik niet :)
Maar dat maakt het dan nog veel complexer. Het systeem heeft dan met twee lenzen te maken waarvan een vast en de andere dynamisch.
Heb ook net bedacht dat je de lenzen helemaal niet kan scannen. Je focust namelijk altijd op 1 afstand met zo'n bril omdat het oppervlak waar je naar kijkt (het scherm) alleen op die afstand scherp is.
Je lenzen doen dus eigenlijk niks.
Dat is wat ik bedoelde. Ik kan zonder me pupil te bewegen scherp stellen op het raam of iets erachter. Ik heb geen idee of dat in me oog gebeurd of in me hersenen, maar gebeurd dat in me oog dan zou dit ding dat ook moeten meten en dat lijkt me vrij onwaarschijnlijk dat die dat kan..
Gebeurt in je oog, als je op het raam zelf scherpstelt i.p.v. iets erachter, dan zal de lens in je oog wat boller worden om het beeld dat dichterbij is scherp op je netvlies te krijgen. Dus zal inderdaad de bolling van je lens gemeten moeten worden...
Maar omdat je altijd op een afstand kijkt, namelijk het scherm zal je lens nooit van vorm veranderen, dus onmogelijk om die functionaliteit in te bouwen dus...
misschien doordat ze beide ogen tracken?

Daarmee zouden ze ook kunnen zien hoe 'scheel' (vast een beter woord voor) je kijkt en daarmee weet je of je naar het raam, een reflectie, of er doorheen kijkt.
En hoe weet die bril dan of ik op het raam scherpstel, op een reflectie in het raam of op een voorwerp achter het raam? 3 mogelijke focuspunten voor 1 en dezelfde richting..

Voor correcte werking moet de tracker ook nog eens meer informatie hebben dan het volgens mij krijgt. Je moet het centrum van rotatie weten van het oog, waar dat punt zich bevindt ten opzichte van de tracker en dat relateren tot de pupil en het scherm in de bril.
Dit gaat niet nauwkeurig genoeg zijn om te bepalen of je naar de ene pixel aan het kijken bent of naar de andere.
Vergeet het dus maar, dat automatische scherpstellen.
Misschien snap ik het niet, maar volgens mij bestaat het probleem helemaal niet.

Elk oog in je VR bril heeft een eigen scherm en dat scherm is een plat vlak. Ze lezen de positie (orientatie) van je oog uit en trekken dan een lijn vanuit het midden van je oog, door het midden van je iris, naar het scherm. Daar raakt de lijn een pixel en die pixel is voor dat oog je focus punt.
Voor je andere oog het zelfde op je andere scherm.
Je computer heeft nu op elk beeld een focus pixel en weet precies waar je naar kijkt en hoe ver dat is.


edit: je zal ook je scherm wel moeten kalibreren (kijk naar het sterretej linksboven en dan naarhet sterretje rechtsonder o.i.d.) voor je gaat gamen om variatie in je ogen en positie van het scherm teniet te doen.

[Reactie gewijzigd door Durandal op 27 juli 2014 21:01]

Ik weet het niet zeker, maar volgens mij maak je een probleem dat er niet is..

Eyetracking werkt vaak door ocular-reflection: een ir lichtbron word in het oog geschenen en terug gereflecteerd door de pupil. De rotatie van het oog wordt vervolgens bepaald door de x-y positive van de reflective + de vervorming (ovaalheid) van de pupil te berekenen.

Als je naar je eigen vinger kijkt terwijl je die naar je toe en van je af beweegt merk je dat je niet alleen scherpstelt door de bolling van je ooglens maar bovendien weldegelijk je ogen ook beweegt (scheel kijken als iets heel dichtbij is). Je kan dus het verschil in de hoek tussen de twee ogen meten (ocular disparity) om te bepalen naar welke diepte wordt gekeken (en waar er iets scherpgesteld zou moeten worden). Het is een beetje moeilijk te verwoorden maar stel je kijkt naar een punt recht naar voren, afhankelijk van hoe ver het object van je vandaan is (z-positie), is de driehoek die je ogen naar dat punt vormen breder of smaller (zonder dat de relatieve x-y positie van het veranderd!).

Let op dat je bij een reflective in een spiegel of raam ook zeker dit verschil in diepte hebt, ten overstaande van bijvoorbeeld een computerscherm. Zelfs met 1 oog dicht kan je veel dichter bij een spiegel staan en je eigen gezicht nog scherp zien, dat dat je bij een scherm (met hele hoge resolutie) zou kunnen staan en het beeld nog scherp kan zien, omdat de relfectie in het raam een ander virtuele diepte/afstand heeft.

Waar ro8in denk ik naar refereert is dan ook niet het fysiek focussen (scherpstellen) op twee punten. Maar het verplaatsen van bewuste aandacht naar twee punten. Net zoals je je aandacht kan plaatsen op iets in de periferie. Dat wil echter niet zeggen dat je dan ook scherpstel op dat punt! Dit zou inderdaad iets zijn wat een eye-tracker niet zou kunnen oppikken en voor praktische doeleinden ook niet zou moeten doen! Als de eye-tracker dan het beeld in de periferie 'scherpstel' heb je er niks aan omdat je fovea daar niet op gericht is, en het gebrek aan scherpte daar niet komt vanwege de hoek van inval van het licht maar vanwege de resolutie van dat deel van je netvlies!


Dus in het kort: onscherpte in een 3-d scherm komt door de relatieve verschuiving op de x as van het beeld tussen de twee ogen. Je ogen stellen scherp mede door de relatieve hoek tussen de richting van de twee ogen. De pc meet dit en weet naar welke diepte je aan het kijken bent en kan daar een object selecteren of wat voor manipulatie dan ook mee doen. Reflecties en objecten achter een raam hebben per definitie een andere diepte en dus een andere verschuiving op de x-as (tussen de twee ogen). Dat moet dus geen probleem zijn. Je aandact verplaatsen naar een deel van je gezichtsveld dat niet op je fovea valt kan een eye-tracker niet meten, maar is waarschijnlijk ook helemaal niet nuttig/nodig.

[Reactie gewijzigd door k.olfers op 28 juli 2014 02:44]

Ik weet het niet zeker, maar volgens mij maak je een probleem dat er niet is..
Mischien wel, daar ben ik nog niet uit.
Eyetracking werkt vaak door ocular-reflection: een ir lichtbron word in het oog geschenen en terug gereflecteerd door de pupil. De rotatie van het oog wordt vervolgens bepaald door de x-y positive van de reflective + de vervorming (ovaalheid) van de pupil te berekenen.
Leuk, maar zou enorme callibratie vereisen (omdat ogen bijvoorbeeld niet symmetrisch roteren) om het oog ook werkelijk op enige resolutie te tracken.
De x-y positie van die reflectie gaat al niet voldoende zijn want het middelpunt (van de draaing) van het oog verandert constant. Ze zult een xyz + rotatie meting moeten doen en dat via allerlei complexe calibraties terug moeten voeren naar positie en orieentatie an het oog.

Om grof de orientatie te meten is het een prima methode. Ook om te gebruiken als een besturing is goed te doen omdat dat via een feedbacklus werkt waarbij je hersenen voor de afwijkingen compenseren.
Om vast te stellen naar welke pixel je kijkt zal deze methode denk ik niet afdoende zijn.
Als de eye-tracker dan het beeld in de periferie 'scherpstel' heb je er niks aan omdat je fovea daar niet op gericht is, en het gebrek aan scherpte daar niet komt vanwege de hoek van inval van het licht maar vanwege de resolutie van dat deel van je netvlies!
Het gaat meer om normale scherptediepte effecten.
Dus, je kijkt bijvoorbeeld van dichtbij naar je vinger waarbij de achtergrond blurry wordt. Daarbij gaat het dus om een mix van scherpe en blurry pixels in het fovea gebied.
En bij glas kun je in sommige gevallen op 3 compleet verschillende dieptes scherpstellen binnen een enorm kleine afstand. Om dat goed af te handelen qua scherptediepte zou je dus een enorm nauwkeurige meting moeten doen van de positie en kijkrichting van het oog.

Hoe meer ik er over nadenk hoe meer ik denk dat dit reclamepraat is en dat automatische focus niet goed gaat werken.
Je fovea neemt nog redelijk een stukje van je beeld in beslag. Zodra er in dat gebied meerdere dieptes zijn waar te nemen (dus bijvoorbeeld een ruit met daar iets achter, een reflectie en zn eigen structuur) dan weet de computer gewoon niet waar ie op moet scherpstellen voor jouw.

Kijk het filmpje nog maar eens. Je ziet soldaten lopen waarop gefocussed wordt door ernaar te kijken.
Maar wat als je net langs de schouder van zo'n mannetje probeert te kijken?
Volgens mij denkt de computer dan dat je op het mannetje wilt focussen en blurt de achtergrond die je eigenlijk wilt zien weg. Dat zou tot heel nare artefacten leiden waarbij je oogspieren ernstig in de war zouden raken door verkeerde feedback.

Voor duidelijke situaties (je kijkt naar het midden van zo'n mannetje) is het redelijk makkelijk om grof te doen. Maar in een complexe situatie wordt het moeilijk en volgens mij zelfs niet te doen met deze techniek.
"een aantal van de mogelijkheden" Ik telde alles bij mekaar 1 mogelijkheid, en dat was eye tracking. Een beetje misleidend en teleurstellend.....

Mooi filmpje, dat wel.

[Reactie gewijzigd door dunpealhunter op 26 juli 2014 10:15]

puur uit nieuwsgierigheid , wat als je scheel kijkt ? ik bedoel je hebt mensen waarvan je een oog naar iemand kijkt en de andere oog rechtdoor kijkt ( divergent scheelzien)? of een luie oog hebt
Waarschijnlijk neemt het een gemiddelde van beide ogen...
Net als een scheel iemand.
Dan kan de diplopia VR game je misschien zelfs helpen je 3D zicht terug te krijgen! Deze eye tracking technologieën kunnen bij dit soort software nauwkeurigere en specifiekere behandelingen opleveren lijkt me. www.Diplopiagame.com
gaaf , dit wist ik niet, bedankt voor je link
Nou ik weet al een leuke titel voor de game: Luigi Death Stare
Maar ff serieus zijn er mensen die het echt leuk lijkt naar iets of iemand te kijken en schieten op die manier? Ik snap dat voor sommige mensen en voor sommige dingen eye tracking wel handig kan zijn maar ik zie mezelf nou niet echt gamen op die manier.
Demonstratie vr-briltechnologie? Lol, dit is een waardeloos marketing filmpje, wat heb je hier nu aan. Misschien volgende keer wat beter letten of iets toegevoegde waarde heeft om op de frontpage te zetten? Een echte demonstratie zou een ontwikkelaar zijn die echt iets laat zien of uitleg geeft. Jammer dit.
Helemaal mee eens. Een marketing animatie zonder inhoud, en geen toegevoegde waarde. Dat dat ding eye tracking moet kunnen wisten we vorige week al.
Hier word ik niet warm van.

Noem het dan teminste een promotiefilmje. Er wordt niets gedemonstreerd.

[Reactie gewijzigd door Durandal op 27 juli 2014 21:04]

mooi gemaakt maar totaal nietszeggend
Sorry maar dit filmpje toont helemaals niets. Zo te zien is het gewoon een pre-rendered marketing filmpje dat ons helemaal niets laat zien over het apparaat zelf en/of de prestaties van het apparaat.

Dit is geen demonstratie, en de titel is dan ook nogal misleidend.
Dit geeft wel een mooie opties voor nieuwe toepassingen, dat is wel gaaf. maar in FPS-games, gaat dit echt niet werken voor mij.

Ben ook benieuwd hoe ze dit gaan oplossen met mensen met een lui oog - of scheel kijkende mensen.. dan zit je 'muis vast' :?

[Reactie gewijzigd door dwarfangel op 26 juli 2014 13:21]

Daar wordt over het algemeen helaas geen rekenschap mee gehouden, hetzelfde als 3d, kan ook erg lastig zijn.
Ik zie een in dit filmple weer een hoop ellende voor de Mensheid. Mensen killen zoals in een Apache Heli ook kan. Zien is killen.

Op dit item kan niet meer gereageerd worden.


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*