Google brengt api uit om ar-objecten achter fysieke objecten te verstoppen

Google heeft zijn Depth-api uitgebracht met ARCore 1.18. Daarmee wordt het mogelijk voor ontwikkelaars om virtuele objecten achter fysieke obstakels te plaatsen. Voor de techniek is een enkele camera genoeg.

Ook een time-of-flightsensor is niet noodzakelijk, al kan die de ervaring wel verbeteren, zegt Google. Omdat een enkele camera genoeg is, kan de software draaien op honderden miljoenen Android-apparaten wereldwijd, aldus de zoekgigant.

Google bracht eerder al een preview uit van de api. Met de mogelijkheid om diepte te gebruiken in ar-toepassingen moeten nieuwe manieren van games spelen en ervaringen opbouwen mogelijk zijn. Zo kunnen objecten van de trap vallen bijvoorbeeld. Sommige ontwikkelaars konden in de previewfase al gebruik maken van de api, waaronder Snapchat.

ARCore is te beschouwen als een doorontwikkeling van Tango en is min of meer de tegenhanger van ARKit van Apple. Het zijn tools om allerlei augmented reality-toepassingen mogelijk te maken op smartphones.

Door Arnoud Wokke

Redacteur Tweakers

26-06-2020 • 07:18

10

Reacties (10)

10
10
7
1
0
2
Wijzig sortering
Hmm. In dit hele filmpje zie ik volgens mij maar 1 keer een AR object achter een real world object verdwijnen. (0:58), en dat ziet er niet heel overtuigend uit (geblurd).
Voelt meer als marketing dan als een technologische doorbraak.
deze video geeft een veel beter beeld van de mogelijkheden dan de reclame video van google.
Toen ik zag dat de Google engineers in portret mode stonden te filmen haakte ik af.
Dat ziet er zeer overtuigend uit. Ik vond AR tot nu toe meer lijken op een 3D object op een platte wereld. Maar als die wereld ook 3D wordt kun je er zoveel meer uit halen. Knappe techniek om zoveel diepte informatie te halen uit 1 camera.
Het maakt AR in ieder geval een stuk overtuigender. Tot nu toe heb ik de hype om AR nooit zo goed begrepen. Het is allemaal maar gimmicky, t ziet er niet uit en werkt 9 van de 10 keer niet of slecht. Hier door werkt het wellicht wat beter, nu nog werken aan de visuele kwaliteit om het wat overtuigender te maken.
ik heb een keertje met teamviewer pilot gespeeld (persoon kan AR tekenen en pijltjes zetten) en voor die toepassing kan het nuttig zijn (verder kan ik niets nuttigs bedenken, tenzij we richting google-glass/deus-ex gaan). maar vroeger waren PCs ook maar een gimmick.
Ja sommige dingen hebben gewoon veel meer tijd nodig om 'volwassen' te worden. AR heeft namelijk ontzettend veel geweldige mogelijke toepassingen. Voor de meeste zaken is het alleen nog simpel op dit moment.

Het idee van een routelijn die daadwerkelijk op de weg verschijnt (bv door middel van een AR vooruit in de auto) zou bijvoorbeeld al 10 keer beter werken als de lijn daadwerkelijk realistisch een hoek om kan gaan, en verdwijnt achter een gebouw. Ipv dat de lijn half over de stad/gebouwen lijkt te zweven zoals experimentele AR apps dat nu doen. Plus dat de AR objecten ook nog vaak trillen en opeens verplaatsen.

[Reactie gewijzigd door Atmosfeer op 3 augustus 2024 14:23]

Als Microsoft dit zou maken, dan zou het mogelijk moeten zijn om een homebuilt cockpit te gebruiken in combinatie met AR in een Flight Simulator. Nu heb ik een Oculus Rift S, en Leap Motion werkt niet, en Oculus maakt geen haast om hand tracking van de Quest op de Rift mogelijk te maken. Jammer.
Mooi dat de stap naar een API wordt gemaakt. Hopelijk versneld dit ook de use-cases en doorontwikkeling. Een kleine twee jaar geleden kwam al een demonstratie uit van Niantic die vergelijkbare functionaliteit laat zien (AR Occlusion). Wat mij betreft een cruciale stap om AR echt te laten landen in de realiteit.

Op dit item kan niet meer gereageerd worden.