Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 21 reacties

Project Tango wordt definitief ondergebracht binnen Google, waardoor het project 'promoveert' vanuit een experimentele onderzoeksgroep. Dat duidt erop dat de internetgigant plannen heeft om de hardware, die met camera's een 3d-beeld van de omgeving kan maken, verder te ontwikkelen.

Door de plannen wordt Project Tango uit de ATAP-afdeling gehaald en krijgt het een aparte ontwikkeltak binnen Google, zo werd bekendgemaakt op de bijbehorende Google+-pagina. Volgens de internetgigant krijgt Project Tango 'een nieuw thuis' en zal het verder worden ontwikkeld. Daarbij werden overigens geen verdere toekomstplannen onthuld.

De ATAP-groep wordt door Google gebruikt voor experimentele technologie. Er worden veel nieuwe ideeën ontwikkeld, maar veel projecten worden uiteindelijk stopgezet. Door het 'promoveren' van Project Tango lijkt het erop dat Google er toekomst in ziet.

Met Project Tango ontwikkelt Google hardware die met camera's een 3d-beeld van de omgeving kan maken. Er werd al een smartphone getoond, maar dit jaar moet er ook een tablet met 3d-mogelijkheden op de markt verschijnen. Precieze introductiedata voor de consumentenmarkt zijn nog niet bekendgemaakt.

Tablet van Project Tango

Moderatie-faq Wijzig weergave

Reacties (21)

Zullen ze een laser gebruiken om afstanden te meten ?
Voor de dieptemeting zijn twee camera's en dieptesensor en/of infraroodsensor aanwezig (bron 1 en bron 2).

Er is ook al een prototype smartphone van uitgebracht. Daarnaast heeft Google samen met NASA een ruimterobot ontwikkeld in combinatie met die project Tango smartphone.

Zoals tevens in het nieuwsbericht staat vermeld, is er al een consumentenversie met deze technologie in een tablet aangekondigd. Afgelopen zomer was die aankondiging, dus ik vind dat project Tango nog vrij laat uit de ATAP wordt gepromoveerd.
Voor de dieptemeting zijn twee camera's en dieptesensor en/of infraroodsensor aanwezig (bron 1 en bron 2).
Kinect gebruikt infrarood voor de 3D dieptemeting. Maar omdat zonlicht van nature veel infrarood bevat maakt dit de Kinect ongeschikt voor buitenopnamen. Uit je links blijkt dat de infraroodsensor de (enige?) dieptesensor is. Het is dus de vraag hoe Google dit buitenprobleem gaat oplossen.
Project Tango is een software project. Het doel is het "stitchen/mergen" van een stream aan 3D en video beelden van een portable-device tot ťťn omgevings map. Dit stukje map van de locale omgeving kan dan gematched worden met locatie gegevens en b.v. beelden van streetview van Google, om de exacte locatie van de gebruiker te achterhalen.

De prototypen van Google bevatten momenteel gewoon eenKinect sensorr. Die projecteren een IR punten wolk (Structured light ), waar een IR-camera met behulp van een referentie een 3D beeld uit kan bereken.

Net als bij Microsoft Kinect SDK of Intel Gesture SDK, is een nieuwe sensor b.v. TOF gewoon een kwestie van het toevoegen van een Low-level driver.

Note, Apple heeft in zijn toekomstige telefoons exact de zelfde technologie (daarom hebben ze Primesense opgekocht)
Zover ik weet maakt de project Tango device juist gebruik van TOF, een van de partners is namelijk PMDTec (www.pmdtec.com/), die TOF sensors ontwikkelen. Deze technologie is wat duurder en lagere resolutie dan de Kinect, maar mijn ervaring is dat het wel minder gevoelig is voor omgevingslicht.

[Reactie gewijzigd door jbvo op 1 februari 2015 13:23]

Er zijn verschillende manieren. Je kan ook stereovisie toepassen met twee camera's (zoals wij dat ook doen met onze ogen).
De Kinect maakt gebruik van een soort actieve stereovisie. In plaats van patronen in de beelden van beide camera's te vergelijken en daar mee diepte te berekenen projecteert de Kinect een patroon. Hoe dit patroon wordt verstoord door de omgeving wordt door de camera gemeten en daarmee wordt de diepte berekend.

Dan heb je nog een derde manier: Time of flight. Met deze methode stuur je een lichtbundel (of geluid) naar de omgeving en de tijd hoe lang de bundel erover doet om terug te komen. Dit kan met een enkele laserbundel, de zelfrijdende auto's van Google hebben eenrond draaiende spiegel op het dak die punt voor punt de omgeving scant. Probleem met deze units is dat ze groot en duur zijn. Je kan ook gelijk een heleboel punten scannen door een bundel te sturen en deze op een camera terug te laten vallen. De Kinect voor de Xbox One gebruikt deze techniek ook (zie hier voor een vergelijking met de originele Kinect). De resolutie van betaalbare Time of flight camera's is echter nog beperkt, 160x120 bijvoorbeeld.
http://www.softkinetic.com/Store/ProductID/2

Wat ook nog mogelijk is is met een bewegende camera te schatten hoe de camera heeft bewogen. Deze techniek heet 'Structure from motion' . Aangezien een gemiddelde telefoon een uitstekende versnellingsopnemer en gyro heeft kan je goede schattingen doen over de beweging. Het is dus waarschijnlijk dat Google deze techniek gebruikt. Met deze techniek doe je dus een soort van stereovisie, alleen dan met een camera. Je gaat de foto's van de camera op verschillende foto's vergelijken en daarmee de diepte schatten.

[Reactie gewijzigd door Mr_gadget op 31 januari 2015 21:49]

Waarschijnlijk dezelfde techniek die ze ook in hun zelfrijdende auto's gebruiken.
Mogelijk soortgelijke techniek als Kinect echte met 2 lenzen voor 3D
Streetview in 3d...
Mooie techniek om Sense & Avoid voor drones mee toe te passen!

Zodoende kunnen ze werkelijk autonoom door de buitenruimte navigeren, of uiteraard indoors. Gebruikstoepassingen zijn er legio uiteraard; pakketbezorging, eerste hulp, voedselpakketten droppen, rampgebied uitkammen, gebouwen die op instorten staan verkennen, sportevenementen verslaan, etc. etc.
Idee is gewoon oud. Een 3D uit 2D fotos maken is al lang bekend en ook in commerciele producten aanwezig, in verschillende software en mobiel telefoons.
Waarom wilt Google het zelf ontwikkelen (en niet van andere bedrijven kopen) en hoe gaan ze ermee geld verdienen - online maps, tablet, smartphones of iets anders? Google Glass!?
Zoals google het aanpakt is geheel nieuw. Er zijn nog geen volledig mobiele draadloze apparaten in staat om een 3d beeld van de omgeving te maken.

Sterker nog 2d panorama staat ook nog in de kinderschoenen.

Met Tango zou je je eigen huis als speelwereld voor games kunnen gebruiken.
Techniek is er al, en zonder al te veel poespas zelfs.
http://research.microsoft...bs/default.aspx?id=220845
Ik zie geen gebruiks vriendelijke soft en hardware. Slechts een research project. Dan is Tango een stuk verder.
lijkt me wel cool overigens..... achja mensen denken nu over spying, maar wie win8 heeft, heeft ook zoiets standaard als feature... Trusted Computer model.. ergste je kunt het niet uitschakelen. dat is de achter deur :p
Het bedrijf die samen met google deze hardware verder gaat ontwikkelen is Matterport.com

[Reactie gewijzigd door scli op 2 februari 2015 17:08]

Misschien een mooie toevoeging voor de gear vr met de 360 video's
Ja, de ontwikkelingen gaan op dit moment ook snel...misschien lijkt dit er een beetje op.

Een iets uitgebreide filmpje hiervan, hoe deze technologie toegepast kan worden.

[Reactie gewijzigd door scli op 2 februari 2015 17:13]

Wow cool. Thanks for the heads up. Ben benieuwd.
Dus jij denkt dat dat al niet mogelijk is?

Camera op elke smartphone ;)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True