Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 10 reacties

Google heeft vrijdagavond twee projecten getoond die de mens-machine-interactie zouden moeten verbeteren. Het gaat onder meer om een piepkleine chip voor het herkennen van handgebaren. Ook komt Google met een project voor 'slimme' kleding.

Aan de chip werkte Googles divisie voor experimentele producten, de zogenoemde Advanced Technology and Projects-afdeling, de afgelopen tien maanden. Tijdens de I/O-conferentie vrijdag liet de divisie de eerste resultaten zien. Het ging om een werkend prototype, dat Project Soli is gedoopt. Het apparaatje bleek al gebaren voor het wijzigen van instellingen te kunnen herkennen.

Google ontwikkelde de chip, omdat schermpjes van apparaten steeds kleiner worden. Dit bemoeilijkt volgens het bedrijf de bediening van de computertjes. De technologiegigant ziet dan ook een oplossing in het herkennen van handgebaren. Project Soli zou daarbij kunnen helpen. De chip is klein genoeg om in een klein apparaat, zoals een smartwatch, te stoppen.

Project Soli maakt gebruik van radartechniek voor het herkennen van de handgebaren. De chip werkt met microgolven op een frequentie van 60GHz en met een golflengte van vijf millimeter. Project Soli werkt tot een afstand van vijf meter. Daarvoor leest het apparaat niet het hele radarsignaal uit, maar slechts de verschillen tussen de signalen.

Google verwacht eind dit jaar meer met Soli te kunnen doen. Met een api moeten ontwikkelaars de mogelijkheid krijgen om handgebaren te 'vertalen' voor hun applicaties. Die gebaren zullen voor de chip aanvankelijk lastig zijn te registreren, maar dankzij machine learning moeten die registraties gaandeweg beter worden.

Google liet behalve Soli ook een andere vorm van mens-machine-interactie zien: Project Jacquard. Hierbij wil de technologiegigant elektronica in kleding weven. Op zichzelf gaat het hier niet om een nieuw concept; studenten kwamen bijvoorbeeld vorig jaar met een 'slimme' trui. Google zegt echter met Jacquard de complete kledingindustrie te willen hervormen.

Voorlopig bouwde de Advanced Technology and Projects-afdeling voor Project Jacquard een aparte chip die de signalen van de elektronica in katoen en zijde kan registreren en interpreteren. Feitelijk fungeert de kleding daardoor als touchscreen. Zo kan onder andere met een bepaalde veegbeweging een telefoon worden bediend. Google wil met kledingfabrikant Levi's de techniek op de markt gaan zetten.

Moderatie-faq Wijzig weergave

Reacties (10)

Google is met deze dingen zijn tijd ver vooruit! Echt geweldig wat we tegenwoordig allemaal kunnen! Kleding als touchscreen, apparaat dat handgebaren kan herkennen, ik vind het echt geweldig wat ze daar allemaal ontwikkelen en produceren
Die stukjs in de film waar ze laten zien dat ze door lijsjes scrollen enzo, dat hebben ze nog niet. Dat is puur markerting. Wat ze wel hebben is wat je in het begin zag, dat ze kunnen zien dat je je vingers biven een sensor kan houden en dat hij ze ziet, maar dat is nog ver weg van een fijnmazige detectie van de fingers.

Vindt het dan ook jammer dat partijen telkens vaker realisatie en het ideale beeld door elkaar heen projecteren. Het suggereert dat ze veel verder zijn in de ontwikkelingsfase dan dat ze daadwerkelijk zijn.
Als je de Google i/o talk bekeken had was het duidelijk geweest dat dit wel degelijk het geval is!
In de order-picking-industrie zie je al dat mensen half worden uitgerust met robotica en apparatuur die ze verteld wat te doen, en opdrachten stuurt. Volgens mij kan dat op veel meer plekken en met veel meer processen, dus goed dat google daarop inspringt.

Zorgen dat de mens ook terugkoppeling kan geven is daarin natuurlijk de eerste stap. Daarnaast is de techniek ook nog voor vele andere dingen toepasbaar. Het klinkt veelbelovend.
Machine learning impliceert dat de data naar de cloud moet worden gezonden voor verwerking, of heb ik iets gemist en zijn ze al zover dat ze dat al in een portable device kunnen inbouwen?
Waar haalt dat kleding input device zijn stroom vandaan? Hoe moet dit worden opgeladen?
En dit is waarom ik Google een geweldig bedrijf vind! Wat een innovatie :)
hiermee wil ik niet zeggen dat andere bedrijven niet innoveren..

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True