Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Google brengt diy-kit voor computer vision uit

Google heeft de AIY Vision Kit aangekondigd. Hobbyisten en andere technici kunnen deze koppelen aan een Raspberry Pi en een camera, om het systeem onder andere objecten en gezichtsuitdrukkingen te laten herkennen.

De AIY Vision Kit bestaat uit een 'VisionBonnet'-bord, een ronde arcadeachtige knop, een piëzo-luidspreker, een macrolens en groothoek en verbindingskabels. Bovendien bevat het pakket een kartonnen behuizing voor de onderdelen. De gebruiker dient zelf een Raspberry Pi Zero W, een Raspberry Pi Camera, een sd-kaart en een voeding aan te schaffen.

Het 'VisionBonnet'-bord bevat een Movidius-chip van Intel voor het verwerken van de neuralenetwerkmodellen. De software die Google meelevert, kan met drie modellen overweg, die alle op Googles TensorFlow-bibliotheek gebaseerd zijn. Het ene model kan duizenden objecten herkennen, de ander kan gezichten en uitdrukkingen onderscheiden. Het derde model is gericht op de detectie van personen, honden en katten.

Google geeft als voorbeelden dat een AIY Vision-apparaat zo planten en dieren kan herkennen, reacties van mensen kan peilen en kan zien wie een kamer binnenkomt.  De kit kost in de VS 44,99 dollar, omgerekend en met btw is dat 45,70 euro. Google bracht eerder een Google Home-assistent als diy-kit in de AIY-serie uit: de Voice HAT.

Door

Nieuwsco÷rdinator

18 Linkedin Google+

Submitter: Kid_Stevie

Reacties (18)

Wijzig sortering
Als ik het goed gelezen heb, gaat dat herkennen lokaal op de Pi, zonder verbinding met Google.
Netjes!
De site waar het nieuwsbericht naar linkt geeft aan dat er drie verschillende neural networks gebruikt worden: een op basis van MobileNets die meer dan duizend verschillende voorwerpen kan herkennen, eentje om levende wezens te identificeren en eentje om gezichtsuitdrukkingen te herkennen. Hieruit leid ik af dat alle data naar Google gaat voor de analyse, omdat die drie netwerken van Google zelf zijn. Op zich ook logisch, omdat data het levensbloed van Google is en ze er sterk bij gebaat zijn er zoveel mogelijk van te vergaren.

Tot in hoeverre de foto's naar Google gaan, kan ik niet achterhalen.
Nee, het leuke is dat het erg lichte neural nets zijn, die je lokaal op een rPi kan draaien. Ze zijn ontwikkeld door Google, maar kunnen gewoon lokaal draaien, en draaien dus in deze setup lokaal op de rPi Zero W

Het bronartikel zegt o.a.:
While many of those technologies such as object, landmark, logo and text recognition are provided for internet-connected devices through the Cloud Vision API, we believe that the ever-increasing computational power of mobile devices can enable the delivery of these technologies into the hands of our users, anytime, anywhere, regardless of internet connection
En spreekt daarna over hoe licht en accuraat de neural nets zijn.

[Reactie gewijzigd door Niet Henk op 30 november 2017 19:59]

Ik heb ook even gelezen, en ik zag onderstaande tekst:
For those of you who have your own models in mind, we've included the original TensorFlow code and a compiler. Take a new model you have (or train) and run it on the the Intel« Movidius™ MA2450.
Je bent dus niet verplicht deze netwerken te gebruiken, je zou ook andere kunnen gebruiken.
Je hebt het compleet mis, dus. Alees draait lokaal. Maar je kan wel je eigen nets draaien.

Punt is, enkel als je je eigen nets traint KAN het via Google gaan (of niet, als je alles lokaal draait en dan op het bord zet) ... maar jouw conclusie klopt niet en is op niets gebaseerd en is FUD.
De netwerken zijn door google getrained, maar het getrainde netwerk draait gewoon geisoleerd op de PI. Om een neuraal netwerk te trainen heb je typisch heel veel data en processing power nodig, om het daarna in te zetten veel minder.
Voor de duidelijkheid: dit soort netwerken kan absoluut niet met een fatsoenlijke snelheid op een Pi Zero draaien. Het rekenen gebeurd op een Intel Movidius, een 1-watt computer met een architectuur die heel efficiŰnt neurale netwerken kan draaien. Ook verkrijgbaar in de vorm van een Neurale Computer Stick.
Hoop wel dat het lokaal blijft, en niet naar de servers van Google wordt gestuurd.
(Lijkt me wel dat het lokaal blijft.)

[Reactie gewijzigd door iCore op 30 november 2017 20:01]

Dit is een ontwikkelbord. De meeste toepassingen zijn denk ik niet interessant voor Google.
Ik denk dat als bekend zou worden dat allerlei ontwikkeldata doorgestuurd word naar Google, dit voor behoorlijke commotie zou zorgen.
Goed om over na te denken en de gebruikersvoorwaarden goed te lezen, maar ik denk niet dat dit speelt.

Oh, je bedoelt dat de NN analyse bij Google zou gebeuren.... Is het hele idee van de Movidius-chip niet dat die dat lokaal doet?

[Reactie gewijzigd door MeMoRy op 30 november 2017 21:57]

Je kunt uitgaand verkeer desnoods zelf filteren met ufw/iptables of je router.
Heel gaaf dit, maar hoe handig moet je zijn om dit te kunnen gebruiken? Ik heb wel een paar keer een RPI ge´nstalleerd, en wat dingen aan de GPIO gehangen. Met een beetje moeite heb ik wel eens een stukje code voor een arduino geschreven, maar dat was voor mij best lastig.

Kan ik met een dergelijk kennisniveau gebruik maken van deze kit? Bijvoorbeeld om te herkennen wanneer mijn 3D printer een print heeft verpest? Of is dit meer iets waar je een serieuze opleiding programmeren voor nodig hebt, en vervolgens honderden uren moet programmeren om iets functioneels te hebben?
Mt een beetje Python kennis kom je op de RPI heel ver. Je moet wel een beetje kunnen knutselen met hardware :9 .
Computer vision (machine vision) is eigenlijk altijd al een heel moeilijk ding geweest in normale code.

Echter lijkt dat het bordje niet barcodes (in verschillende orientaties) of handschrift kan herkennen.
Ook vraag ik mij af in hoeverre je invloed hebt op wat het bordje doet of "ziet".

Als je bijvoorbeeld terugkrijgt: "Kat" "Kat" "Kat" op het moment dat er een kat voorbij loopt, is het ook maar beperkt bruikbaar?
Als je het ding op de deur richt en je krijgt terug 'mama', of 'papa en kind 1' of 'onbekend' dan heeft het wel zijn nut. Iets wat een Netatmo en waarschijnlijk vele anderen al doen. Bij 'onbekend' zou je kunnen zeggen dat je een foto doorstuurt. Bij bekenden zet je de verwarming aan, licht aan als het donker is, enz.
Ja, dat hangt natuurlijk af van de kunsten en de fantasie van de programmeur. Je kunt een kat wegjagen met een sirene ofzoiets. Of je kunt hem in je auto hangen en de stoel aan laten passen aan de hand van het gezicht dat erin hangt, je kunt de oplaadpaal van je elektrische auto uit laten zetten als een ander probeert te laden, enzovoorts.
Drie keer "Kat" terug krijgen is op zich nog niet zo'n probleem, dat zou je nog in code op kunnen lossen door over tijd te kijken.

Wat wel een groot probleem is, is dat je vaak een verkeerde classificatie terug krijgt, omdat hij maar op een beperkte set objecten getraind is. Zo wordt de stick versie van de chip zelf als bottle geclassificeerd https://youtu.be/cP2l3NUwlHQ?t=23.

Na mijn weten is de enige manier om hier verbetering in te brengen, het gebruiken van een zwaarder model. Mocht iemand een andere oplossing weten dan hoor ik dat ook graag.
JA! Eindelijk de volgende DIY set van Google. Ben zelf in het bezit van de AIY voice kit. Geweldig om zelf een soort Home speaker te bouwen.

Google heeft meer van dit soort projecten aangekondigd en vision is dus de tweede. Deze gaat ook zeker weer aangeschaft worden.
Je kan ook raspberry pi met YOLO of OpenCV gebruiken. Is waarschijnlijk iets meer zelf doen, maar voor sommige goedkopen als ze de onderdelen al hebben.

Op dit item kan niet meer gereageerd worden.


Call of Duty: Black Ops 4 HTC U12+ dual sim LG W7 Samsung Galaxy S9 Dual Sim OnePlus 6 Battlefield V Microsoft Xbox One X Apple iPhone 8

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V. © 1998 - 2018 Hosting door True

*