Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 34 reacties
Bron: CNN

LippenTot nu toe waren computers slechts in staat om tweedimensionale beelden te analyseren, maar een recent wetenschappelijk project heeft geleid tot nieuwe mogelijkheden. Via een bepaalde techniek van Intel is het nu uitvoerbaar om apparatuur de diepte te laten ontdekken in een ruimte. Dat klinkt misschien nog niet eens zo revolutionair, maar de toepassingen zijn talrijk.

De techniek staat nog in haar kinderschoenen, maar de toekomst is grandioos volgens de deskundigen. Zo wordt er bijvoorbeeld gesproken over liplezen en het herkennen van gebarentaal. Over zo'n vijf tot tien jaar verwacht Intel een grote invloed van het zichtvermogen van computers op de communicatie die tussen deze en de gebruiker plaatsvindt. Om ontwikkelaars een helpende hand te bieden met onderzoek naar de mogelijkheden, heeft Intel een Open Source Computer Vision Library opgesteld met hierin allerlei programmatuur die met dit onderwerp te maken heeft.

Wil je meer weten, surf dan richting CNN.

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (34)

een mens kan vaak diepte zien omdat hij een bepaald beeld heeft van dingen. Als je een plaatje ziet van een hoofd en daarboven een vliegtuig die op t plaatje kleiner is, dan weet je dat t vliegtuig veel verder weg is.

Maar een computer trekt dit verband niet, dus eigenlijk zou je ook een stukje AI moeten inprogrammeren wat hem leert dat een boeing groter is dan een mens bijvoorbeeld.
Het zou natuurlijk helemaal mooi zijn als de PC dat zou kunnen léren, om alles 'in het juiste perspectief' te zien :)

Alleen is het natuurlijk wel vreselijk moeilijk om te ontdekken welk object wat voor ding is, en wat voor grootte het dus zou moeten zijn :)
Let wel mensen. het gaat hier om TWEEdimensionale beelden.

velen hier lezen niet goed en denken aan real-life objecten die "3d" gescand worden, dit kan natuurlijk al lang.
Inderdaad, zoiets als een 3d-scanner is al een tijdje op de markt..

Hiermee kun je bestaande modellen (in de echte wereld dus) omzetten in bijv. 3dmax modellen voor verdere bewerking..

Zo technologisch geavanceerd is 3d kijken met meerdere zichtbronnen (camera's) dus niet..

Linkje:
http://www.montech.com.au/Technology_Licensing/3D_Sc anner/3d_scanner.html
Met twee (web)cams en een stukje software moet dit toch niet zo moeilijk zijn? Er rijden toch al jaren robots rond die in principe niets anders doen.
Die werken meestal met afstand sensoren enz om hun omgeving af te zoeken.
De computer was tot voor kort vrijwel niet in staat om van een plaatje de diepte te "zien".
Maar het analyseren van een met één webcam genomen plaatje is nog steeds bagger moeilijk. Een mens zal er geen moeite mee hebben te ontdekken dat dat ronde ding op de voorgrond een hoofd is, en dat wazige groene op de achtergrond een boom, dus een close-up. Maar een PC zal dit niet lukken, als het hem binnekort wel lukt door b.v. naar de schaduw te kijken, nou, dan ben je al een heel stuk verder in het 3D maken van je plaatjes en het beter communiceren met je PC.
Idd, maar dat ligt er ook aan dat 1 plaatje 1 plaatje is, en niet 2 plaatjes zoals jij dat ziet, met 2 ogen. Probeer maareens met 1 ook te kijken, dan is het al onmogelijk te zien wat er zich op de voorgrond bevindt, als je de objecten niet herkent.
Een mens gebruikt heel veel verschillende informatie. Als jij rondkijkt (ook met een oog) maak je direct al een soort 3D model van je omgeving op basis van kennis van de omgeving. Met één oog zie je ook diepte omdat je vaak je hoofd ook nog beweegd waardoor voorwerpen verschillend bewegen verder beschikt je oog ook nog over een (hersen gestuurde) autofocus waarmee je ook al een beetje diepte kan bepalen. Verder weten we ook nog veel informatie te halen uit schaduwen en belichtings effecten.

Nog heel veel te doen voordat een computer dit allemaal ook kan doen. Denk alleen maar aan het feit dat mensen een vreemde bank als bank kunnen klasificeren onder vershillende licht omstandigheden.
ik trek t vergelijk met hoe een mens naar een (2d)afbeelding kijkt. als ik naar een plaatje in een boek kijk zie ik ook geen (wiskundig gezien) diepte. ik kan t onderscheiden omdat ik vergelijkingen kan trekken en relaties kan leggen.
(reactie op PuzzleSolver)
Met andere woorden: een echte AI op de computer is nog dichterbij gekomen!
Het is inderdaad moeilijk de PC iets driedimensionaals te herkennen in 1 plaatje. Het is echter wel mogelijk de computer 3d te herkennen in meerdere plaatjes. Er zijn al verscheidene onderzoeken geweest die dit aantonen. Dhr. Pollefeys van de Universiteit van Leuven heeft veel onderzoek gedaan op dit gebied.

[edit] url even aangepast
klopt, zo werkt het ook. stond gister al in de newslinks. Maar de gemiddelde thuisgebruiker heeft geen twee webcams liggen. En wie dat stukje software schrijft wil waarschijnlijk wel dat we er voor neertellen. Het kan dus nog wel even duren.....
Met 2 webcams zie jenog geen diepte gelijk.
Denk wel dat het iest verder gaat hoor.
Vervang de webcams door ogen en een mens doet niet veel anders.
Die webcams zijn het punt niet, het gaat om de verwerking van de informatiestroom die je daaruit krijgt.
Wat een overloos gelul zeg. Denk jij dat je door pixels te vergelijken diepte ziet? wat bij een bewegende lichtbron, of bewegende mensen, of bewegende camera? hoe weet de computer wat bewogen is en wat niet? echt niet door alleen pixels te vergelijken.
Denk maar niet dat "een beetje nerd" dit even in elkaar flanst met een "bot algoritme", wat met de nieuwgevonden "rekenkracht" alles automagisch uitrekent.
Dit is echt state-of-the-art programmeerwerk!
Daar zijn AI programmeurs (een deel daarvan althans) al jaren mee bezig, die software ligt al lang op de plank.
fluitje van een cent voor een beetje nerd.

Een basis 3d analyse is echt zo moeilijk nog niet; twee plaatjes naast elkaar leggen, overrenkomsten zoeken en verschil in pixels bepalen.

probleem is meer de rekenpower. des te meer rekenpower, des te 'botter' (i.e. soms ook wel effectiever) kun je het algoritme maken.
Optimalisatie op snelheid gaat nou eenmaal ten koste van het onderscheidingsvermogen. Rekenkracht daarentegen maakt een heleboel goed.
Waarom maar twee wabcams, omdat de mens ook twee ogen heeft?
Als je 3 of 4 webcams gebruikt, kan je correcties uitvoeren en een hogere kwaliteit krijgen.
Er zijn ook gevallen gezien van robots met een soort sonar apparatuur om bijvoorbeeld afstand tot objecten en grootte van objecten te bepalen om vervolgens een route hier omheen te berekenen.
Ook is het mogelijk om afstand te bepalen met lasers (denk bijvoorbeeld aan een auto met een afstandsmeter gekoppeld aan cruisecontrol, bv Mercedes CL600). Dit is in weze niet veel anders, ware het niet dat Intel het nog beter te doen, voor liplezen moet je echt tot op mililmeters precies kunnen gaan werken en razendsnel interpreteren. Dit zal voorlopig de grootste moeilijkheid zijn, de interpretatie van de aangeboden data. Gezichtsherkenning is nog veel moeilijker dan je denkt overigens... hoe vaak denk jij niet dat je iemand kent terwijl het iemand is die er verdomd veel op lijkt? Probeer dan maar eens de software te schrijven die dit wel feilloos kan...
Dit is in weze niet veel anders, ware het niet dat Intel het nog beter te doen, voor liplezen moet je echt tot op mililmeters precies kunnen gaan werken en razendsnel interpreteren. Dit zal voorlopig de grootste moeilijkheid zijn, de interpretatie van de aangeboden data
En zie hier de reden dat Intel er geld in stopt, om razendsnel te interpreteren heb je weer snellere processors nodig.

En wie maakt die :? Juist!

edit:
is dit een troll? Mag er niet gezegt worden dat Intel dit echt niet vanuit de hobby sfeer bedenkt??
juist, AMD maakt die :)
Dat is niet helemaal waar, neem als voorbeeld mensen die hun hele leven blind zijn geweest en door een operatie voor het eerst kunnen zien, zij hebben erg veel moeite met diepte en afstanden schatten. Ook jonge(pasgeboren) kinderen schijnen dit nog niet te kunnen, het is iets dat ze leren.
(argh tis op de verkeerde plek terechtgekomen, dit was een reactie op :
Gepost door RobzQ Woensdag 19 December 2001 - 17:00 Score: 3 (Inzichtvol)
Vervang de webcams door ogen en een mens doet niet veel anders.)
Intel maakt ten 1e niet alleen processoren. Tevens is het moeilijk te voorspellen of Intel er tegen die tijd nog is (zelf denk ik van wel, maar zeker weten doet niemand het). Het zou kunnen dat bijvoorbeeld door IBM of AMD een processor ontwikkeld zou worden waardoor niemand meer in Intel processors geinteresseerd zou zijn. Dus zo vanzelfsprekend vind ik je argument eigenlijk niet (alhoewel ik wel begrijp wat je bedoelt ;)).

edit:

RobzQ: vragen/opmerkingen met betrekking tot de moderaties zijn iets beter geeigend voor het Tweakers.net Moddereter Forum. Al je vragen/opmerkingen/commentaar met betrekking tot de moderaties kun je daar kwijt. :)
Dan zal gezichtsherkenning ook beter gaan..
Leuke ontwikkeling..
\[Oeps, bedoeld als reactie op Venator]
Ook is het mogelijk om afstand te bepalen met lasers (denk bijvoorbeeld aan een auto met een afstandsmeter gekoppeld aan cruisecontrol, bv Mercedes CL600). Dit is in weze niet veel anders
Daar ben ik het dus absoluut niet mee eens. Er bestaan natuurlijk allang manieren om afstanden te bepalen, maar dat is fundamenteel wat anders dan mbv computers vanaf beelden 'diepte' in te zien!
Binnenkort zal bijna elke PC USB 2 hebben, dan moet het toch niet moeilijk zijn om er een digitale camera met 2 lenzen bij te maken. Zo duur zijn die webcams de laatste tijd niet meer.
Dit lijkt me veel makkelijker en betrouwbaarder gaan worden met het herkennen van 3 dimensionaal beeld.

Met dit idee lijkt me ook makkelijk een 3D scanner te realiseren. Alleen zou er nog een standaard moeten komen voor 3D plaatjes. Zou je alvast online kunnen bekijken hoe je nieuwe moederbord, of nieuwe videokaart er uit ziet om te bepalen of je koelblokken erop passen. Dan zou je alleen van een kant kunnen bekijken, maar door een andere kant ook te scannen zou dit later aan elkaar gekoppeld kunnen worden. Krijg je een compleet 3D object.
Lijkt me vooral voor bedrijven voor diverse onderdelen zeer handig.
Of is er al zoiets in de maak?
Hmmmzz, wel handig voor de dove mensen om te gaan dicteren voor de brieven e.d. Maar de grammatica van de doventaal is heel wat anders dan de gesproken taal! Ik weet wel dat je een zware computer nodig hebt en die zijn natuurlijk heel erg kostbaar en de doven hebben ook een duur leven vanwege de batterijtjes voor de gehoortoestel en de gehoortoestel natuurlijk!
Mensen kunnen diepte zien dmv 2 beelden en dmv beweging. Maar over HOE ze dat doen is nog maar weinig bekend. Hersenen gaan iig niet alle pixels vergelijken en er een heleboel berekeningen op loslaten. Zo exact werkt dat niet. Een heleboel "diepte" wordt niet eens waargenomen, maar wordt door de hersenen "bedacht". Wel super interessant al dat onderzoek over waarneming.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True